teoría de optimización

16
INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” EXTENSIÓN PORLAMAR Teoría de Optimización Autor (a): Hector Farías

Upload: hector-farias

Post on 13-Apr-2017

73 views

Category:

Engineering


0 download

TRANSCRIPT

Page 1: Teoría de Optimización

INSTITUTO UNIVERSITARIO POLITÉCNICO

“SANTIAGO MARIÑO”

EXTENSIÓN PORLAMAR

Teoría de Optimización

Autor (a): Hector Farías

Docente de la asignatura (a): Alejandra Torres

SAIA – 2017

Page 2: Teoría de Optimización

Introducción

Cuando decimos Optimizar nos basamos en la mejora de un equipo o de mejorar el costo

de un producto para que su beneficio sea el mejor posible siempre viendo en el menor consumo o

la menor pérdida de recursos.

Gracias a Isaac Newton y Carl Friedrich Gauss se propusieron los métodos para trabajar

con la optimización pudiéndose aplicar en varios campos los cuales son las matemáticas,

estadísticas, ciencias empíricas, ciencia de la computación, o economía.

En el caso más simple, un problema de optimización consiste en maximizar o minimizar

una función real eligiendo sistemáticamente valores de entrada y computando el valor de la

función para tener un resultado dependiendo lo que se busca sea maximizar o minimizar.

Page 3: Teoría de Optimización

Desarrollo

1) Técnicas de Optimización Clásica

Las técnicas de optimización son herramientas matemáticas que tienen como objetivo la

maximización de beneficios, digamos de la eficiencia de un proceso o la minimización de esfuerzos

o pérdidas, digamos de las pérdidas de un material para elaborar un producto. Dado que la

medida de un esfuerzo requerido, medida de pérdidas o medida de beneficios puede expresarse

como una función (función objetivo) de varias variables, el proceso de optimización se puede

definir como el proceso de búsqueda de aquellas variables que minimizan o maximizan el valor de

la función. El proceso de optimización con la búsqueda de la minimización o maximización de una

función objetivo se trata del mismo problema, simplemente con el negativo de la función se

obtiene el máximo o con la función se obtiene el mínimo; visualizar la siguiente figura:

Ilustración 1: el mínimo de f(x) es el mismo al máximo de -f(x).

El parámetro o variable que minimiza o maximiza la función objetivo es la misma para

cualquiera de los casos; en x=x∗¿ se obtiene el mínimo de la función o el máximo de la función

negativa.

Adicionalmente a esta consideración, las siguientes operaciones sobre la función objetivo

no modificarán la solución óptima de la variable encontrada:

1. Multiplicación o división de la función objetivo por una constante positiva

Page 4: Teoría de Optimización

2. Suma o resta de una constante a la función objetivo Visualizar la siguiente figura:

Ilustración 2: la Solución Optima de cf(x) o c + f(x) es igual que el de f(x)

Se puede decir que no existe un solo método para resolver todos los problemas de

optimización de forma eficiente, sino que se han desarrollado una gran cantidad de métodos de

optimización para resolver diferentes tipos de problemas. Existen técnicas de optimización que se

les conoce como técnicas de programación matemática o determinísticas, técnicas estocásticas,

técnicas estadísticas y técnicas modernas. La siguiente tabla muestra algunas de las técnicas de

optimización.

• Las técnicas determinísticas son muy útiles para encontrar el mínimo de una función

objetivo de varias variables bajo una serie de restricciones pre-establecidas siendo las

restricciones y las funciones, lineales o no lineales.

• Las técnicas estocásticas se pueden emplear para analizar problemas descritos por un

conjunto de variables aleatorias que tienen una función de distribución de probabilidad.

• Las técnicas estadísticas permiten analizar los problemas con datos experimentales y la

construcción de modelos empíricos para obtener la representación más adecuada de la

situación física que se quiere optimizar.

Page 5: Teoría de Optimización

• Las técnicas modernas de optimización son algoritmos poderosos que permiten resolver

problemas tan complejos como el caso de movimiento de masas o tendencias, entre otras,

que se adecuaron para ser aplicados a problemas de ingeniería.

Tabla 1.1 Métodos de Investigación de Operaciones

Programación Matemática y

Técnicas de Optimización

Técnicas de Procesos

Estocásticos

Métodos Estadísticos

Métodos de Calculo

Cálculos de Variaciones

Programación No Lineal

Programación Geométrica

Programación Cuadrática

Programación Lineal

Programación Dinámica

Programación Estocástica

Programación Separable

Programación Multiobjetivo

Métodos de Red: CPM y PERT

Teoría de Juego

Técnicas de Optimización

Modernas o No tradicionales

Algoritmo Genético

Algoritmo Retorcido Simulado

Algoritmo de la Colonia de

Hormigas

Optimización Por Enjambre de

Partículas

Redes Neurales

Optimización Difusa

Teoría de Decisiones

Estadísticas

Procesos de Marvok

Teoría de Colas

Teoría de la Renovación

Métodos de Simulación

Método de Confiabilidad

Análisis de Regresión

Análisis de Conglomerados,

Reconocimiento de patrones

Diseños de Experimentos

Análisis Discriminante Lineal

Page 6: Teoría de Optimización

2) Método de Newton

En análisis numérico, el método de Newton (conocido también como el método de Newton-

Raphson o el método de Newton-Fourier) es un algoritmo para encontrar aproximaciones de los

ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo

de una función, encontrando los ceros de su primera derivada.

El método de Newton-Raphson es un método abierto, en el sentido de que no está

garantizada su convergencia global. La única manera de alcanzar la convergencia es seleccionar un

valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con

un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La

relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si

ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz,

entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un

valor puesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la

recta tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método,

una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta

que el método haya convergido lo suficiente.

Sea f : [a ,b]→R función derivable definida en el intervalo real [a ,b]. Empezamos con un

valor inicial x0 y definimos para cada número natural n.

xn+1=xn−f (xn)f ' (xn)

Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable

con forma analítica o implícita conocible. Existen variantes del método aplicables a sistemas

discretos que permiten estimar las raíces de la tendencia, así como algoritmos que extienden el

método de Newton a sistemas multivariables, sistemas de ecuaciones, etcétera.

3) Formulación de Problemas de Optimización

a. Se Organiza los datos, la información disponible sobre el sistema

b. Se Organiza, Estructura y Mejora la Comprensión del Sistema

c. Internaliza la estructura organizativa de la Empresa

Page 7: Teoría de Optimización

d. Permite compartir supuestos y resultados entre el modelador y el experto

e. Proporciona un entorno ágil para el análisis y la sensibilidad

f. Indica la dirección de mejora en las decisiones

Los modelos de optimización, es decir, aquellos donde existe un conjunto de variables de

decisión que deben maximizar/minimizar una función objetivo sometidas a un conjunto de

restricciones. Los modelos de programación lineal son más utilizados que todos los otros tipos de

optimización juntos y abarcan cualquier tipo de actividad humana como micro y macroeconomía,

finanzas, marketing, economía de la energía, organización de la producción, planificación de la

operación, selección de procesos, asignación de tareas, ingeniera química, forestal, agrónoma,

comercio internacional, desarrollo económico, etc.

4) Formas de la Función Objetivo

La función objetivo es la ecuación que será optimizada dadas las limitaciones o restricciones

determinadas y con variables que necesitan ser minimizadas o maximizadas usando técnicas de

programación lineal o no lineal.

Max 200 X+150Y+120ZS . A15X+7,5Y +5 Z=3152 X+3Y +2Z ≤110

X+Y +Z≤50X ,Y ,Z≥0

5) Métodos de Optimización

Los métodos numéricos son técnicas mediante las cuales es posible formular problemas de tal

forma que sean resueltos con operaciones aritméticas. Aunque hay muchos tipos de métodos,

todos comparten una característica común, llevan a cabo un buen número de cálculos aritméticos

y emiten soluciones aproximadas.

Entre ellos los componen:

I. Ecuaciones Diferenciales Parciales

II. Aproximación Numérica y Errores

III. Ecuaciones Diferenciales Ordinarias

IV. Raíces de Ecuaciones

V. Interpolación, Diferenciación e Integración

VI. Sistemas de Ecuaciones Lineales Simultaneas

Page 8: Teoría de Optimización

6) Procedimiento General para Resolver un Problema de Optimización

Los problemas de optimización son aquellos que se ocupan de elegir la decisión óptima de un

problema, es decir, encontrar cual es el máximo o mínimo de un determinado criterio (una

función) sujeto a unas condiciones que nos da el problema.

Pasos para Resolver un Problema de Optimización

Para resolver un problema de optimización de forma correcta vamos a establecer una

serie de pasos que nos harán más sencillo el planteamiento y la resolución:

1º. En primer lugar, establecemos cuál o cuáles son las incógnitas que nos plantea el problema.

2º. A continuación tenemos que buscar y plantear qué es lo que tenemos que maximizar o

minimizar: f (x , y )

3º. Después buscamos la condición que se nos plantea. En la mayoría de los problemas que nos

encontremos, la función a maximizar o minimizar dependerá de dos variables, por tanto la

condición nos permitirá relacionar estas dos variables para poner una en función de la otra.

4º. Una vez, que hemos despejado una variable en función de la otra, supongamos y en función de

x. Sustituimos en nuestra función a optimizar, quedándose ahora en función de una sola variable:

f (x)

5º. Derivamos la función y la igualamos a cero:f ´ (x)=0.

6º. Una vez obtenidas las soluciones nos falta el último paso, comprobar si realmente se trata de

un máximo o un mínimo, para ello, realizamos la segunda derivada de tal forma que: si f ´ ´ ( x )=0,

entonces se trata de un mínimo.

7º. El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde habíamos despejado y,

y hallar el valor de y , y damos la solución.

Ejemplo

Costo total (en miles de pesos) de pedido y almacenaje de x automóviles es:

C ( x )=4 x+720+ 921600x

Determinar el Tamaño del pedido que minimiza el costo total.

Page 9: Teoría de Optimización

Primero se reescribe la función objetivo:

C ( x )=4 x+720+921600 x−1

Comenzamos a derivar cada término:

C ' ( x )=4−921600 x−2

Ahora Determinamos los Puntos Críticos de la Función:

C ' ( x )=0

4−921600 x−2=0

4−921600x2

=0

4=921600x2

4 x2=921600

x2=9216004

x2=230400

√ x2=±√230400

x=±480

En este punto del problema x representa Automóviles por lo cual es el tamaño del pedido

por lo cual es ilógico pensar una cantidad de automóviles negativa.

Por lo cual quedara x=480 siendo este valor donde hay punto crítico dentro de la función

ya que probablemente vamos a tener el mínimo de la función de costo.

Para verificar si el valor obtenido x=480 maximiza o minimiza la función objetivo es decir

la función de costo podemos hacer esto que se aprecia en la tabla, se crea una tabla y tomamos

varios valores de x entre ellos el valor obtenido que es 480 entonces esos valores los

reemplazamos en la función objetivo entonces los valores arrojados serán expresados en la tabla

Page 10: Teoría de Optimización

de costo total por lo cual podemos apreciar que de todos los valores obtenidos el de 480 tiene el

menor costo total esto nos confirma que tiene el costo mínimo.

Tamaño del Pedido (Automóviles)

x

Costo Total (Miles de Pesos)

C ( x )=4 x+720+ 921600x

200 6128

400 4624

480 4560

600 4656

800 5072

Conclusión

Page 11: Teoría de Optimización

La optimización de los recursos es una grandiosa herramienta para llevar a cabo ya que se

basa en la eficacia y la eficiencia para alcanzar grandes objetivos utilizando la menor cantidad de

recursos posibles. Las empresas tienen que establecer prioridades para que así se trabaje más

rápido en los puntos críticos que están afectando su crecimiento o analizar cómo podrían

beneficiarse de esas prioridades.

Cuando se busca una optimización de los recursos, también se busca el hecho de poder

ahorrar ciertos recursos, ya sean financieros o humanos para así mejorar la situación actual en la

que encuentra la organización en su mercado.

Referencias Bibliográficas y Electrónicas

Sergio Sellsch. Técnicas de Optimización. Recuperado de: documentslide.com/documents/07-

tecnicas-de-optimizacion.html

Page 12: Teoría de Optimización

Wikipedia. Método de Newton. Recuperado de: es.wikipedia.org/wiki/M

%C3%A9todo_de_Newton

Andrés R, Pedro S, José F, Julián B, Pedro L. Modelos Matemáticos de Optimización. Recuperado

de: www.gams.com/docs/contributed/modelado_en_gams.pdf

Hector P, Roberto M, Arad Mora, Ángel T. Optimización. Recuperado de:

es.slideshare.net/Saidmora23/mtodos-de-optimizacion