teoría de optimización
TRANSCRIPT
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
EXTENSIÓN PORLAMAR
Teoría de Optimización
Autor (a): Hector Farías
Docente de la asignatura (a): Alejandra Torres
SAIA – 2017
Introducción
Cuando decimos Optimizar nos basamos en la mejora de un equipo o de mejorar el costo
de un producto para que su beneficio sea el mejor posible siempre viendo en el menor consumo o
la menor pérdida de recursos.
Gracias a Isaac Newton y Carl Friedrich Gauss se propusieron los métodos para trabajar
con la optimización pudiéndose aplicar en varios campos los cuales son las matemáticas,
estadísticas, ciencias empíricas, ciencia de la computación, o economía.
En el caso más simple, un problema de optimización consiste en maximizar o minimizar
una función real eligiendo sistemáticamente valores de entrada y computando el valor de la
función para tener un resultado dependiendo lo que se busca sea maximizar o minimizar.
Desarrollo
1) Técnicas de Optimización Clásica
Las técnicas de optimización son herramientas matemáticas que tienen como objetivo la
maximización de beneficios, digamos de la eficiencia de un proceso o la minimización de esfuerzos
o pérdidas, digamos de las pérdidas de un material para elaborar un producto. Dado que la
medida de un esfuerzo requerido, medida de pérdidas o medida de beneficios puede expresarse
como una función (función objetivo) de varias variables, el proceso de optimización se puede
definir como el proceso de búsqueda de aquellas variables que minimizan o maximizan el valor de
la función. El proceso de optimización con la búsqueda de la minimización o maximización de una
función objetivo se trata del mismo problema, simplemente con el negativo de la función se
obtiene el máximo o con la función se obtiene el mínimo; visualizar la siguiente figura:
Ilustración 1: el mínimo de f(x) es el mismo al máximo de -f(x).
El parámetro o variable que minimiza o maximiza la función objetivo es la misma para
cualquiera de los casos; en x=x∗¿ se obtiene el mínimo de la función o el máximo de la función
negativa.
Adicionalmente a esta consideración, las siguientes operaciones sobre la función objetivo
no modificarán la solución óptima de la variable encontrada:
1. Multiplicación o división de la función objetivo por una constante positiva
2. Suma o resta de una constante a la función objetivo Visualizar la siguiente figura:
Ilustración 2: la Solución Optima de cf(x) o c + f(x) es igual que el de f(x)
Se puede decir que no existe un solo método para resolver todos los problemas de
optimización de forma eficiente, sino que se han desarrollado una gran cantidad de métodos de
optimización para resolver diferentes tipos de problemas. Existen técnicas de optimización que se
les conoce como técnicas de programación matemática o determinísticas, técnicas estocásticas,
técnicas estadísticas y técnicas modernas. La siguiente tabla muestra algunas de las técnicas de
optimización.
• Las técnicas determinísticas son muy útiles para encontrar el mínimo de una función
objetivo de varias variables bajo una serie de restricciones pre-establecidas siendo las
restricciones y las funciones, lineales o no lineales.
• Las técnicas estocásticas se pueden emplear para analizar problemas descritos por un
conjunto de variables aleatorias que tienen una función de distribución de probabilidad.
• Las técnicas estadísticas permiten analizar los problemas con datos experimentales y la
construcción de modelos empíricos para obtener la representación más adecuada de la
situación física que se quiere optimizar.
• Las técnicas modernas de optimización son algoritmos poderosos que permiten resolver
problemas tan complejos como el caso de movimiento de masas o tendencias, entre otras,
que se adecuaron para ser aplicados a problemas de ingeniería.
Tabla 1.1 Métodos de Investigación de Operaciones
Programación Matemática y
Técnicas de Optimización
Técnicas de Procesos
Estocásticos
Métodos Estadísticos
Métodos de Calculo
Cálculos de Variaciones
Programación No Lineal
Programación Geométrica
Programación Cuadrática
Programación Lineal
Programación Dinámica
Programación Estocástica
Programación Separable
Programación Multiobjetivo
Métodos de Red: CPM y PERT
Teoría de Juego
Técnicas de Optimización
Modernas o No tradicionales
Algoritmo Genético
Algoritmo Retorcido Simulado
Algoritmo de la Colonia de
Hormigas
Optimización Por Enjambre de
Partículas
Redes Neurales
Optimización Difusa
Teoría de Decisiones
Estadísticas
Procesos de Marvok
Teoría de Colas
Teoría de la Renovación
Métodos de Simulación
Método de Confiabilidad
Análisis de Regresión
Análisis de Conglomerados,
Reconocimiento de patrones
Diseños de Experimentos
Análisis Discriminante Lineal
2) Método de Newton
En análisis numérico, el método de Newton (conocido también como el método de Newton-
Raphson o el método de Newton-Fourier) es un algoritmo para encontrar aproximaciones de los
ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo
de una función, encontrando los ceros de su primera derivada.
El método de Newton-Raphson es un método abierto, en el sentido de que no está
garantizada su convergencia global. La única manera de alcanzar la convergencia es seleccionar un
valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con
un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La
relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si
ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz,
entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un
valor puesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la
recta tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método,
una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta
que el método haya convergido lo suficiente.
Sea f : [a ,b]→R función derivable definida en el intervalo real [a ,b]. Empezamos con un
valor inicial x0 y definimos para cada número natural n.
xn+1=xn−f (xn)f ' (xn)
Donde f ' denota la derivada de f.
Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable
con forma analítica o implícita conocible. Existen variantes del método aplicables a sistemas
discretos que permiten estimar las raíces de la tendencia, así como algoritmos que extienden el
método de Newton a sistemas multivariables, sistemas de ecuaciones, etcétera.
3) Formulación de Problemas de Optimización
a. Se Organiza los datos, la información disponible sobre el sistema
b. Se Organiza, Estructura y Mejora la Comprensión del Sistema
c. Internaliza la estructura organizativa de la Empresa
d. Permite compartir supuestos y resultados entre el modelador y el experto
e. Proporciona un entorno ágil para el análisis y la sensibilidad
f. Indica la dirección de mejora en las decisiones
Los modelos de optimización, es decir, aquellos donde existe un conjunto de variables de
decisión que deben maximizar/minimizar una función objetivo sometidas a un conjunto de
restricciones. Los modelos de programación lineal son más utilizados que todos los otros tipos de
optimización juntos y abarcan cualquier tipo de actividad humana como micro y macroeconomía,
finanzas, marketing, economía de la energía, organización de la producción, planificación de la
operación, selección de procesos, asignación de tareas, ingeniera química, forestal, agrónoma,
comercio internacional, desarrollo económico, etc.
4) Formas de la Función Objetivo
La función objetivo es la ecuación que será optimizada dadas las limitaciones o restricciones
determinadas y con variables que necesitan ser minimizadas o maximizadas usando técnicas de
programación lineal o no lineal.
Max 200 X+150Y+120ZS . A15X+7,5Y +5 Z=3152 X+3Y +2Z ≤110
X+Y +Z≤50X ,Y ,Z≥0
5) Métodos de Optimización
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas de tal
forma que sean resueltos con operaciones aritméticas. Aunque hay muchos tipos de métodos,
todos comparten una característica común, llevan a cabo un buen número de cálculos aritméticos
y emiten soluciones aproximadas.
Entre ellos los componen:
I. Ecuaciones Diferenciales Parciales
II. Aproximación Numérica y Errores
III. Ecuaciones Diferenciales Ordinarias
IV. Raíces de Ecuaciones
V. Interpolación, Diferenciación e Integración
VI. Sistemas de Ecuaciones Lineales Simultaneas
6) Procedimiento General para Resolver un Problema de Optimización
Los problemas de optimización son aquellos que se ocupan de elegir la decisión óptima de un
problema, es decir, encontrar cual es el máximo o mínimo de un determinado criterio (una
función) sujeto a unas condiciones que nos da el problema.
Pasos para Resolver un Problema de Optimización
Para resolver un problema de optimización de forma correcta vamos a establecer una
serie de pasos que nos harán más sencillo el planteamiento y la resolución:
1º. En primer lugar, establecemos cuál o cuáles son las incógnitas que nos plantea el problema.
2º. A continuación tenemos que buscar y plantear qué es lo que tenemos que maximizar o
minimizar: f (x , y )
3º. Después buscamos la condición que se nos plantea. En la mayoría de los problemas que nos
encontremos, la función a maximizar o minimizar dependerá de dos variables, por tanto la
condición nos permitirá relacionar estas dos variables para poner una en función de la otra.
4º. Una vez, que hemos despejado una variable en función de la otra, supongamos y en función de
x. Sustituimos en nuestra función a optimizar, quedándose ahora en función de una sola variable:
f (x)
5º. Derivamos la función y la igualamos a cero:f ´ (x)=0.
6º. Una vez obtenidas las soluciones nos falta el último paso, comprobar si realmente se trata de
un máximo o un mínimo, para ello, realizamos la segunda derivada de tal forma que: si f ´ ´ ( x )=0,
entonces se trata de un mínimo.
7º. El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde habíamos despejado y,
y hallar el valor de y , y damos la solución.
Ejemplo
Costo total (en miles de pesos) de pedido y almacenaje de x automóviles es:
C ( x )=4 x+720+ 921600x
Determinar el Tamaño del pedido que minimiza el costo total.
Primero se reescribe la función objetivo:
C ( x )=4 x+720+921600 x−1
Comenzamos a derivar cada término:
C ' ( x )=4−921600 x−2
Ahora Determinamos los Puntos Críticos de la Función:
C ' ( x )=0
4−921600 x−2=0
4−921600x2
=0
4=921600x2
4 x2=921600
x2=9216004
x2=230400
√ x2=±√230400
x=±480
En este punto del problema x representa Automóviles por lo cual es el tamaño del pedido
por lo cual es ilógico pensar una cantidad de automóviles negativa.
Por lo cual quedara x=480 siendo este valor donde hay punto crítico dentro de la función
ya que probablemente vamos a tener el mínimo de la función de costo.
Para verificar si el valor obtenido x=480 maximiza o minimiza la función objetivo es decir
la función de costo podemos hacer esto que se aprecia en la tabla, se crea una tabla y tomamos
varios valores de x entre ellos el valor obtenido que es 480 entonces esos valores los
reemplazamos en la función objetivo entonces los valores arrojados serán expresados en la tabla
de costo total por lo cual podemos apreciar que de todos los valores obtenidos el de 480 tiene el
menor costo total esto nos confirma que tiene el costo mínimo.
Tamaño del Pedido (Automóviles)
x
Costo Total (Miles de Pesos)
C ( x )=4 x+720+ 921600x
200 6128
400 4624
480 4560
600 4656
800 5072
Conclusión
La optimización de los recursos es una grandiosa herramienta para llevar a cabo ya que se
basa en la eficacia y la eficiencia para alcanzar grandes objetivos utilizando la menor cantidad de
recursos posibles. Las empresas tienen que establecer prioridades para que así se trabaje más
rápido en los puntos críticos que están afectando su crecimiento o analizar cómo podrían
beneficiarse de esas prioridades.
Cuando se busca una optimización de los recursos, también se busca el hecho de poder
ahorrar ciertos recursos, ya sean financieros o humanos para así mejorar la situación actual en la
que encuentra la organización en su mercado.
Referencias Bibliográficas y Electrónicas
Sergio Sellsch. Técnicas de Optimización. Recuperado de: documentslide.com/documents/07-
tecnicas-de-optimizacion.html
Wikipedia. Método de Newton. Recuperado de: es.wikipedia.org/wiki/M
%C3%A9todo_de_Newton
Andrés R, Pedro S, José F, Julián B, Pedro L. Modelos Matemáticos de Optimización. Recuperado
de: www.gams.com/docs/contributed/modelado_en_gams.pdf
Hector P, Roberto M, Arad Mora, Ángel T. Optimización. Recuperado de:
es.slideshare.net/Saidmora23/mtodos-de-optimizacion