optimizacion sin restrinciones maria hernandez

19
OPTIMIZACION SIN RESTRINCIONES EN FUNCION DE VARIAS VARIABLES AUTOR: MARIA HERNANDEZ CI: 18,852,446 Profesor: Luis Aponte

Upload: mariandreina

Post on 22-Jul-2016

213 views

Category:

Documents


0 download

DESCRIPTION

 

TRANSCRIPT

OPTIMIZACION SIN

RESTRINCIONES EN

FUNCION DE VARIAS

VARIABLES

AUTOR: MARIA HERNANDEZ

CI: 18,852,446

Profesor: Luis Aponte

Es la selección del mejor elemento (con respecto a algún

criterio) de un conjunto de elementos disponibles.

En el caso más simple, un problema de optimización consiste

en maximizar o minimizar una función real eligiendo

sistemáticamente valores de entrada (tomados de un conjunto

permitido) y computando el valor de la función.

En optimización sin restricciones se minimiza una función

objetivo que depende de variables reales sin restricciones

sobre los valores de esas variables. La formulación

matemática es: (OSR) min x∈IRn f(x) donde f es una

función suficientemente regular.

EJEMPLO:

Se intenta encontrar una curva que ajuste algunos datos

experimentales, por ejemplo medidas y1,...,ym de una señal

tomadas en los tiempos t1,...,tm. Desde los datos y el

conocimiento de la aplicación, se deduce que la señal tiene

un comportamiento exponencial y oscilatorio, y se elige

modelarlo por la función:

Φ(t, x) = x1 + x2e−(x3−t)2/x4 + x5 cos(x6t)

Los números reales xi, i = 1,..., 6 son los

parámetros del modelo. Se desea seleccionarlos

de manera que los valores del modelo Φ(tj , x)

ajusten los datos observados yj tanto como sea

posible. Para establecer el objetivo como un

problema de optimización, se agrupan los

parámetros xi en un vector de incógnitas

(x1,...,x6)t y se definen los residuos

OPTIMIZACION SIN

RESTRINCIONES

Formulación del problema de optimización

• Cualquier problema de optimización, por complejo que sea,

puede expresarse en los siguientes términos

Encontrar un vector x tal que se minimice una función objetivo f(x)

Sujeto a restricciones de la forma:

donde x es un vector de variables independientes

• La función objetivo puede tener un solo mínimo, en cuyo caso

se denomina unimodal, o varios mínimos locales o globales,

en cuyo caso se denomina multimodal

m1,...,k

0gk

x

• De acuerdo a la forma de f(x) y las restricciones:

– Programación Lineal: f(x) y las restricciones son lineales

– Programación No-lineal: f(x) es no-lineal y las restricciones pueden ser no-lineales

• De acuerdo a la presencia o no de restricciones:

– Optimización no restringida: El problema de optimización no tiene restricciones

– Optimización restringida: El problema de optimización tiene restricciones

• Según su dimensionalidad:

– Optimización unidimensional: función objetivo de una variable

– Optimización multidimensional: función objetivo de varias variables

• Según el número de funciones objetivo:

– Optimización con un objetivo: Una sola función objetivo

– Optimización con múltiples objetivos: varias funciones objetivo

CLASIFICACION DE PROBLEMAS

DE OPTIMIZACION

METODOS DE OPTIMIZACION

Los métodos de optimización es una rama de las matemáticas que

consistente en el uso de modelos matemáticos, estadísticos y

algoritmos con objeto de realizar un proceso de toma de

decisiones. Frecuentemente trata del estudio de complejos

sistemas reales, con la finalidad de mejorar (u optimizar) su

funcionamiento. La investigación de operaciones permite el

análisis de la toma de decisiones teniendo en cuenta la escasez de

recursos, para determinar cómo se puede optimizar un objetivo

definido, como la maximización de los beneficios o la minimización

de costos.

METODO DE NEWTON

El método de Newton o también llamado método de

Newton-Raphson es uno de los métodos mas útiles y

mejor conocido para aproximar el cero de una función.

Suponga que c es un cero de f , es decir, f(c)=0 y que x0 es

una aproximación de c. El polinomio de Taylor de grado

uno para f alrededor de x0 y su correspondiente residuo

es:

z esta entre x0 y x.

Si en la ecuación (1) se reemplaza x por c y usando el

hecho que f(c) = 0, se obtiene:

El método de la secante, es otro método para

aproximar el cero de una función en el que en cada

iteración se evalúa la función y no la derivada. A

continuación se presenta este método.

Utiliza la misma fórmula del Método de Newton:

METODO DE LA SECANTE

pero en lugar de utilizar la derivada f ´(xn), este valor se

aproxima por

Al reemplazar esta aproximación de f ´(xn) en la

fórmula de Newton resulta:

METODO DE LAGRANGE

El método de los multiplicadores de Lagrange, llamados así en honor a Joseph Louis

Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones

de múltiples variables sujetas a restricciones. Este método reduce el problema

restringido con n variables a uno sin restricciones de n + k variables, donde k es igual

al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente.

Estas nuevas variables escalares desconocidas, una para cada restricción, son

llamadas multiplicadores de Lagrange. El método dice que los puntos donde la

función tiene un extremo condicionado con k restricciones, están entre los puntos

estacionarios de una nueva función sin restricciones construida como

una combinación lineal de la función y las funciones implicadas en las restricciones,

cuyos coeficientes son los multiplicadores.

La demostración usa derivadas parciales y la regla de la cadena para funciones de

varias variables. Se trata de extraer una función implícita de las restricciones, y

encontrar las condiciones para que las derivadas parciales con respecto a

las variables independientes de la función sean iguales a cero.

CARACTERISTICAS DEL METODO

DE LAGRANGE

El método de eliminación de variables no resulta

operativo cuando el problema tiene muchas

restricciones o las restricciones son complejas, por

lo que resulta muy útil este método.

Los multiplicadores de LaGrange son un método

alternativo que además proporciona mas

información sobre el problema.

El teorema de Lagrange establece una condición

necesaria de optimidad.

CAMPO DE APLICACION

Existen en todos las ramas de la ciencia, en la física, en

la matemática, en la química, entre otros, situaciones en

las que conociendo un conjunto de datos experimentales

en un cierto intervalo de la variable independiente. Esto

es, conociendo una cierta cantidad de datos tabulados,

se hace preciso encontrar una función que verifique

todos estos datos y permita. Por consiguiente predecir la

existencia de otros valores con la aproximación

adecuada. El método de la interpretación de Lagrange

es de gran importancia en el análisis numérico.

METODO

Optimización de funciones de varias variables1 Extremos relativos

Los extremos relativos de funciones reales de varias variables se

definen de manera análoga al caso de una variable. Consideremos

un abierto U de R n , una función real f : U → R y un punto a ∈ U. La

función f tiene un máximo relativo o máximo local en a, si existe un

entorno V de a tal que f(x) ≤ f(a) para todo x ∈ V .

La función f tiene un mínimo relativo o mínimo local en a, si existe un

entorno V de a tal que f(x) ≥ f(a) para todo x ∈ V . Si en estas

definiciones se sustituyen las desigualdades no estrictas por

desigualdades estrictas, se obtienen las definiciones de máximo y

mínimo relativos estrictos.

Si f tiene un máximo o mínimo relativo en a, se dice que f tiene un

extremo relativo o extremo local en a. Si f es una función real

diferenciable en a y ∇f(a) = 0, se dice que a es un punto crıtico o

estacionario de f. Para las funciones diferenciables, ser un punto

crıtico es una condición necesaria para que exista un extremo en a:

Si f es una función real diferenciable en un

punto a y f tiene un extremo relativo en a,

entonces ∇f(a) = 0.

OPTIMIZACION DE VARIAS VARIABLES

Si f tiene un punto crıtico en a pero no tiene un extremo relativo en a, se

dice que a es un punto de silla de f.

Para funciones suficientemente regulares, es posible determinar la

naturaleza de un punto crıtico con la ayuda de las segundas derivadas.

Supongamos que f admite todas las segundas derivadas parciales en

a.

La matriz hessiana de f en a es la matriz cuadrada de orden n

Hf(a) = (Dijf(a)).

Notemos que, si f es de clase C 2 en un entorno de a, entonces Hf(a) es

una matriz simetrica porque, segun el teorema de Schwarz, Dijf(a) =

Djif(a). Para k = 1, . . . , n, sea 4k(f, a) el determinante de la matriz

obtenida de Hf(a) suprimiendo sus ´ultimas n − k filas y columnas, es

decir,

41(f, a) = D11f(a), 42(f, a) = D11f(a) D12f(a) D21f(a) D22f(a) , . . . ,

4n(f, a) = det Hf(a).

Si a es un punto crıtico, los signos de estos determinantes

proporcionan informacion sobre si a es maximo, mınimo o punto de

silla.

EJERCICIOS PROPUESTOS

2.- Calcula dos números que cumplan que al

sumarlos resulte 10 y la resta de uno de ellos menos

el inverso del otro sea mínima.

Condición: x + y = 10, de donde y = 10-x Condición: x

+ y = 10, de donde y = 10-x

La función:

F(x,y)= 𝑥 − 1

𝑦

F(x)= 𝑥 −1

10−𝑦 = −𝑥2 + 10𝑥 − 1

10 − 𝑥

f`(x) = 𝑥2 − 20𝑥 + 99

(10 + 𝑥)2

F`(x)= 0 » x =9 , x = 11

f“(x) = −2

(10−𝑥)3

f“(9) < 0 »máximo

f“(11) > 0 » mínimo

SOLUCION: X= 11 Y = -1

3.- Para la fabricación de un determinado producto, se

necesita invertir dinero en contratar empleados y

comprar máquinas. El dueño de la fábrica ha estimado que

si compra x máquinas y contrata “y” empleados, el

número de unidades de producto que podía fabricar

vendría dado por la función: f (x, y) = 90x ⋅ 𝑌2 Cada

máquina le supone una inversión de 2500 € y cada

contrato de un nuevo empleado otro de 1500 € Si el

empresario sólo dispone de un presupuesto de 22500€

para este fin, determine el número de obreros que debe

contratar y el número de máquinas que debe comprar

para maximizar la producción.

x= maquinas

y= empleados

Condición: 2500x + 1500y = 22500 »y = 45−5𝑥

3

Función f(x,y) = 90 𝑥𝑦2

f(x) = 90x .( 45 −5 𝑥

3 )2

f(x) = 250𝑥3 − 4500𝑥2 + 20500x

f`(x)= 750𝑥2 − 9000𝑥 + 205000

f`(x)= 0 » 𝑥1 = 3 𝑥2=9

f“ (x)= 1500x – 9000

f“ (3)< 0 » máximo

f“ (9) >0 » mínimo

SOLUCION: X=3 MAQUINAS Y= 10 EMPLEADOS

4.- Una empresa ha decidido mejorar su seguridad

instalando 9 alarmas. Un especialista en el tema señala que

dada la estructura de la empresa sólo puede optar por dos

tipos de alarmas, de tipo A o de tipo B; además, afirma que la

seguridad de la empresa se puede expresar como la décima

parte del producto entre el número de alarmas de tipo A

instaladas y el cuadrado del número de alarmas instaladas de

tipo B. ¿Cuántas alarmas de cada tipo se deben instalar en la

empresa para maximizar su seguridad?

Alarmas tipo A =x

Alarmas tipo B =y

Condición: x+y = 9, luego y=9-x

Función: 𝑥𝑦2 = f(x,y)

10

f (x,y) 𝑥𝑦2

10= x

9−𝑥 2

10

f(x,y) 81𝑥−36𝑥2+𝑥2

10

f(x,y)81−36𝑥+3𝑥2

10 = f`(x)= 0

Los valores que anulan la primera derivada son x=9 y x=3

f“ (x) = −36+6𝑥

10 f“(9) =

−36+54

10>0

f“(3) = −36+18

10<0

Luego x=9 es mínimo y x=3 es máximo

Solución: será necesario instalar de tipo A=x=3

alarmas y de tipo B=y=6 alarmas