optimizacion

17
Ejercicios de Optimización Realizado por: Rebeca Ferrer C.I.:24.695.638 Porlamar, Enero de 2017 Optimización de Sistemas y funciones Doc. Alejandra Torres

Upload: rebeca-ferrer

Post on 14-Feb-2017

98 views

Category:

Engineering


2 download

TRANSCRIPT

Page 1: Optimizacion

Ejercicios de Optimización

Realizado por: Rebeca FerrerC.I.:24.695.638

Porlamar, Enero de 2017

Optimización de Sistemas y funcionesDoc. Alejandra Torres

Page 2: Optimizacion

Extremos no restrictos con dos variables

Son los valores más grandes máximos o más pequeños mínimos, que toma una función en un punto situado ya sea

dentro de una región en particular de la curva extremo local o en el dominio de la función en su totalidad extremo

global o absoluto.

Una variable parcial de una función de diversas variables, es su derivada respecto a una de esas variables

manteniendo las otras como constantes.

Las derivadas parciales de primer y segundo orden son implementadas para hallar el punto crítico de funciones

vectoriales y geométricas

Page 3: Optimizacion

Ejercicio Extremos no restrictos con dos variables

Determinar los extremos de la función: f(x,y) = 4x ² + 2y ²– 2yx–10y - 2x

Solución:

Primero, de acuerdo a los pasos del procedimiento, necesitamos encontrar las derivadas parciales de la función de primer y

segundo orden con respecto a las variables x y y.

Comenzamos primero hallando la derivada parcial de primer orden con respecto a x y y.

Derivada parcial con respecto a x:F(x) = 8x – 2y -2

Derivada parcial con respecto y:F(y) = 4y - 2x - 10

Page 4: Optimizacion

Una vez obtenidas las derivadas parciales de primer orden, procedemos a hallar las derivadas parciales de segundo

orden

F(xx) = 8F(xy) = -2F(yy) = 4

Para encontrar los valores de x y y igualaremos a 0 los valores de la ecuación de primer orden:

F(x) = 8x – 2y -2 = 0F(y) = 4y - 2x – 10 = 0

Lo que nos deja un sistema de ecuación por resolver por método de reducción quedando de la siguiente manera:

F(x) = 8x – 2y -2 = 0 } 8x – 2y = 2F(y) = 4y - 2x – 10 = 0 } -2x + 4y = 10

Page 5: Optimizacion

Para resolver la ecuación por método de reducción podemos multiplicar la segunda ecuación por 4 para anular las x o la primera ecuación por 2 para anular

las y en este caso lo multiplicaremos por 4:

8x – 2y = 2-8x + 16y = 40---------------------------------- 14y = 42 y = 42/14 y = 3

Ahora para hallar el valor de la x debemos reemplazar el valor de la y en cualquiera de las ecuaciones:

-2x + 4(3) = 10-2x + 12 = 10-2x =10 – 12-2x = -2 x = -2/-2 x = 1

Page 6: Optimizacion

El punto critico lo encontramos en (1,3). una vez ubicado el punto critico, es necesario determinar su naturaleza para ello debemos aplicar la prueba D en las derivadas

parciales de segundo orden:

D = f xx . f yy – (f xy) ² D = 8 .4 – (-2) ² D = 32 – 4D = 28 > 0

Ahora sustituimos los valores que se encontraron para x y y en la función original:

F (1,3) = 4 (1) ² + 2(3) ² + 2(1) (3) – 10(3) – 2(1) = 4 + 18 – 6 – 30 – 2 = 22 – 38 = -16

Lo que significa que la función f(x,y) 4x² + 2y² – 2yx – 10y - 2x tiene un valor mínimo relativo en el punto (1,3) y ese

valor mínimo es -16.

Page 7: Optimizacion

Método de Lagrange

También conocido como el método de los multiplicadores de Lagrange. Llamado así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son llamadas multiplicadores de Lagrange. El método dice que los puntos donde la función tiene un extremo condicionado con k restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.

Page 8: Optimizacion

Ejercicio método Lagrange

Determinar el punto P(x,y,z) mas cercano al origen en el plano 2x+y–z–5=0

Solución:

El problema nos pide determinar el valor mínimo de la función

[op] = 2 ( x – 0) ² + (y – 0) ² + (z – 0) ²

= 2x² + y² + z²

Sujeta a la restricción

2x + y – z -5 = 0Como tiene un valor mínimo siempre que la función

F(x,y,z) = x² + y² + z²

Tenga un valor mínimo, podemos resolver el problema si encontramos el valor mínimo de la función f(x,y,z) sujeta a la

restricción 2x + y – z – 5 = 0

Page 9: Optimizacion

Nuestro problema se reduce al de determinar los puntos (x,y) donde la función:

H (x,y) = f (x,y,2x + y – 5) = x² + y² + (2x + y – 5) ²

Teniendo los valores mínimos. Como el dominio de h es todo el plano xy el criterio de la primera derivada nos dice que

cualquier mínimo que h pudiera tener, debe ocurrir en puntos donde:

Hx = 2x + 2 (2x + y – 5) (2) = 0, hy = 2y + 2 (2x + y – 5) = 0

Esto nos conduce a

10x + 4y = 20, 4x + 4y =10

Y la solución es

x = 5/3y = 5/6

Page 10: Optimizacion

Podemos aplicar un argumento geométrico junto con el criterio de la segunda derivada para mostrar que estos

valores minimizan la h. la coordenada de z del punto correspondiente en el plano z=2x+y–5 es:

z = 2 (5/3) + 5/6 – 5 = -5/6

por tanto el punto que buscamos es

punto mas cercano P (5/3,5/6,-5/6)

la distancia de p al origen es 5/26”2.04

Page 11: Optimizacion

Matriz jacobiana.

Es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más

interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este

sentido, el jacobiano representa la derivada de una función multivariable.

Page 12: Optimizacion

Ejercicio de matriz jacobiana

Calcular la matriz jacobiana de f (x1, x2,x3)=(x2/1. x² . x³ , 2x² –x 3/3)

Solución:

Como en nuestro caso tenemos una función la matriz jacobiana será de orden 2x3 y sus elementos vienen

dados por:

Observando que en nuestro caso los componentes de f son:

F1 (x1, x2, x3)= x 2/1 . x2 . x3 y f 2(x1, x2, x3) = 2x2 – x 3/3

Page 13: Optimizacion

Calculamos ya los elementos de la matriz jacobiana

De este modo la matriz jacobiana de nuestra función es:

Page 14: Optimizacion

Condiciones de Kuhn-Tucker

Son requerimientos necesarios y suficientes para que la solución de un problema de programación matemática sea

óptima. Es una generalización del método de los Multiplicadores de Lagrange. Estos permiten abordar la resolución de modelos de programación No Lineal que

consideran tanto restricciones de igualdad como desigualdad.

Page 15: Optimizacion

Ejercicio de Condiciones de Kuhn-Tucker

Minimizar la función de costo, sujeto a una restricción de igualdad

Maximizar: K = 5x2 – 80x + 2y – 32y

Sujeto a: x + y ≥ 30

Paso 1: multiplicando la función objetivo por -1 y estableciendo el lagrangiano,

C= -5X2 + 80X – Y2 + 32Y + λ (X + Y – 30)

Paso 2: donde las condiciones de kuhn- Thucker son

Cx = -10x + 80 + λ ≤ 0 Cy = -2y + 32 + λ ≤ 0 Cλ = X + Y – 30 ≥ 0x ≥ 0 y ≥ 0 λ≥ 0

x8-10x + 80 + λ) = 0y (-2y + 32 + λ) = 0 λ(x + y – 30) =0

Page 16: Optimizacion

Paso 3: se testean o revisan las condiciones de Kuhn-Tucker

(a)Si λ = x,y > 0 entonces de las condiciones de Kuhn-Tucker llevan a:

Si λ = 0 entonces de x (-10x + 80 + λ)= 0 se tiene que:

x = 8 , y = 16

sin embargo, estos resultados violan Cλ=x+y–30≥0 ya que:8+6–30≤ 0

(b) Si λ> 0 ,x,y > 0 todas las primeras derivadas parciales son estrictas igualdades:

Page 17: Optimizacion

Donde:

|A| = 12 |A1| = 109 |A2| = 252 |A3| = 440

Y se obtiene que:

x=9 y = 21 λ= 36.67

Los cuales dan la solución optima, ya que ninguna condición de Kuhn-Tucker es violada.