teoria de optimizacion

13
República Bolivariana de Venezuela Instituto Universitario Politécnico “Santiago Mariño” Porlamar. Estado Nueva Esparta Sede Genoves Teoría de optimización

Upload: rebeca-ferrer

Post on 14-Feb-2017

15 views

Category:

Engineering


3 download

TRANSCRIPT

Page 1: Teoria de  Optimizacion

República Bolivariana de Venezuela

Instituto Universitario Politécnico “Santiago Mariño”

Porlamar. Estado Nueva Esparta

Sede Genoves

Teoría de optimización

Realizado por:

Br. Rebeca Ferrer

C.I.:24.695.638

Porlamar, Enero de 2017

Page 2: Teoria de  Optimizacion

Introducción

Las técnicas de optimización, conjuntamente con los sistemas informáticos,

se han convertido en una poderosa herramienta para el diagnóstico y solución de

múltiples problemas complejos, presentes en las ciencias de la administración,

convirtiéndose en elemento decisivo, que aporta elementos importantes en la toma de

decisiones.

En matemáticas, estadísticas, ciencias empíricas, ciencia de la computación, o

economía, optimización matemática o bien, optimización o programación

matemática, es la selección del mejor elemento con respecto a algún criterio de un

conjunto de elementos disponibles.

En el caso más simple, un problema de optimización consiste en maximizar o

minimizar una función real eligiendo sistemáticamente valores de entrada tomados

de un conjunto permitido y computando el valor de la función. La generalización de

la teoría de la optimización y técnicas para otras formulaciones comprende un área

grande de las matemáticas aplicadas. De forma general, la optimización incluye el

descubrimiento de los mejores valores de alguna función objetivo dado un dominio

definido, incluyendo una variedad de diferentes tipos de funciones objetivo y

diferentes tipos de dominios.

Page 3: Teoria de  Optimizacion

Técnicas de optimización clásica

Las técnicas de optimización son herramientas matemáticas que tienen como

objetivo la maximización de beneficios, digamos de la eficiencia de un proceso o la

minimización de esfuerzos o pérdidas, digamos de las pérdidas de un material para

elaborar un producto.

Dado que la medida de un esfuerzo requerido, medida de pérdidas o medida

de beneficios puede expresarse como una función (función objetivo) de varias

variables, el proceso de optimización se puede definir como el proceso de búsqueda

de aquellas variables que minimizan o maximizan el valor de la función.

El proceso de optimización con la búsqueda de la minimización o

maximización de una función objetivo se trata del mismo problema, simplemente

con el negativo de la función se obtiene el máximo o con la función se obtiene el

mínimo

Se puede decir que no existe un solo método para resolver todos los

problemas de optimización de forma eficiente, sino que se han desarrollado una gran

cantidad de métodos de optimización para resolver diferentes tipos de problemas.

Existen técnicas de optimización que se les conoce como técnicas de programación

matemática o determinísticas, técnicas estocásticas, técnicas estadísticas y técnicas

modernas.

√ Las técnicas determinísticas son muy útiles para encontrar el mínimo

de una función objetivo de varias variables bajo una serie de

restricciones pre-establecidas siendo las restricciones y las funciones,

lineal o no lineal.

√ Las técnicas estocásticas se pueden emplear para analizar problemas

descritos por un conjunto de variables aleatorias que tienen una

función de distribución de probabilidad.

Page 4: Teoria de  Optimizacion

√ Las técnicas estadísticas permiten analizar los problemas con datos

experimentales y la construcción de modelos empíricos para obtener

la representación más adecuada de la situación física que se quiere

optimizar.

√ Las técnicas modernas de optimización son algoritmos poderosos que

permiten resolver problemas tan complejos como el caso de

movimiento de masas o tendencias, entre otras, que se adecuaron para

ser aplicados a problemas de ingeniería.

Método de Newton

Es un algoritmo para encontrar aproximaciones de los ceros o raíces de una

función real. También puede ser usado para encontrar el máximo o mínimo de una

función, encontrando los ceros de su primera derivada

El método de Newton-Raphson es un método abierto, en el sentido de que no

está garantizada su convergencia global. La única manera de alcanzar la

convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz

buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al

cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto

inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta presenta

múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces

las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un

valor puesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la

función por la recta tangente en ese valor supuesto. La abscisa en el origen de dicha

recta será, según el método, una mejor aproximación de la raíz que el valor anterior.

Se realizarán sucesivas iteraciones hasta que el método haya convergido lo

suficiente.

Page 5: Teoria de  Optimizacion

Función objetivo

La función objetivo es una relación matemática entre las variables de

decisión, parámetros y una magnitud que representa el objetivo o producto del

sistema. Es la medición de la efectividad del Modelo formulado en función de las

variables. Determina lo que se va optimizar Maximizar o Minimizar.

La solución ÓPTIMA se obtiene cuando el valor de la Función Objetivo es

óptimo (valor máximo o mínimo), para un conjunto de valores factibles de las

variables.

La función objetivo es la ecuación que será optimizada dadas las limitaciones

o restricciones determinadas y con variables que necesitan ser minimizadas o

maximizadas usando técnicas de programación lineal o no lineal.

F(x, y)= ax +by

Formas de la función objetivo

√ Ninguna solución óptima: se identifican infinidad de soluciones

factibles pero ningún punto como solución optima, porque siempre

habrá una mejor solución.

√ Exactamente una función optima: se identifican infinidad de

soluciones factibles pero solo un punto como solución óptima.

√ Una infinidad de soluciones óptimas: se identifican infinidad de

soluciones factibles y además soluciones óptimas múltiples.

Métodos de optimización

√ Newton Raspón: es un algoritmo para encontrar aproximaciones de los ceros

o raíces de una función real. Este método es uno de los mas utilizados para

Page 6: Teoria de  Optimizacion

localizar raíces ya que en general es muy eficiente y siempre converge para

una función polinomial. Se requiere que las funciones sean diferenciables, y

por tanto, continuas, para poder aplicar este método.

√ Jacobi: Cuando se resuelven numéricamente ecuaciones diferenciales pueden

surgir sistemas lineales con 20,000 variables. Los equipos de cómputo

disponibles en la actualidad podrían requerir incluso días para resolver estos

sistemas por métodos directos (como eliminación o factorización). El método

de Jácobi es un método iterativo con el cual se resuelve el sistema lineal. Un

sistema de ecuaciones algebraicas lineales es un conjunto de ecuaciones de la

forma:

En la solución de estos problemas pueden presentarse 3 casos:

1.- Solución única → Sistema compatible determinado.

2.- Mas de una solución → Sistema compatible e indeterminado. (Numero

infinito de soluciones)

3.- Sin solución → Sistema incompatible.

√ Lagrange: En los problemas de optimización, los multiplicadores de

Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método

para trabajar con funciones de varias variables que nos interesa maximizar o

minimizar, y está sujeta a ciertas restricciones. Este método reduce el

problema restringido en n variables en uno sin restricciones de n + 1 variables

cuyas ecuaciones pueden ser resueltas.

El primer paso consiste en determinar los puntos críticos para ello se forma la

función Lagrangeana:

F ( x, λ) = f ( x) + Xm j=1 λ j gj ( x )

Habiendo ubicado los puntos estacionarios viene el problema de determinar si

son máximos o mínimos locales.

√ Euler: Una ecuación diferencial es una ecuación en donde aparecen

funciones, sus derivadas, una o más variables independientes y una o mas

Page 7: Teoria de  Optimizacion

variables dependientes. El nombre es tradicional, sin embargo “ecuaciones en

derivadas” sería mas descriptivo. Estas se dividen en dos grupos:

1.- Ecuaciones Diferenciales Ordinarias (EDO) .- En donde aparece sólo una

variable independiente (que se denota con x).

2.- Ecuaciones Diferenciales Parciales (EDP) .- En las que aparece mas de

una variable independiente.

Procedimiento general para resolver un problema de optimización

Para resolver un problema de optimización de forma correcta vamos a

establecer una serie de pasos que nos harán más sencillo el planteamiento y la

resolución:

√ En primer lugar, establecemos cuál o cuáles son las incógnitas que nos

plantea el problema.

√ A continuación tenemos que buscar y plantear qué es lo que tenemos que

maximizar o minimizar: f(x,y)

√ Después buscamos la condición que se nos plantea. En la mayoría de los

problemas que nos encontremos, la función a maximizar o minimizar

dependerá de dos variables, por tanto la condición nos permitirá relacionar

estas dos variables para poner una en función de la otra.

√ Una vez, que hemos despejado una variable en función de la otra,

supongamos y en función de x. Sustituimos en nuestra función a optimizar,

quedándose ahora en función de una sola variable: f(x)

√ Derivamos la función y la igualamos a cero: f´(x)=0.

√ Una vez obtenidas las soluciones nos falta el último paso, comprobar si

realmente se trata de un máximo o un mínimo, para ello, realizamos la

segunda derivada de tal forma que: si f´´(x)0, entonces se trata de un mínimo.

√ El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde

habíamos despejado y, y hallar el valor de y, y damos la solución.

Conclusión

Page 8: Teoria de  Optimizacion

√ El objetivo de la optimización global es encontrar la mejor solución de

modelos de decisiones difíciles frente a las múltiples soluciones locales

√ Los métodos de optimización clásica se basan principalmente en la búsqueda

de la solución más óptima de funciones objetivo continuas y diferenciables.

√ La comprensión de estos métodos permite entender más fácilmente el

funcionamiento de los métodos de optimización basados en técnicas

estocásticas, estadísticas y modernas.

√ Para la utilización de esta herramienta es necesario conocer su metodología

científica, así como poseer conocimientos mínimos de Matemáticas,

Estadística Matemática y en especial de Álgebra Lineal.

Bibliografía

Page 9: Teoria de  Optimizacion

√ https://es.wikipedia.org/wiki/ Optimización _(matemática)

√ http://documents.mx/documents/07-tecnicas-de-optimizacion.html#

√ https://es.wikipedia.org/wiki/M%C3%A9todo_de_Newton

√ http://blogs.eco.unc.edu.ar/jorgeoviedo/files/2011/09/

oviedo_NewtonRaphson.pdf

√ http://www.monografias.com/trabajos96/formulacion-modelos-

programacion-lineal/formulacion-modelos-programacion-

lineal.shtml#ixzz4VqOgYehs

√ http://es.slideshare.net/nahilinochoa/optimizacin-de-sistemas-y-

funciones-conceptos-mtodos-y-ejemplos?qid=b31832dc-09f0-4603-

ba8c-49ad84c9f32c&v=&b=&from_search=6

√ http://matematica.laguia2000.com/general/problemas-de-

optimizacion#ixzz4Vs1CYMCE