teoria de la informacion - …ecaths1.s3.amazonaws.com/ticunse/942566735.tic introduccion.pdf ·...

35
22/08/2012 1 TEORIA DE LA INFORMACION Introducción Después de que Einstein demostrara la equivalencia entre “masa” y “energia” los dos parametros que la civilizazcion utiliza son INFORMACION y ENERGIA relacionado por la formula de Shanonn

Upload: phamdieu

Post on 19-Sep-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

22/08/2012

1

TEORIA DE LA INFORMACION

Introducción

Después de que Einstein demostrara la equivalencia entre “masa” y “energia” los dos parametros que la civilizazcion utiliza son INFORMACION y ENERGIA relacionado por la formula de Shanonn

22/08/2012

2

ORIGEN

Teoría de la Información 1948 Snannon “Una 

1948: Wiener: Cibérnetica

1953:McMillan‐ Fuenete d  I f ió     l d  teoría Matemática de la 

Comunicación”

1929 L. Szilar: Información‐Paradoja Física

1928: Hartlye: Método de comparación de los 

de Información , canal de transmisión 

1956: Khintchine‐Tratamiento completo T.I. para caneles ergódicos.

Resumen 1953: Winograd: 

Estableció  un lazo entre distintos métodos de transmisores de la información

Estableció  un lazo entre T.C. de Shannon y la teoría de autómatas

Documento de Shannon

Escrito por Shannon en 1948.

E él d ll b t d l t l En él se desarrolla buena parte de la actualteoría llamada de la información

Concepto de información

Medida de "cantidad de información".

Tratamiento matemático de la informaciónata e to ate át co de a o ac ó

22/08/2012

3

Comunicación

Quizás Fourier fue el primero en dar unateoría matemática para un problema decomunicación. Aunque su descubrimiento fuedebido a unos trabajos sobre transmisión decalor, su teoría es tan general queprácticamente se puede aplicar a cualquierárea.

INFORMACION

Terminología Señal

manifestación física ( de orden electromagnética  , onda sonora...) capaz de propagarse en un medio dado.  Es  la definición más amplia del concepto de señal.

22/08/2012

4

Terminología

M j S ñ l     

Fuente:proceso por el cual,  entre  todos  los  mensajes  posibles  es escogido de una  Mensaje:Señal  que  

corresponde   a   una realización particular del conjunto de  señales  dadas 

posibles, es escogido de una manera  imprevisible  un  mensaje  particular,  destinado  a  ser  transmitido  a  un   receptor  (observador

Terminología

Observador  Observador :Destinatario final del mensaje. 

Canal Totalidad de los medios destinados a la transmisión  de la ñ lseñal.

22/08/2012

5

Terminología

ModulaciónTransformación de un mensaje en una señal,  al efecto de facilitar y aumentar la eficacia de  la transmisión y reducir los errores de la misma.   

DemulaciónOperación inversa de la DemulaciónOperación inversa de la modulación. 

Terminología

Codificación: Transformación de un mensaje enuna señal discreta cuya principal objetivo esuna señal discreta, cuya principal objetivo esaumentar la eficacia de la transmisión

Decodificación Operación inversa de lacodificación

Perturbación: Señal que modifica una señalaleatoria útil, disminuyendo la cantidad deinformación que circula por ella.

22/08/2012

6

INFORMACION‐CONOCIMIENTO

Teoría Teoría de la Informaciónde la Información

•• Información:Información:–– Conjunto de datos o mensajes inteligibles creados conConjunto de datos o mensajes inteligibles creados conConjunto de datos o mensajes inteligibles creados con Conjunto de datos o mensajes inteligibles creados con

un lenguaje de representación y que debemos un lenguaje de representación y que debemos proteger antes las amenazas del entorno, durante su proteger antes las amenazas del entorno, durante su transmisión o almacenamiento, con técnicas transmisión o almacenamiento, con técnicas criptográficas.criptográficas.

•• La La Teoría de la InformaciónTeoría de la Información mide la mide la cantidad de cantidad de informacióninformación que contiene un mensaje a travésque contiene un mensaje a travésinformacióninformación que contiene un mensaje a través que contiene un mensaje a través del número medio de bits necesario para del número medio de bits necesario para codificar todos los posibles mensajes con un codificar todos los posibles mensajes con un codificador óptimocodificador óptimo..

22/08/2012

7

CLASES DE INFORMACION

Voz: Mecanismo primario para la comunicación phumana. Es de naturaleza acústica. 

Imágenes:mecanismo primario eca s o p a opara la comunicación humana. Es de naturaleza óptica. 

Datos: Información  f   é i   

CLASES DE INFORMACION

en forma numérica.  Es de naturaleza electromagnética.

22/08/2012

8

DATOS‐INFORMACIÓN Y CONOCIMIENTO

DATOS:  Secuencias de números  letras  etc   DATOS:  Secuencias de números, letras, etc. presentados sin un contexto

INFORMACIÓN. Datos organizados, tablas , estadísticas de ventas, una charla (chat) bien presentada (Conjunto coherente de datos que transmite un mensaje)transmite un mensaje)

CONOCIMIENTO. Información organizada junto con la comprensión de lo que significa dentro de  un contexto, que se puede utilizar

INFORMACION‐CONOCIMIENTO

Conocimiento: Información integrada en las estructuras cognitivas de un en las estructuras cognitivas de un individuo ( es personal e  intransferible)

N d t iti i i tNo podemos transmitir conocimiento, sólo información que el receptor puede

o no convertirla en conocimiento

22/08/2012

9

Representación de la InformaciónRepresentación de la Información

Numérica, alfabética, simbólica, Numérica, alfabética, simbólica, lenguajelenguaje..24/01/03 2424/01/03 24--0101--03 2403 24--11--03 24/01/200303 24/01/2003

01/24/03 0101/24/03 01--2424--03 103 1--2424--03 0103 01--2424--2003 ... 2003 ...

-- Todos son el día 24 de enero del año 2003 Todos son el día 24 de enero del año 2003 --

Vitaminas: BVitaminas: B1212, C, ..., C, ...

Grupo sanguíneo: A2 Rh+Grupo sanguíneo: A2 Rh+

Elementos: Fe, Si, HgElementos: Fe, Si, Hg

Compuestos químicos: HCompuestos químicos: H22O, COO, CO22

Más común Lenguaje con código: “Más común Lenguaje con código: “Hoy hace calor”Hoy hace calor”

¿Qué información entrega el mensaje “Hace calor”?

Cantidad de Información (I)Cantidad de Información (I)

En función de la extensión del mensajeEn función de la extensión del mensaje–– Ante una pregunta cualquiera, una respuesta concreta Ante una pregunta cualquiera, una respuesta concreta

yy extensaextensa nos entregará mayor información sobre elnos entregará mayor información sobre ely y extensaextensa nos entregará mayor información sobre el nos entregará mayor información sobre el tema en particular, y diremos que estamos ante una tema en particular, y diremos que estamos ante una mayor “cantidad de información”.mayor “cantidad de información”.

•• Pregunta: ¿Hace calor allí?Pregunta: ¿Hace calor allí? ((una playa en particularuna playa en particular))

–– Respuesta 1: Sí, hace mucho calor.Respuesta 1: Sí, hace mucho calor.

–– Respuesta 2: Cuando no sopla el viento el calor allí esRespuesta 2: Cuando no sopla el viento el calor allí esRespuesta 2: Cuando no sopla el viento, el calor allí es Respuesta 2: Cuando no sopla el viento, el calor allí es inaguantable pues supera los 42 grados a la sombra.inaguantable pues supera los 42 grados a la sombra.

– Respuesta 2: Cuando no sopla el viento, el calor allí es inaguantable pues supera los 42 grados a la sombra. 

¿Dónde hay una mayor cantidad de información?

22/08/2012

10

¿Qué es la información?¿Qué es la información?

Veremos qué información nos entrega un mensaje dependiendo del contexto en que nos encontremos:

a) En función de la extensión del mensaje recibido.

b) En función de la utilidad del mensaje recibido.

c) En función de la sorpresa del mensaje recibido.

d) Dependiendo del entorno de esa sorpresa.

) E  f ió  d  l   b bilid d d   ibi     je) En función de la probabilidad de recibir un mensaje.

Cantidad de información (Caso 1)Cantidad de información (Caso 1)En función de la extensión del mensaje

Ante una pregunta cualquiera, una respuesta concreta y extensa nos entregará mayor información sobre el tema en particular, y diremos que estamos ante una mayor “cantidad de información”.

Pregunta: ¿Hace calor allí? (una playa en particular)

Respuesta 1: Sí, hace mucho calor.

Respuesta 2: Cuando no sopla el viento, el calor allí es inaguantable pues supera los 42 grados a la sombra.

¿Dónde hay una mayor cantidad de información?

– Respuesta 2: Cuando no sopla el viento, el calor allí es inaguantable pues supera los 42 grados a la sombra. 

22/08/2012

11

Cantidad de información (Caso 2)Cantidad de información (Caso 2)

En función de la utilidad del mensaje Ante una pregunta cualquiera  una respuesta más útil Ante una pregunta cualquiera, una respuesta más útil

y clara nos dejará con la sensación de haber recibido una mayor “cantidad de información”.

Pregunta: ¿Hace calor allí?         (una playa en particular)

Respuesta 1: Sí, bastante calor.

Respuesta 2: Si no hay viento de poniente, es normal Respuesta 2: Si no hay viento de poniente, es normal que la temperatura suba.

¿Dónde hay una mayor cantidad de información?

– Respuesta 1: Sí, bastante calor. 

Cantidad de información (Caso 3)Cantidad de información (Caso 3)

En función de la sorpresa del mensaje Ante una pregunta cualquiera  una respuesta más  Ante una pregunta cualquiera, una respuesta más 

inesperada y sorprendente, nos dará la sensación de contener una mayor “cantidad de información”.

Pregunta: ¿Hace calor allí?         (Finlandia en primavera)

Respuesta 1: Sí, muchísimo. Es insoportable.

Respuesta 2: En esta época del año, la temperatura es más suave y el tiempo muy agradablemás suave y el tiempo muy agradable.

¿Dónde hay una mayor cantidad de información?

– Respuesta 1: Sí, muchísimo. Es insoportable. 

22/08/2012

12

Cantidad de información (Caso 4)Cantidad de información (Caso 4)

Dependencia del entorno (sorpresa) Ante una pregunta cualquiera  una respuesta más  Ante una pregunta cualquiera, una respuesta más 

inesperada y sorprendente, nos dará la sensación de contener una mayor “cantidad de información”.

Pregunta: ¿Hace calor allí? (ahora las mismas respuestas hablan de la temperatura en un horno)

Respuesta 1: Sí, muchísimo. Es insoportable.Respuesta 1: Sí, muchísimo. Es insoportable.

Respuesta 2: En esta época del año, la temperatura es más suave y el tiempo muy agradable.

¿Dónde hay una mayor cantidad de información?

– Respuesta 2: En esta época del año, la temperatura es más suave y el tiempo muy agradable. ?

Cantidad de información (Caso 5)Cantidad de información (Caso 5)

En función de la probabilidad de recibir un mensaje Este enfoque probabilístico es el que nos interesará en 

cuanto a la definición de Cantidad de Informacióncuanto a la definición de Cantidad de Información.

¿Dónde le da alegría a su cuerpo Macarena? Respuesta 1: En un país de Europa.

Respuesta 2: En una capital de provincia de España.

Respuesta 3: En el número 7 de la calle de la Sierpes  de Sevilla.

¿Dónde hay una mayor cantidad de información?

– Respuesta 3: En el número 7 de la calle de la Sierpes de Sevilla. 

22/08/2012

13

Incertidumbre e informaciónIncertidumbre e información

Ante varios mensajes posibles, en principio todos equiprobables aquel que tenga una todos equiprobables, aquel que tenga una menor probabilidad será el que contenga

una mayor cantidad de información. En un ejemplo anterior:

Al ser más extenso el número de calles en una ciudad que el número de provincias en España y, esto último mayor que el número de países en Europa, el primero de ellos tendrá una mayor incertidumbre. Suponiendo todos los estados equiprobables, la cantidad de información será la mayor.

INFORMACION

¿Cuánta información obtenemos cuando nos dicen que cierta persona tiene el pelo oscuro, o que es un hombre o una mujer?  hombre o una mujer?  

Lo primero que debe quedarnos claro es que el hecho de obtener información es equivalente al de disminuir la indeterminación con respecto a algo, de tal forma que se obtiene tanta más información 

á d l d d d bcuanto más disminuya el grado de incertidumbre que tenemos de cierto fenómeno. 

22/08/2012

14

INFORMACION(continuación)

Si se nos dicen las siguientes frases  

‐La persona que describo tiene el pelo oscuro.  

La persona que describo es mujer. 

INFORMACION(continuación)

En la primera frase se nos da un dato de todos los posibles (claro, castaño, pelirrojo, rubio,canoso, ...), al igual que en la segunda, pero en esta última el abanico de posibilidades no es tan grande (solo dos posibilidades), por tanto la primera nos da más información, al disminuir mucho más la incertidumbre que teníamos con respecto a la persona.  

22/08/2012

15

INFORMACION(continuación)

La cantidad de información que obtenemos con un mensaje es directamente proporcional al número de estados posibles de la cuestión planteada.  

INFORMACION(continuación)

Algunas veces es conveniente expresar estaincertidumbre con relación a la que teníamosantes de conocer la información:

la/ld Siendo la la incertidumbre antes de conocer elmensaje e ld la que tenemos después demensaje, e ld la que tenemos después dedicho conocimiento.

22/08/2012

16

Grado de incertidumbre

Grado de incertidumbre previo IaG ado de ce t du b e p e o a

Grado de incertidumbre posterior Idci =

Combinación nº 1 Combinación nº 5Combinación nº 2 Combinación nº 6

Ejemplo : En una bolsa hay un círculo, un cuadrado y un triángulo: negros o blancos.

Si hay equiprobabilidad entonces p(xi) = 1/8

Esta será la combinación elegida

Combinación n 2 Combinación n 6Combinación nº 3 Combinación nº 7Combinación nº 4 Combinación nº 8

¿Qué cantidad de información tiene cada uno de los estados?

Solución

Combinación nº 1 Combinación nº 5Combinación nº 2 Combinación nº 6

Incertidumbre inicial Ia = 8Daremos algunas pistas : Las figuras no son del mismo color: Ia baja de 8 a 6 al 

descartarse las combinaciones 1 y 8

Veamos esto ahora matemáticamente ...

Combinación nº 3 Combinación nº 7Combinación nº 4 Combinación nº 8

Los 8 estados serán equiprobables: p(xi) = 1/8

descartarse las combinaciones 1 y 8. El círculo es blanco: Ia baja de 6 a 3 (descarte 5, 6 y 7). Hay dos figuras blancas: Ia baja de 3 a 2 (descarte 4). El cuadrado es negro: Ia baja de 2 a 1 (descarte 2.)

Se acaba la incertidumbre pues la solución es la combinación 3.

22/08/2012

17

Solución matemática

Las figuras no son del mismo color. Ia baja de 8 a 6:

ci1 = log (8/6) = log 8 ‐ log 6ci1  log (8/6)   log 8  log 6

El círculo es blanco. Ia baja de 6 a 3:

ci2 = log (6/3) = log 6 ‐ log 3

Hay dos figuras blancas. Ia baja de 3 a 2:

ci3 = log (3/2) = log 3 ‐ log 2

El cuadrado es negro. Ia baja de 2 a 1:

ci4 = log (2/1) = log 2 ‐ log 1

Todas las magnitudes se pueden sumar como escalares:

ci = ci1 + ci2 + ci3 + ci4 = log 8 - log 1 = log 8

Base del logaritmo

Sean:   Ia la incertidumbre inicial 

I l  i tid b  fi lId la incertidumbre final

ci = log (Ia / Id) = log Ia ‐ log IdLa cantidad de información tiene como unidad de medida la de un fenómeno de sólo dos estados, un fenómeno binario. Luego:

ci = logb (2/1) = logb 2 ‐ logb 1i gb ( / ) gb gb

Si logb 2 debe ser igual a 1 entonces la base b = 2.

Precisamente a esta unidad se le llama bit (binary digit)

Ejemplo anterior: ci = log2 8 = 3             ¡Sólo 3 preguntas!

22/08/2012

18

Con sólo tres preguntas “más o menos inteligentes”

Con sólo tres preguntas...

Con sólo tres preguntas más o menos inteligentes podemos pasar de la incertidumbre total a la certeza:

Pregunta 1: ¿Está entre la opción 1 y la 4? Sí

Pregunta 2: ¿Está entre la opción 1 y la 2? No

Pregunta 3: ¿Es la opción 4? No Se acaba la indeterminación

Combinación nº 1 Combinación nº 5Combinación nº 2 Combinación nº 6Combinación nº 3 Combinación nº 7Combinación nº 4 Combinación nº 8

INFORMACION(continuación)

Ejemplos:  ‐Cuando nos dicen que una persona es mujer, la incertidumbre antes era persona es mujer, la incertidumbre antes era de 2 (número posible de estados), siendo la incertidumbre posterior 1 (ya sabemos que es mujer) 

Si el ordenador que genera letras al azar nos dice que ha salido una vocal  la dice que ha salido una vocal, la incertidumbre antes del dato era 27 (número de letras), y ahora es 5 (número de vocales)  

22/08/2012

19

INFORMACION(continuación)

Definición: Sea un suceso A que puede presentarse con probabilidad p(A), cuando dicho p p psuceso tiene lugar se ha recibido una información I(A) = log 1/p(A)

Unidades

Bit (base 2)

Dit (base 10) Esto es Dit (base 10)

Nit (base n) cantidad

de información

continuación

BIT =0.30 DIT =0.69 NIT

DIT 0 3.32 BIT= 2.3 NIT

NIT =1.44 BIT =0.43 DIT

22/08/2012

20

INFORMACION(continuación)

La información más elemental quea o ac ó ás e e e ta quepuede recibirse es la que indica laverificación entre dos sucesosigualmente probables. En este caso sedice que se ha recibido un bit deqinformación.

INFORMACION(continuación)

Es muy importante distinguir entre bitcomo unidad de información y loscomo unidad de información y lossímbolos 0 y 1 que representa lasseñales binarias. Estos símbolos sesuelen llamar impropiamente bits, peropueden contener o no 1 bit deinformación Para distinguir a losinformación. Para distinguir, a lossímbolos 0 y 1 se denominan binits.

22/08/2012

21

INFORMACION(continuación)

Si la fuente dispone de 10 símbolosigualmente probables, la emisión deuno de ellos proporciona una cantidadde información de un Hartley o Dit (decimal digit ).

Si se elige un símbolo entre e (baseg (de logaritmos neperianos )equiprobables, la información recibidaserá de 1 Nit.

ejemplo

Consideremos una imagen de televisión. Esuna estructura de niveles de grises de pixelsde 500 filas por 600 columnas. Admitiremosque de los 600*500 = 30.0000 puntospodemos escoger 10 niveles de grises, demanera que puede haber 10 30.000 imágenesdistintas.

22/08/2012

22

Si todas son igualmente probables, la probabilidad de una imagen es dede una   imagen  es de

p(s) = 1

10300.000

y la cantidad deinformación es:

y por lo tanto la cantidad  I(A) = 300.000 log2

10 ~106 Bits Supongamos que un

locutor de radio tiene unvocabulario de 10.000palabras y utiliza connormalidad 1.000

I(A) = - 1

10.000 = 1.3 10 Bits2 1.000

4log

y por lo tanto la cantidad 

de información es

normalidad 1.000palabras elegidas al azar.

La probabilidad de unasecuencia de 1.000palabras es de

Así pues una imagen de T.V.  equivale  a  100  palabras  de 

radio.

22/08/2012

23

CODIFICACION DE LA INFORMACION Dígito decimal=> Representación binaria

Características:

Posibilidad de descodificar .

Asignación a las palabras‐código la menor longitud los mensajes de  mayor probabilidad.

DIGITO-DECIMALREPRESENTACION BINARIA

Fuente Palabras-código

0 0 0 0 00 0 0 0 0

1 0 0 0 1

2 0 0 1 0

3 0 0 1 1

4 0 1 0 0

5 0 1 0 1

6 0 1 1 0

7 0 1 1 1

8 1 0 0 0

22/08/2012

24

CODIGO A

SIMBOLO  

Sea la secuencia binaria1 1 1 0 0 1

d   i  d  l   SIMBOLO  

S1

S2

S3

PALABRAS

CODIGO

0    

01

011

puede provenir de la secuencia    S4 S3 o bien de  S4 S1 S2por la tanto es un código que no se puede descifrar, cosa que no ocurriría con el siguiente

S4 111

siguiente

CODIGO B

SIMBOLO   SIMBOLO  

S1

S2

S3

S4

PALABRAS-CODIGO

0    

10

110

11104 1110

22/08/2012

25

Otro problema que se nos plantea es el latransmisión de la información.

Supongamos que tenemos quetransmitir la información del tiempo entreMadrid y Las Palmas con un equipo detodo-nada.todo nada.

Supongamos que los cuatro estadosdel tiempo en madrid sonequiprobables.

ESTADO DEL TIEMPO EN MADRID

MENSAJES PROBABILIDADES MENSAJES

Soleado

Nublado

Lluvia

Niebla

PROBABILIDADES

1/2

1/2

1/2

1/2

22/08/2012

26

Código para el tiempo en Madrid

SIMBOLO PALABRAS CODIGO SIMBOLO

S1

S2

S3

S4

PALABRAS-CODIGO

00

01

10

1111

CODIGO A

SIMBOLO

S1

S2

S3

PALABRAS-CODIGO

00

01

10 S3

S4

10

11

22/08/2012

27

Por ejemplo :

"soleado, niebla, niebla, nublado" secodificaría

0 0 1 1 1 1 0 1

Si quisiéramos transmitir la mismainformación de Las Palmas a Madrid esinformación de Las Palmas a Madrid, esevidente que no utilizaríamos el mismocódigo. Tendríamos que asignarleprobabilidades diferentes.

ESTADO DEL TIEMPO EN LAS PALMAS

MENSAJES PROBABILIDADES MENSAJES

Soleado

Nublado

Lluvia

Niebla

PROBABILIDADES

1/2

1/4

1/8

1/8

Si utilizamos el código  A enviamos dos binits por mensaje independiente del estado del tiempo

22/08/2012

28

CODIGO TIEMPO EN LAS PALMAS

SIMBOLO PALABRAS-CODIGO SIMBOLO S1

S2

S3

S4

PALABRAS CODIGO

0

1 0

1 1 0

1 1 1 0

Podemos tomar  el  0  como  final  de  la  palabra‐código. Entonces el mensaje  

"nublado, soleado, soleado, lluvia"1 0 0 0 1 1 0

ENTROPIA

Como vemos, la incertidumbre está 

El hecho de que la fórmula de la cantidad de información, como incertidumbre está 

relacionada con el número de estados posibles de un  fenómeno. Por ejemplo el número de estados posibles de disponer 8 bits, es 256=28.

El  ú  d   l b  

cantidad de información, como veremos, presente el Lg (logaritmo en base 2) es para contrarrestar este carácter exponencial de los estados posibles y hacer las operaciones más fáciles. La base del logaritmo se toma 2, por comodidad, pero es igualmente 

El número de palabras ‐con o sin sentido‐ que se pueden formar con 4 letras es 274.

válido cualquier otra base, ya que solo cambiaría por una constante. Recuérdese la fórmula: 

•LogaX= LogbX/logba

22/08/2012

29

Entropía (continuación)

Las cosas no son tan idealizadas, ya que casi cualquier fuente de información (una persona hablando, un ordenador "conversando" con otro, o un libro) tiene ponderados sus mensajes, es decir, algunos aparecen con más probabilidad que otros.  

Entropía (continuación)

Siempre hay mas apariciones de una letra del alfabeto en un texto suficientemente grande, y es más probable que en nuestro país una persona sea morena. 

Por tanto esto también hay que tenerlo en cuenta.  

22/08/2012

30

Entropía (continuación)

Se obtiene más información si en untexto español la siguiente letra queleemos es una W, que si nosencontramos con una E, ya que laprimera es menos frecuente enpnuestro idioma, y su ocurrencia tienemayor incertidumbre.

Entropía (continuación)

Se le asocia a cada estado posible suprobabilidad es decir a una variableprobabilidad, es decir, a una variablealeatoria se le asocia su espacio deprobabilidades.

Se define entonces la Cantidad deInformación de un estado i como:

I[ai] = ‐log p(ai)

Siendo p(ai) la probabilidad asociada alestado (ai).

22/08/2012

31

Entropía (continuación)

Existen aquí dos casos extremos queExisten aquí dos casos extremos queconcuerdan con la idea intuitiva: Cuando laprobabilidad de que algo suceda es 1,elsuceso es seguro que ocurre, y la cantidadde información que obtenemos es nula, yaque ‐Lg(1)=0. Por el contrario cuando el

i b bilid d l i f iósuceso tiene probabilidad 0, la informaciónobtenida es +infinito , ya que tiene lamáxima incertidumbre posible.

ENTROPIA

La cantidad de información total del sistema.Promedio de las informaciones de cada elemento ponderado por su probabilidad.

H[X] = E[I(X)] =  p(ai) I(ai)

22/08/2012

32

Definición de entropía

La entropía de un mensaje X, que se representa por H(X), es el valor medio ponderado de la cantidad de información d  l  di   t d  d l  jde los diversos estados del mensaje.

Es una medida de la incertidumbre media acerca de una variable aleatoria y el número de bits de información.

k

H(X) = - p(ai) log2 p(ai)i = 1

Esto lo veremos más adelante en

fuentes de información

El concepto de incertidumbre en H puede aceptarse. Es evidente que la función entropía representa una medida de la incertidumbre, no obstante se suele considerar la entropía como la información media suministrada por  cada  símbolo  de la fuente

Entropía (continuación)Entropía (continuación)

MENSAJE

M1 M2 M3

PROBABILIDADES

DEL MENSAJE

1/2

1/3

1/6

CONTENIDO INFORMATIVO DEL

MENSAJE

-log2 1/2 = 1

-log2 1/3 = 1.58

-log2 1/6 = 2.5

CONTENIDO INFORMATIVO DEL

TOTAL DEL MENSAJE

1/2*1 + 1/3*1.58 +

1/6*2.58 = 1.46 Bits

22/08/2012

33

Entropía (continuación)Entropía (continuación)

MENSAJE M1 M2 M3

Cambio de ocurrencia

PROBABILIDADES

DEL MENSAJE

2/3 1/4 1/12

CONTENIDO INFORMATIVO DEL

MENSAJE

-log2 2/3 = 0.58 -log2 1/4 = 2 -log2 1/12 = 3.5

CONTENIDO INFORMATIVO DEL

TOTAL DEL MENSAJE

2/3*058 + 1/4*2 +

1/12*3.5 = 1.18 Bits

En base a todo lo anterior podemos dar unapdefinición del concepto de entropía.

Sea una variable aleatoria (X) que tomavalores de un conjunto

A = [ a1, a2, .....an ]

d t d d f ió d b bilid d dotado de una función de probabilidades

p(ai) = Prob [X=ai] para p(ai) = 1

22/08/2012

34

Si I(ai) es el grado de incertidumbre sobre larealización de un suceso X definimos laentropía de la variable X como la esperanzamatemática de I(x) relativa al conjuntoA.

H[X] = E[I(X)] = p(ai) I(ai)

H[X] = E[I(X)] = ‐ p(ai) log p(ai) H[X] = E[I(X)] = ‐ p(ai) log p(ai)

Entropía (continuación)Entropía (continuación)

Caso 1 ----------> 1 bola negra (N) y 1 bola banca (B)

Caso 2 ----------> 9 bolas negras (N) y 1 bola banca (B)

Caso 3 ----------> 99 bolas negras (N) y 1 bola banca (B)

Caso 1

N -----> p(x1) = 1/2

B ----> p(x2) = 1/2 B ----> p(x2) 1/2

H[x1] = -[1/2 log2 1/2 + 1/2 log2 1/2] = 1 Bits

22/08/2012

35

continuación

Caso 1 Caso 2

N ‐‐‐‐‐> p(x1) = 1/2

B ‐‐‐‐>  p(x2) = 1/2

H[x1] = ‐[1/2 log2 1/+ 1/2 log2 1/2] = 1 Bits 

N ‐‐> p(x1) = 9/10

B ‐‐> p(x2) = 1/10

H[x1] =[1/10 log2 1/10 +9/10 log 9/10] = 0 67 B9/10 log2 9/10] = 0.67 B

Entropía (continuación)

Caso 3

N ‐‐> p(x ) = 99/100 N ‐‐> p(x1) = 99/100

B ‐‐>  p(x2) = 1/100

H[x1] = [1/100 log2 1/100 + 99/100 log2

99/100]  =  0.08 Bits

El primer caso es más incierto que el segundo y este más  que el tercero, en el cual se tiene la certeza de obtener la bola negra. O sea  que  la  entropía  aumenta  cuando  aumenta  la incertidumbre