sistema de detecciÓn de emociones a partir de la...

65
1 SISTEMA DE DETECCIÓN DE EMOCIONES A PARTIR DE LA POSICIÓN CORPORAL UTILIZANDO EL SENSOR KINECT JUAN SEBASTIAN HERNANDEZ MOYA LILIAM CAMILA DIOSA SILVA GRUPO DE INVESTIGACIÓN DIGITI UNIVERSIDAD FRANSISCO JOSE DE CALDAS FACULTAD DE TECNOLOGÍA TECNOLOGÍA EN ELECTRÓNICA ENERO 2019.

Upload: others

Post on 03-Jan-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

1

SISTEMA DE DETECCIÓN DE EMOCIONES A PARTIR DE LA

POSICIÓN CORPORAL UTILIZANDO EL SENSOR KINECT

JUAN SEBASTIAN HERNANDEZ MOYA

LILIAM CAMILA DIOSA SILVA

GRUPO DE INVESTIGACIÓN DIGITI

UNIVERSIDAD FRANSISCO JOSE DE CALDAS

FACULTAD DE TECNOLOGÍA

TECNOLOGÍA EN ELECTRÓNICA

ENERO 2019.

2

SISTEMA DE DETECCIÓN DE EMOCIONES A PARTIR DE LA

POSICIÓN CORPORAL UTILIZANDO EL SENSOR KINECT

JUAN SEBASTIAN HERNANDEZ MOYA

LILIAM CAMILA DIOSA SILVA

Trabajo de grado como requisito para optar título de:

Tecnólogo en electrónica

Directora:

Ing. Esperanza Camargo Casallas PhD

GRUPO DE INVESTIGACIÓN DIGITI

Modalidad Investigación

UNIVERSIDAD FRANSISCO JOSE DE CALDAS

FACULTAD DE TECNOLOGÍA

TECNOLOGÍA EN ELECTRÓNICA

ENERO 2019.

3

SISTEMA DE DETECCIÓN DE EMOCIONES A PARTIR DE LA POSICIÓN

CORPORAL UTILIZANDO EL SENSOR KINECT

NOTA DE ACEPTACIÓN

_____________________________________

_____________________________________

_____________________________________

_____________________________________

_____________________________________

_____________________________________

_____________________________________

____________________________

Evaluador 1

____________________________

Evaluador 2

Enero de 2019

4

Resumen

Con el siguiente estudio de caso se buscó automatizar la detección de emociones

que están relacionadas a una posición corporal, esto se realiza por medio de un

sensor Kinect que es el encargado de la captura y del reconocimiento del

esqueleto humano, y basado en un estudio de la relación posición corporal vs

emociones realizado preliminarmente por el proyecto de vinculación ACACIA, el

cual fue la base para establecer los parámetros en el algoritmo y así asociar una

expresión corporal a una emoción predominante. En el presente artículo se

muestra el desarrollo del sistema, pruebas, resultados obtenidos, conclusiones y el

funcionamiento final del proyecto.

Palabras clave: Estado anímico, Sensor Corporal, Sistemas de aprendizaje.

Abstract:

With the following case study we sought to automate the detection of emotions that

are related to a body position, this is done by means of a Kinect sensor that is

responsible for the capture and recognition of the human skeleton, and based on a

study of the relation body position vs emotions made preliminarily by members of

the ACACIA bonding group, which was the basis for establishing the parameters in

the algorithm and thus associating a corporal expression with a predominant

emotion. In the present article the development of the system, tests, obtained

results, conclusions and the final operation of the project are shown.

Key words: Mood state, Body Sensor, Learning systems.

5

CONTENIDO

RESUMEN ......................................................................................................................... 4

1 INTRODUCCIÓN ........................................................................................................ 8

EMOCIONES Y SU RELACIÓN CON EL APRENDIZAJE ................................................ 8

1.1 PROBLEMA ............................................................................................................... 10

1.2 JUSTIFICACIÓN........................................................................................................ 10

1.3 OBJETIVOS ............................................................................................................... 11

1.3.1 Objetivo General ................................................................................................... 11

1.3.2 Objetivos Específicos ............................................................................................. 11

2 MARCO TEÓRICO ................................................................................................................. 11

2.1 MARCO CONCEPTUAL ........................................................................................... 11

2.1.1 TECNOLOGÍA DE RECONOCIMIENTO ..................................................................... 11

2.1.2 AFECTIVIDAD ........................................................................................................ 14

2.2 ESPECIFICACIONES TÉCNICAS ........................................................................... 22

2.2.1 KINECT SDK ........................................................................................................... 22

2.2.2 AFECTIVA .............................................................................................................. 24

2.2.3 MICROSOFT VISUAL STUDIO.................................................................................. 25

3 METODOLOGÍA .................................................................................................................... 25

3.1 ESTUDIO DE EXPRESION CORPORAL VS EMOCIONES ................................. 25

3.1.1 Estudio Previo: ...................................................................................................... 25

3.1.2 Desarrollo Del Algoritmo: ...................................................................................... 33

3.1.2.1 Flujograma del algoritmo: ......................................................................................... 34

3.1.2.2 Explicación del Código: ............................................................................................. 34

3.1.3 Pruebas:................................................................................................................ 35

3.2 DIAGRAMA DE BLOQUES ..................................................................................... 35

3.2.1 Usuario: ....................................................................................................................... 35

3.2.2 Sensor Kinect: .............................................................................................................. 36

3.2.3 Software: ..................................................................................................................... 36

3.1.4. Interfaz Gráfica: .......................................................................................................... 36

4 RESULTADOS. ...................................................................................................................... 38

5 RESUMEN DE RESULTADOS........................................................................................ 61

6 RECOMENDACIONES Y SUGUERENCIAS ................................................................. 62

6

7 CONCLUSIONES .............................................................................................................. 63

8 REFERENCIAS ................................................................................................................. 64

9 ANEXOS ............................................................................................................................ 65

9.1 Manual de usuario ..................................................................................................... 65

9.2 Explicación del código ............................................................................................... 65

7

Lista de Figuras

Figura 1: Partes del sensor Kinect…………………………………...................12

¡Error! Marcador no definido. Figura 2: Vista cámaras del sensor Kinect……………………………………..12 Figura 3: Puntos de captura del Kinect del cuerpo humano.…………….….13 Figura 4: Emociones faciales primarias………………………………………..15 Figura 5: Modelo de Plutchik y sus combinaciones…………………………..16 Figura 6: Interacción de la aplicación con Kinect [14]……………………….23 Figura 7: Arquitectura del Kinect SDK [14]…………………………………...23 Figura 8: Ejemplos de uso con Kinect [14……………………………………24

Figura 9: Posición con las manos en la cadera………………………26 Figura 10: Posición de tocarse los dedos rápidamente……………..26 Figura 11: Posición mano en el mentón………………………………27

Figura 12: Posición brazos abiertos……………………………………27

Figura 13: Posición manos en los bolsillos…………………………….28

Figura 14: Posición manos en la cabeza.………………………………..28

Figura 15: Posición manos enfrente abiertas…………………………29

Figura 16: Posición brazos cruzados.……………………………………..29

Figura 17: Posición cubrir la boca……………………………………...30 Figura 18: Diagrama de flujo. Fuente: Autor……………………………… 31

Figura 19: Juego ‘Torres de Hanoi’…………………………………….32 Figura 20: Diagrama de bloques. Fuente: Autor…………………………...32

Figura 21. Usuario interactuando con el sensor Kinect [1]…………33

Figura 22. Reconocimiento del sensor Kinect. Fuente: autor………33

Figura 23 .Interfaz Gráfica. Fuente: autor…………………………….34

Figura 24.Resultado Interfaz gráfica. Fuente: autor…………………36

8

1 INTRODUCCIÓN

El lenguaje corporal se refiere a las señales no verbales que usan las personas

para comunicarse. Según los expertos, estas señales no verbales constituyen una

gran parte de la comunicación diaria. A partir de las expresiones faciales y los

movimientos corporales, las cosas que no se dicen aún pueden transmitir gran

cantidad de información. De acuerdo con varios investigadores, se cree que

el lenguaje corporal representa entre el 50 y el 70 por ciento de todas las

comunicaciones [1]. Es por esto que se puede determinar la emoción

predominante del sujeto evaluado por medio de su posición corporal [2].

La tecnología de reconocimiento se hace a través del sensor Kinect, ya que este

dibuja el humano en tiempo real para la recopilación y análisis de la información

de datos de la posición corporal del cuerpo humano, para lograr el efecto del

reconocimiento de la acción humana [3].

La investigación se enfocó en estudiar la afectiva de un grupo de estudiantes al

ser sometidos a una actividad académica determinada, con el fin de sintetizar la

información de la posición corporal en un software que adquiere los datos por

medio del sensor Kinect, el sistema entrega la información resultante a un

pedagogo al cual le dirá la emoción predominante del estudiante en ese instante.

De tal manera, el proyecto facilita al educador conocer la disposición que tienen

sus estudiantes durante una actividad, para que este conozca el momento en el

que debe cambiar de dinámica cuando los resultados sean negativos, y así pueda

mantener la atención y motivación del estudiante.

EMOCIONES Y SU RELACIÓN CON EL APRENDIZAJE

Desde un punto psicológico las emociones son la reacción fisiológica y afectiva

del sujeto con respeto a los factores que lo rodean, ya sea objetos, personas,

situaciones y hasta recuerdos. Se dice que las emociones alteran la atención,

9

hacen subir de rango ciertas conductas guía de respuestas del individuo y activan

redes asociativas relevantes en la memoria [4].

Desde su definición las emociones ya están relacionadas con la conducta y

nuestra manera de asimilar el mundo, de esta forma está directamente

relacionadas con nuestra manera de aprender del entorno que nos rodea, ¿pero

están estrechamente relacionadas con el aprendizaje? Para eso se tiene que

evaluar primero que hay unas emociones primordiales, en una publicación

realizada por la revista Sciense, en el artículo "Autonomic nervous system activity

distinguishes among emotions", después de evaluar diferentes variables

fisiológicas autónomas se encontraron patrones atribuidos a seis conductas

emocionales que son universales y biológicamente básicas, las cuales son:

alegría, asco, ira, miedo, tristeza y sorpresa, estas fueron dispuestas así porque

ninguna de estas tiene alguna pre relación y son innatas, ya que estas generan

una respuesta diferente en el sistema nervioso autónomo [5].

Por lo menos biológicamente las emociones influencian el comportamiento de

nuestro sistema nervioso, de esta forma también se plantea que la atención

incrementa o disminuye dependiendo nuestro estado de ánimo [6].Por lo tanto si

un estudiante se encuentra triste, enojado asustado y de cierta manera

disgustado, es muy probable que tenga una predisposición y le cueste mayor

trabajo prestar atención y hasta puede que su atención sea nula, en cambio si el

estudiante está motivado y se encuentra alegre o sorprendido, por lo general no le

cuesta trabajo concentrarse y participar.

Es por esto que la estimulación emocional y manipulación de esta podría llevar a

que un estudiante mejore su rendimiento de manera significativa. Otro aspecto es

el ámbito psicosocial de las emociones, pero como esto se puede relacionar con el

aprendizaje, pues las relaciones sociales de la persona permiten la adquisición de

experiencias y memorias únicas, estas interacciones son en gran medida posible

por medio de la comunicación emocional, la cual permite compartir este tipo de

experiencias entre individuos [7].

10

1.1 PROBLEMA

El aprendizaje del ser humano va completamente ligado con el estado de ánimo y

disposición que este tenga para aprender, los docentes realizan actividades

pedagógicas que suponen que serán divertidas y constructivas para el

aprendizaje, pero en la mayoría de los casos, los estudiantes no lo ven de la

misma manera y realizan estas actividades sin la mejor disposición y por lo tanto

no obtendrán los mejores resultados. Para un pedagogo es difícil determinar la

emoción predominante del estudiante al momento que este sea sometido a una

actividad académica, y tampoco podrá conocer si el estudiante quiera terminar la

actividad o si para él es preferible otro método para aprender.

Esto deja como consecuencia la necesidad de desarrollar una herramienta

tecnológica y automatizada que permita identificar las emociones y la afectiva de

una persona, al momento de ser sometido a una actividad académica, ya que

actualmente no se encuentra una herramienta similar que se pueda implementar y

dar solución a este problema planteado.

1.2 JUSTIFICACIÓN

La investigación se enfocará en estudiar la afectiva de un grupo de estudiantes al

ser sometidos a una actividad académica determinada con el fin de sintetizar esta

información en un software que adquirirá los datos autónomamente, el dispositivo

dará la información resultante a un pedagogo al cual le dirá la emoción

predominante del estudiante en ese instante.

Actualmente no existe un sistema con estas características, ni se ha realizado un

trabajo detallado en este problema, que trae como consecuencia malos

resultados en algunos casos por la baja disposición de los estudiantes.

Por otro lado, el trabajo propuesto complementa una investigación que se ha

venido realizando por otros estudiantes del grupo de investigación, el cual

ofrecerá automatizar el proceso de detección de los sentimientos a comparación

de como se ha venido trabajando anteriormente.

11

De tal manera, el proyecto facilitará al pedagogo conocer la disposición que

tienen sus estudiantes durante una actividad académica, esto con el fin, de que se

conozca cuando deba cambiar de actividad o pedagogía cuando se presenten en

los resultados emociones con impacto negativo y así pueda mantener la atención,

disposición y motivación de los estudiantes.

1.3 OBJETIVOS

1.3.1 Objetivo General

- Desarrollar un sistema que detecte la posición corporal del sujeto por medio

de un sensor Kinect y determine su emoción predominante.

1.3.2 Objetivos Específicos

- Estudiar la relación de la posición corporal del ser humano con los

sentimientos que pueda experimentar en una actividad específica.

- Diseñar un software que adquiera la señal del sensor Kinect, que sea capaz

de reconocer las diferentes posiciones corporales y la asocie con una

emoción.

- Implementar una interfaz gráfica que exponga al pedagogo, una emoción

predominante como resultado de la información procesada por el software

del sujeto evaluado.

2 MARCO TEÓRICO

2.1 MARCO CONCEPTUAL

2.1.1 TECNOLOGÍA DE RECONOCIMIENTO

El sensor Kinect dibuja el humano en gráficos 3D, en movimiento y tiempo real,

este recopila y analiza la información de datos de la posición corporal del cuerpo

humano, para lograr el efecto del reconocimiento de la acción humana. La

estructura general del sensor Kinect se muestra en Fig.1

12

Figura 1: Partes del sensor Kinect

Se compone de una cámara principal, un emisor de infrarrojos, una cámara de

imagen de profundidad infrarroja, soporte giratorio y un arreglo de micrófonos, el

emisor de infrarrojos y la imagen de profundidad se combinan con la cámara

infrarroja para obtener una imagen de profundidad, emisor, espectroscopia de

infrarrojo cercano, cámara infrarroja y análisis de espectro infrarrojo para adquirir

la imagen de profundidad [8], para crear un cuerpo o un objeto; la cámara

principal y la cámara RGB, disparando la matriz de imágenes en color; el

micrófono puede capturar la localización de la fuente de sonido. Por lo tanto, el

sensor Kinect no solo puede obtener imágenes en color a través de la cámara,

sino que también puede identificar el movimiento del cuerpo humano.

2.1.1.1 ADQUISICIÓN DE IMAGEN DE PROFUNDIDAD

En la cámara del sensor Kinect y otras cámaras, la visión es limitada, como se

muestra en la Fig.2 a continuación:

Figura 2: Vista cámaras del sensor Kinect

En la actualidad, la investigación del reconocimiento de gestos tiene

principalmente dos tipos de métodos, uno basado en la imagen RGB y el otro en la

imagen de profundidad. Diferentes programas se han basado en el método de

imágenes RGB desde hace un tiempo, pero aún presentan problemas en

13

comparación con el método de la imagen de profundidad, debido a que en algunos

casos la información de características 3D pueden ser objetos, y la profundidad de

la imagen no se ve afectada por las características de emisión superficial y la

dirección de la luz de irradiación, haciendo este método de reconocimiento de

gesto más preciso y estable.

El análisis principal del reconocimiento de Kinect se basa en la identificación de

las articulaciones o junturas del cuerpo humano. Este proceso hace un ajuste del

esqueleto desde el reconocimiento de imágenes del contorno del cuerpo humano

con el método de la imagen a profundidad, esto con el fin de identificar las

diversas partes del cuerpo, como la cabeza, el tronco, las extremidades, etc. [9].

Para identificar las partes del cuerpo, es necesario extraer las diferentes partes de

junturas o articulaciones. Estas junturas que detecta la tecnología Kinect del

cuerpo humano son las que se muestran en la Fig. 3, un total de 20 articulaciones

humanas. Para el caso del proyecto en ejecución solo se utilizarán 9 (cabeza,

hombro central, codo derecho e izquierdo, mano derecha e izquierda, cadera

central, y cadera derecha e izquierda).

Figura 3: Puntos de captura del Kinect del cuerpo humano

Para lograr el reconocimiento de la acción humana y para facilitar el análisis, se

pueden ver ciertas posiciones corporales relacionando los diferentes puntos de las

articulaciones expuestas por el sensor.

14

2.1.1.2TECNOLOGÍA DE RECONOCIMIENTO DE GESTO

El "Reconocimiento de gestos" forma parte de las ciencias de la computación y la

tecnología del lenguaje y tiene como objetivo interpretar gestos humanos a través

de algoritmos matemáticos. Los gestos pueden ser cualquier movimiento corporal

o estado, pero comúnmente se originan a partir de la cara o la mano. Enfoques

actuales en el campo incluyen reconocimiento de la emoción facial y el

reconocimiento de gestos de la mano. Muchos enfoques que se han hecho hacen

uso de cámaras y visión (por medio de cámaras) y se procesan por medio de

algoritmos para interpretar el lenguaje de señas. Sin embargo, la identificación y el

reconocimiento de la postura, la marcha, la proxémica, y los comportamientos

humanos es también el tema de técnicas de reconocimiento de gestos [10].

2.1.2 AFECTIVIDAD

La afectividad es un aspecto de la adaptación del individuo con funciones propias

que orienta y matiza las acciones del sujeto; abarca todos los estados anímicos y

todas las reacciones que se enraízan en el instinto y en el inconsciente [11].

Se entiende la afectividad como el vínculo que se establece entre personas que se

relacionan, generando una interdependencia de influencia mutua; se puede

afirmar, entonces que la afectividad es un conjunto de sentimientos expresados a

través de acciones entre personas en cualquier contexto social en que estén

inmersos los individuos [12].

Por otro lado la afectividad también es considerada como el conjunto de

fenómenos afectivos (inclinación hacia una persona o cosa; unión, vínculo), es

decir, susceptibilidad a estímulos afectivos o disposición para recibir experiencias

y reacciones afectivas; reacción emotiva generalizada que produce efectos

definidos en el cuerpo y la psique. La afectividad juega un papel fundamental en el

desarrollo de la vida humana: mediante ella nos unimos a otros, al mundo y a

nosotros mismos. El ser humano sufre un proceso de maduración y desarrollo

desde la infancia, donde aparece como difusa y egocéntrica, hasta que en la vida

adulta se diversifica como tonalidad que tiñe todo nuestro acontecer [11].

15

En la vida cotidiana se observa que la conducta de las personas tiene un objetivo

o finalidad, hay una razón o motivo que incita, mantiene y dirige su acción o fuerza

de voluntad.

La afectividad se aborda a través de la MOTIVACIÓN, EMOCIÓN Y

SENTIMIENTOS para comprender su funcionamiento.

2.1.2.1 MOTIVACIÓN:

La motivación es la fuerza que activa y dirige el comportamiento y que subyace a

toda tendencia por la supervivencia, o bien, es el móvil que incita, mantiene y

dirige la acción de un sujeto para lograr una meta. Digamos que en lenguaje

común suelen expresarse de diversas formas: amor propio, espíritu de lucha o

fuerza de voluntad. Entonces la motivación se refiere a la dinámica de la conducta;

a la forma en que iniciamos, sostenemos, dirigimos y terminamos nuestras

acciones.

2.1.2.2 EMOCIÓN:

Son respuestas fisiológicas que se ponen en marcha ante determinados estímulos

externos y surgen como respuestas al significado que otorgamos a determinadas

situaciones. Existen 6 emociones primarias que se pueden reconocer facialmente

como se muestra en la Fig 4.

Figura 4: Emociones faciales primarias

Existen sucesos que satisfacen las metas de una persona originando emociones

positivas; los que dañan o amenazan sus intereses, producen emociones

negativas y también suscitan emociones los sucesos nuevos o inesperados.

16

El psicólogo Robert Plutchik expone en su obra “The psychology and biology of

emotion” (New York, Harper Collins, 1974) la “rueda de las emociones” para

distinguir entre emociones primarias y complejas. Las ocho emociones primarias

son: alegría-tristeza, enfado-miedo, anticipación-sorpresa y rechazo-aceptación.

Las emociones complejas surgen a partir de la combinación entre sí de las ocho

emociones primarias. Cuando más cerca se encuentran dos emociones de la

rueda, más elementos comparten y al sumarse provocan sentimientos más

complejos. Por ejemplo, alegría + aceptación origina amor, y rechazo + enfado,

desprecio.

Emociones Primarias Y Complejas Del Modelo De Plutchik

El modelo de Plutchik expone ocho emociones primarias y las demas son

combinaciones entre ellas como se muestra en el esquema de la Fig 5.

Figura 5: Modelo de Plutchik y sus combinaciones

LAS EMOCIONES HUMANAS SON:

-Respuestas fisiológicas que preparan al organismo para adaptarse al ambiente.

Cuando el humano está emocionado, el cuerpo está más activado de lo normal: el

corazón late con más fuerza, la respiración es más rápida y los músculos

permanecen en tensión, algunos cambios fisiológicos son, el cambio de frecuencia

cardiaca, la presión sanguínea, la sudoración y otras alteraciones del cuerpo.

17

-Estados afectivos-subjetivos por los que el ser humano se siente de un modo

determinado: tristes o alegres. Las emociones varían cuando cambian los

significados y pueden perturbar el funcionamiento mental. Por ejemplo, un

estudiante baja su rendimiento cuando tiene problemas afectivos.

-Expresivas, señales externas de lo que está sintiendo una persona porque con

los gestos faciales y corporales comunicamos nuestros sentimientos a los demás.

Cualquier persona debe tener control emocional aunque pueden elegirse varios

caminos: reprimirlas y ocultarlas, expresarlas adecuadamente y cambiarlas. Pero

cabe recordar que la represión sistemática es perjudicial, porque las emociones

están para ser expresadas.

-Funcionales, puesto que surgen como respuesta a sucesos importantes para los

motivos o intereses del individuo: la alegría sirve para acercarse a los demás y el

miedo para huir de algún peligro. Las emociones desempeñan dos funciones

básicas

a. Función adaptativa. Las emociones consisten en una reacción

específica ante una situación y regulan el estado interno del organismo para

estar preparado para esa reacción, como atacar, huir, buscar consuelo,

ayudar a otros y reproducirse.

b. Funciones sociales. Las emociones también sirven para adaptarse al

ambiente social.

Las reacciones emocionales no son simples sucesos subjetivos del corazón sino

estructuras complejas con tres componentes: mental (información que las

desencadenan), neurofisiológicos (respuesta del organismo) y expresivo

(responsables de su manifestación externa mediante gestos, posturas y

movimientos corporales).

Aunque la base biológica de las emociones está prefijada, los estímulos que

causan las emociones son exteriores a ella y pueden inducir emociones desde el

comienzo de nuestra vida. El aprendizaje y la cultura pueden modelar la expresión

emocional.

18

2.1.2.3 SENTIMIENTOS

La palabra SENTIMIENTO se deriva de la palabra latina sentire que significa

percibir por los sentidos. Sin embargo, es un término que abarca más que el mero

significado del sentirse estimulado. Sentimiento es lo que no es instinto, lo que no

es pensamiento, lo que no es percepción, es decir, todo lo que no es una vida

psíquica objetivable sentimientos son estados del yo (Scheler, 1972).

Cuando una persona dice que está alegre, que está triste o que está encolerizado,

se encuentra describiendo un paisaje interior. En contraposición a la percepción y

al pensamiento, que están siempre dirigidos a la captación del mundo exterior, los

sentimientos vienen siempre a designar una manera de estar consigo en el

mundo.

Sentimiento y vida sentimental son sinónimos entre sí, además de ser los términos

preferidos de los filósofos y psicólogos de orientación antropológica porque su

ámbito semántico es el más amplio y humano (en sentido estricto, los animales se

emocionan, pero no tienen sentimientos), porque el acento se pone en el estado

interior. Scheler (1972), distingue sentimientos sensoriales, vitales, anímicos y

espirituales (o de la personalidad).

Los sentimientos vitales se distinguen de los primeros porque no están

localizados. En el lenguaje común se traduce por ejemplo como malestar, o sentir

que un lugar es agradable, desagradable o cómodo. En los sentimientos vitales

existe un recuerdo sentimental, cosa que no ocurre con los sensoriales. No se

puede revivir un dolor físico sufrido, solo acordarse de cómo era. Algunos tipos

importantes de sentimientos vitales para la clínica son: humor, gana, gusto,

nausea y asco.

Según P. Lersch (1966), son los sentimientos dirigidos o reactivos, los cuales

suelen ser la expresión de una inclinación, de una toma de postura, o de una

valoración, En el caso de los sentimientos espirituales o de la personalidad, en

cierto sentido trascendental. Estos son espontáneos y absolutos, es decir, no

pueden apoyarse en determinados valores. Cuando estos sentimientos existen

realmente se funden con el ser mismo, llegan a ser modos de ser, en lugar de

modos de estar. En ellos se refleja el valor de la misma persona.

19

Para Lersch las características fundamentales de los sentimientos pueden ser:

- Interdependencia afectiva entre un mundo interior y uno exterior. Son

propios del hombre, característico de lo humano.

- Carecen de objetividad.

- Tienen tonalidades positivas y negativas, vivencias del yo agradables o

desagradables.

- Son estados pasivos del yo vivenciados como (+) o (-). Estar alegre o triste.

- Sólo pueden ser comunicados subjetivamente, de sujeto a sujeto a través

de simpatía y empatía.

- Referidos a vivencias internas, a diferencia de los procesos cognitivos

pensamiento se dirigen a la captación de mundo externo.

- Su carácter es inobjetivado.

- Son atmosférico e imprecisos. (“siento como”).

- No aprehensibles desde el punto de vista conceptual (hay diferencias de

género).

- Por lo general, los sentimientos (a diferencia de las emociones) no tienen

correlato fisiológico observable, no son tan agudas y pueden no haber sido

determinados por algún evento identificable.

En síntesis, la vivencia más íntima y profunda que se experimentan en el

sentimiento, se resistiría por su propia naturaleza a toda elaboración racional.

Para Ph. Lersch existen las dos tipos de vivencias a las cuales se les aplica el

término sentimientos: emociones y los estados de ánimo. Se diferencian según

movilidad y estabilidad.

Las emociones corresponden a estados vivenciales de sentirse estimulado y se

caracterizan por:

- Ser procesos o transcursos anímicos, es decir, comienzan y terminan.

- Interrumpir el curso regular, el ritmo normal del acontecer psicosomático.

- Ser sentidas mucho más intensamente que los sentimientos, ya que

afectan la esfera regulada por el S.N.C.

- Clásica intensidad de la moción (actividad, movimiento).

20

- Tienen un rol importante en la vida anímica, ya que le dan la “tonalidad” (

junto a los instintos y tendencias) a la vida anímica.

- Juegan también un rol en la supervivencia: en el miedo y la ansiedad,

ponen en marcha mecanismos de defensa en la ansiedad (experiencia

inespecífica ante una amenaza no identificada) se ponen en marcha

mecanismos inespecíficos de defensa (sobresalto o paralización) antes de

haber identificado al agresor.

- Corresponden a estados agudos, producidos por un estímulo interno o

externo y acompañados de un correlato fisiológico manifiesto (taquicardia,

sudoración, cambios de presión, variaciones de las secreciones

neuroendocrinas).

En [12] aseguran que los espacios educativos, incluidos los de formación

académico–profesional son también contextos de desarrollo afectivo. Si la vida

emocional es la base de la felicidad humana, una buena relación afectiva será el

ingrediente fundamental para el aprendizaje. No se aprende sin el vínculo, incluso

en los espacios donde prima lo cognitivo.

2.1.3. Criterios Que Caracterizan La Afectividad En El Ámbito Escolar

El articulo muestra tres vertientes de la afectividad desde el punto de vista

psicológico y pedagógico, esta son preponderantes al momento de aplicarla dentro

del salón de clases. Los criterios fueron seleccionados con base a esos

interrogantes sobre la calidez y la calidad de educación que se plantean los

autores. Por lo pronto se ha abordado los siguientes: la motivación, la inteligencia

interpersonal que maneje el profesor y la sensibilidad con que el educador se

ubica frente a sus estudiantes [12].

- Motivación: Se define como los estímulos que mueven la persona a realizar

determinadas acciones y persistir en ellas para su culminación, es decir, es

emulsionar a alguien a iniciar acciones encaminadas a conseguir objetivos.

En cuanto al aprendizaje, se dice que es un proceso que puede ser

conceptuado de forma sintética, es el modo con que las personas

21

adquieren nuevos conocimientos, desarrollando competencias y cambiando

comportamientos [12].

Es la fuerza que activa y dirige el comportamiento y que subyace a toda

tendencia por la supervivencia, o bien, es el móvil que incita, mantiene y

dirige la acción de un sujeto para lograr una meta. Digamos que en

lenguaje común suelen expresarse de diversas formas: amor propio,

espíritu de lucha o fuerza de voluntad. Entonces la motivación se refiere a

la dinámica de la conducta; a la forma en que iniciamos, sostenemos,

dirigimos y terminamos nuestras acciones [11].

- Inteligencia Interpersonal: Definen la inteligencia interpersonal, como la

habilidad para establecer relaciones con otras personas e interactuar con

ellas. La sensibilidad especial para comprender sentimientos, pensamientos

e interpretar la conducta de los demás, captar estados de ánimo, sentir lo

que otros sienten poniéndose en su lugar, la flexibilidad para entender otros

puntos de vista, la capacidad para asumir diversos roles dentro de un

grupo. La aptitud para llegar a los demás, asesorar, persuadir, liderar,

negociar, actuar como mediador. Es la curiosidad e interés por distintos

estilos de vida. Es comunicarse en forma efectiva, expresándose con

claridad e interpretando adecuadamente los mensajes.

- La Sensibilidad en el Afecto: El tacto pedagógico es una expresión de la

responsabilidad que se asume al proteger, educar y ayudar a los niños en

su desarrollo. Es así que se manifiesta principalmente, como una

orientación consciente en cuanto a la forma de ser y actuar con los niños.

No se trata tanto de la manifestación de algunos comportamientos

observables como de una posición activa en las relaciones. Aun así, existen

varias maneras de describir cómo se manifiesta en la forma pedagógica de

la atención de alumnos con necesidades educativas o sin ellas.

La afectividad, asumida como núcleo de la formación integral del sujeto lleva

necesariamente a los argumentos formulados a lo largo de la historia a favor de la

opción pedagógica por la formación integral. Al interior de tal opción, se encuentra

22

la propuesta del Paradigma Pedagógico Ignaciano (PPI) y se indaga sobre sus

orígenes en la espiritualidad de San Ignacio, para colocar al lector en una posición

tal que le permita contemplar la afectividad como núcleo del sujeto y como centro

vital para los esfuerzos de una pedagogía que busca poner en marcha la

integración de las distintas dimensiones constitutivas del ser humano [13].

2.2 ESPECIFICACIONES TÉCNICAS

2.2.1 KINECT SDK

La versión anterior del Kinect estuvo marcada por la coexistencia de varias

librerías no oficiales junto con el SDK proporcionado por Microsoft. Esto fue debido

principalmente a que Microsoft no puso demasiado énfasis en el apartado software

tanto como lo hizo en el hardware, lo que hizo que surgieran alternativas que

mitigaran la falta de características. Sin embargo, en la v2, esto ha cambiado, y

actualmente solo se dispone de las librerías proporcionadas por el equipo de

Microsoft.

El Kinect SDK proporciona los drivers y un conjunto de librerías que permiten el

desarrollo de aplicaciones que utilizan Kinect como dispositivo de entrada. La

interfaz de usuario natural (NUI, Natural User Interface) es el núcleo del Kinect

para la Windows API que nos permite obtener los diferentes flujos de datos que

nos ofrecen los sensores de los que dispone Kinect. En la Figura 6 se muestra

como las aplicaciones interactúan con los flujos de datos y en la Figura 7 se

muestra la arquitectura del SDK. Además, junto con el SDK, se proporciona un

Developer Toolkit que contiene diferentes programas realizados utilizando dicho

SDK. Este kit de desarrollo permite realizar aplicaciones en C++, C#, VB o HTML

corriendo sobre Windows 8 o Windows 8.1, tanto en arquitecturas x86 o x64. [14]

Algunos de los programas proporcionados pueden servir como prueba y como

punto de partida para aplicaciones que se quieran desarrollar. Un ejemplo podría

ser el Depth Basics-WPF, que demuestra cómo utilizar DepthFrameReader para

obtener y visualizar frames de profundidad. Un frame contiene los datos

23

entregados desde el sensor asignados de forma temporal con el fin de evitar la

adjudicación permanente de memoria. De este modo, una aplicación debe obtener

los datos de cada frame y después cerrar o desechar este objeto tan rápido como

sea posible para liberar el identificador subyacente. De no respetar este

procedimiento, al estar recibiendo frames de forma continua (una porción de

memoria para cada uno), no se recibirían más frames con el fin de evitar el

colapso de la máquina por no disponer de recursos suficientes. Se debe recordar

que son varios los frames que se reciben por segundo para cada flujo de datos.

Fig 6. Interacción de la aplicación con Kinect [14]

Fig 7. Arquitectura del Kinect SDK [14]

Además, el Developer Toolkit proporcionado contiene una aplicación llamada

“Kinect Studio” que permite la grabación de los diferentes flujos de datos que nos

proporcionan los sensores de la Kinect, además del Visual Gesture Builder (VGB),

24

que nos permite generar datos que se utilizan para realizar detección de gestos y

el seguimiento de éstos en tiempo de ejecución.

Finalmente, un vídeo recopilatorio que nos muestra las capacidades del SDK y la

nueva versión de Kinect https://www.youtube.com/watch?v=i9906y10GzQ. Como

se puede ver, entre las diversas áreas de aplicación están la medicina

(herramienta de apoyo a cirujanos, consultas de médico), la robótica, la educación

o el entretenimiento (videojuegos, deporte), como se nos muestra en Figura 8.

Fig 8. Ejemplos de uso con Kinect [14].

2.2.2 AFECTIVA

EL SDK permite detectar emociones en tiempo real en el dispositivo para analizar

sus medios grabados en la nube. Identifica 7 emociones, 20 expresiones y 13

emojis e incluye clasificadores por edad, género y origen étnico. El SDK detecta

la emoción en caras individuales, así como para grupos de más de 20.

Emotion SDK está diseñado para analizar las expresiones faciales espontáneas

que las personas muestran en sus interacciones diarias. La tecnología funciona

con cualquier sensor óptico, cámara de dispositivo o cámara web estándar. Los

algoritmos de visión por computadora identifican hitos clave en la cara, por

ejemplo, las esquinas de las cejas, la punta de la nariz, las comisuras de la

boca. Los algoritmos de aprendizaje automático (clasificadores) luego analizan los

píxeles en esas regiones para clasificar las expresiones faciales. El Sistema de

codificación de acción facial (Facial Action Coding System, FACS) para clasificar

expresiones faciales o unidades de acción (AU). Las combinaciones de estas

expresiones faciales se asignan a las emociones [15].

25

2.2.3 MICROSOFT VISUAL STUDIO

Es un entorno de desarrollo integrado (IDE, por sus siglas en inglés) para sistemas

operativos Windows. Soporta múltiples lenguajes de programación, tales

como C++, C#, Visual Basic .NET, F#, Java, Python, Ruby y PHP, al igual que

entornos de desarrollo web, como ASP.NET MVC, Django, etc., a lo cual hay que

sumarle las nuevas capacidades online bajo Windows Azure en forma del editor

Monaco.

3 METODOLOGÍA

3.1 ESTUDIO DE EXPRESION CORPORAL VS EMOCIONES

3.1.1 Estudio Previo:

Se hizo una búsqueda en la base de datos de la Universidad Distrital la cual tiene

por nombre BDigital y se tomó como punto de partida la tematica Science and

Direct, se colocaron las siguientes palabras claves para dicha investigación las

cuales fueron emotion body position y de estas palabras salieron 45.299 papers.

La búsqueda se limitó a los siguientes tipos de artículos:

- Artículos de revisión

- Artículos de investigación

- Capítulos de libro

- Abstract de conferencias

- Caso de reportes

- Discusiones

- Patentes

Por tipos de publicación se limitó a:

- Ciencias sociales y medicina

- Neurociencia y revisiones de bio-comportamiento

- Psicología y comportamiento

- Desordenes afectivos

- Investigaciones en psicología

26

Lo que arrojo una búsqueda de 2.557 papers.

Por otro lado se hizo la investigación con la palabra bodily ya que esta tiene que

ver más con la temática a tratar y salieron 3.277 papers, a continuación se realizó

una búsqueda más específica con las palabras emotion bodily position y salieron

2.943 resultados. Y se seleccionaron los siguientes ítems:

- Artículos de revisión

- Artículos de investigación

- Discusiones

- Neurociencia

- Comportamiento bioneural

- Neuroimagenes

- Psicología biológica

- Investigación psicosomática

Y arrojo 306 papers de los cules se escogieron estos dos:

- Influence of oxytocin on emotion recognition from body language: A

randomized placebo-controlled trial.

- Standing up for the body. Recent progress in uncovering the networks

involved in the perception of bodies and bodily expressions.

De lo cual se sacó gran información para hacer el siguiente estudio.

Seguidamente, se realizó una indagación a los trabajos de otros integrantes del

grupo de investigación: “Propuesta tecnológica para el modelado cognitivo

mediante solución de problemas, utilizando el juego ‘la escalera’” De Jennifer

López y Snaider García y “Una trayectoria real del juego ‘la escalera’ vinculada a

hipótesis que potencian el aprendizaje de las funciones desde poblaciones

diversas” de Natalia Palomá [17] y además otros documentos expuestos en la

biografía en la parte final del documento.

Teniendo en cuenta estos documentos y las facilidades e inconvenientes que

presenta el sensor Kinect, se parametrizaron nueve expresiones corporales

asociadas a una emoción, de la siguiente manera:

27

Preparado: Según la autora Alexia Herms la posición con las manos en

la cadera se puede confundir con hostilidad, pero en la mayoría de

ocasiones es sólo una posición de alerta. Es típica en personas muy

activas y en deportistas al comenzar su actividad. También es cierto que

a veces, esta posición puede ser vista como una demostración de

autoridad y superioridad. Esta expresión es catalogada de impacto

positivo[22].

Figura 9: Posición con las manos en la cadera.

Impaciencia: Es un estado que se presenta cuando la persona se

encuentra en grandes deseos de que suceda algo, de saber algo o de

que se resuelva algo que espera [12]. El proyecto Muhimu presenta en

su área de salud y psicología el artículo “Conoce todas las claves del

lenguaje corporal y su significado” [21], en el cual expone que mover las

manos y frotar rápidamente es una muestra de estar impaciente, así

como también lo puede ser golpear suavemente la mesa o hacer

movimientos repetitivos con las manos. Por facilidades que nos brinda el

sensor Kinect y la lectura que tiene del esqueleto, solo se toma la

primera afirmación.

PREPARADO

28

Figura 10: Posición de tocarse los dedos rápidamente

Confundido: El lenguaje del mentón es amplio y expresa demasiadas

emociones según F. Olivares A [20], pero el autor afirma que cuando la

persona está tocándolo muestra que la está concentrada pensando o

juzgando algo y que generalmente está a punto de tomar una decisión,

es por esto, que puede ser un claro indicio que la persona está

experimentando una confusión, es por esto que se cataloga como una

emoción de impacto negativo.

Figura 11: Posición mano en el mentón

IMPACIENTE

CONFUNDIDO

29

Satisfacción: Este estado anímico sucede cuando se experimenta un

sentimiento de bienestar o placer que en la mayoría de los casos se

presenta cuando se ha colmado un deseo o cubierto una necesidad [12].

Este estado va ligado a la emoción primaria alegría como se evidencia en

el modelo de Plutchik [13], esta a su vez es catalogada como una

emoción que genera actitudes positivas, optimiza la respuesta cognitiva,

la creatividad, la memoria y el aprendizaje [19], donde también aseguran

que incluso puede mejorar los lazos sociales y ayuda a superar el miedo.

En [17] la autora Paloma Barrera expone que puede ser un claro indicio

de júbilo y satisfacción por algún objetivo logrado y que se manifiesta

regularmente con los brazos abiertos.

Figura 12: Posición brazos abiertos.

Despreocupación: Cuando una persona está con sus manos en el

bolsillo afirma Alexia Herms, que expresa falta de voluntad, desconfianza

y resistencia, en una conversación se evidencia que la persona está

totalmente desinteresada y que probablemente no tiene nada que

SATISFACCIÓN

DESPREOCUPADO

30

aportar al tema [22], por tal motivo se clasifica en una emoción de

impacto negativo.

Figura 13: Posición manos en los bolsillos.

Estrés (Ira): Este sentimiento se expresa cuando se considera que

alguien o algo se interfiere en el propósito final de alguna actividad

[19]. Experimentar este estado puede llevar a la persona a sentir

frustración incluso aseguran en el artículo que puede llevar al fallo de

la memoria o de alguna capacidad por lo tanto genera un impacto

negativo. La reacción más frecuente a este estado es rascarse la

cabeza como se concluye en la referencia, este movimiento se puede

presentar con cualquiera de las dos manos o incluso con las dos

juntas.

ESTRESADO

31

Figura 14: Posición manos en la cabeza.

Seguridad: Este estado se experimenta cuando hay ausencia de miedo

y una sensación de total confianza, es por esto que se clasifica como

una emoción de impacto positivo. Cuando una persona se dirige a un

público con un movimiento de manos fluido se utiliza para dar énfasis, y

suele ser un gesto autoritario. Si una persona agita las manos al hablar

puede significar que ha tomado una decisión y es probable que no la

cambie, es decir, que seguro de lo que dice [22].

Figura 15: Posición manos enfrente abiertas.

Inseguridad: Desde el punto de vista pedagógico y psicológico es un

es principalmente un miedo a algo, que se refleja a partir de la

incapacidad de la persona de realizar tareas por temor a equivocarse

[12], por lo tanto es una emoción de impacto negativo que se

manifiesta principalmente con los brazos cruzados cuando alguien

SEGURO

32

muestra inseguridad ante el resto, implica una forma de volverse

menos notorio ya sea física o intelectualmente [23].

Figura 16: Posición brazos cruzados.

Ocultar Emoción: El ser humano puede suprimir parte de la expresión

de las emociones o simplemente controlarlas o disimularlas [19]. Es

por esto que se concluye que la expresión corporal que acoge estas

características es cuando la persona cubre su boca, ya que lo pueden

hacer con el fin de evitar mostrar una sonrisa (alegría), bostezo

(aburrido) o cualquier otro gesto, es por esto que no se puede

catalogar como reacción de impacto positivo o negativo.

INSEGURO

33

Figura 17: Posición cubrir la boca.

3.1.2 Desarrollo Del Algoritmo:

Se desarrolló el algoritmo que captura y parametriza la posición corporal del

humano a una emoción como fue establecido anteriormente.

34

3.1.2.1 Flujograma del algoritmo:

Figura 18: Diagrama de Flujo. Fuente: Autor

3.1.2.2 Explicación del Código:

La explicación detallada por bloques del código se encuentra en el

anexo 1 del documento.

35

3.1.3 Pruebas:

Se realizaron a 15 estudiantes de la Facultad Tecnológica de diferente género y

edad. La prueba consiste en que el sujeto debe solucionar el juego ‘Torres de

Hanoi' (Figura 21) con 4 fichas con el fin de evitar la deserción del juego, la

evaluación empieza desde el momento en que se explican las reglas hasta que la

persona pueda solucionarlo, dándole un tiempo máximo de 10 minutos. Se irá

tomando un registro de la emoción que resulte en el programa, el minuto en que la

presentó y lo que la persona iba manifestando.

Figura 19. Juego ‘Torres de Hanoi’

3.2 DIAGRAMA DE BLOQUES

En la figura 6 se observa el diagrama de bloques el cual representa las líneas de

acción en las que se desarrolla el proyecto.

Figura 20. Diagrama de bloques. Fuente: Autor

3.2.1 Usuario: La primera etapa será el usuario, el cual va a interactuar

indirectamente con el sensor Kinect y del cual se analiza su posición corporal.

36

Figura 21. Usuario interactuando con el sensor Kinect [1].

3.2.2 Sensor Kinect: Por medio de este sensor se adquiere la posición corporal

del usuario y esta señal se envía al computador.

Figura 22. Reconocimiento del sensor Kinect. Fuente: autor.

3.2.3 Software: En este bloque se organizarán los datos obtenidos y se desarrolló

un algoritmo capaz de determinar la emoción predominante del usuario con

respecto a la posición corporal que esté presente.

3.1.4. Interfaz Gráfica: Se desarrolló una interfaz gráfica la cual mostrará la

imagen reportada por la cámara del sensor, en la posición de las articulaciones se

37

puede observar un círculo para hacer evidente la figura del esqueleto y en la parte

izquierda la coordenada que está ocupando la articulación en el plano. Además de

ello se pudo visualizar el resultado de la emoción detectada por el algoritmo, y

permite conocer al pedagogo la emoción predominante del usuario evaluado.

Se extendió una ViewBox en toda la Main Window donde se observa la

visualización de la cámara y los círculos de colores sobre las articulaciones, estos

sirvieron como guía para observar que el sensor está adquiriendo correctamente

la información.

En la parte izquierda hay un TextBox, donde se pudo visualizar la posición de las

articulaciones, en caso de que no se pueda reconocer, se mostrará un mensaje

que informa este suceso.

En la parte superior izquierda hay un TextBox donde se visualiza la emoción

resultante.

El resultado de la interfaz gráfica se puede observar en la figura 24.

Figura 24.Resultado Interfaz gráfica. Fuente: autor

38

4 RESULTADOS. 4.1 Resultado de las Pruebas: Se le pide al usuario que se ubique a una

distancia de 1,5m del sensor y que cada vez que realice un movimiento vuelva a

esta posición, esto con el fin de que el sensor pueda identificar su esqueleto

nuevamente. Las personas expuestas a continuación autorizaron el uso de sus

imágenes.

PERSONA 1:

Nombre: Emelyn Rodriguez

Edad: 19

Ocupación: Estudiante Electrónica

MINUTO 1: Durante la explicación del juego la persona 1 presta atencion y se

muestra despreocupada.

39

MINUTO 2: Cuando se finaliza la explicación el sujeto se encuentra preparado

mientras analiza sus movimientos.

MINUTO 3: Cuando la persona 1 iba a realizar su primer movimiento se encuentra

confundida y pide instrucciones nuevamente.

40

MINUTO 5: Cuando se le explica nuevamente las reglas del juego, la persona 1

expresa una sonrisa y trata de ocultar su emoción.

MINUTO 7: La persona 1 lleva un avance significante en el juego, pero comete un

error que le conlleva a retroceder varios pasos y muestra indicios de estrés.

41

MINUTO 8: La persona 1 manifiesta que el juego es muy difícil y que no lo podrá

terminar, se muestra impaciente.

MINUTO 10: Finalmente, después de nuevas indicaciones el usuario logra

terminar el juego y expresa satisfacción.

PERSONA 2:

Nombre: Lorena Galeano

Edad: 20 años

42

Ocupación: Estudiante tec.sistemas

MINUTO 1: La persona manifesta que conoce el juego y reafirma las reglas

mostrando indicios de estar confundida.

MINUTO 3: La persona 2 realiza rápidamente sus primeros movimientos y se

muestra impaciente.

43

MINUTO 5: La persona está a punto de terminar el juego y antes de sus últimos

movimientos realiza una posición de preparado.

MINUTO 8: El usuario termina rápidamente su juego y finaliza con una expreción

de satisfacción.

PERSONA 3:

Nombre: Diego Barrero

Edad: 26 años

Ocupación: Estudiante Tec. Civiles

44

MINUTO 1: En el momento de la explicación el sujeto presta atención y se

muestra seguro.

MINUTO 3: Cuando se finaliza la explicación la persona 3 se dispone hacer sus

primeros movimientos y se muestra confundida.

45

MINUTO 5: Manifiesta que el juego está facil y en sus primeros movimientos

expresa satisfacción.

MINUTO 9: EL usuario se confunde, retrocede algunos pasos y muestra indicios

de estrés, y no pude finalizar el juego.

PERSONA 4:

Nombre: Carlos Alberto Garcia

Edad: 22 años

Ocupación: Estudiante Tec. Electrónica

46

MINUTO 1: Presta atención a las instrucciones mostrándose confundido.

MINUTO 3: Realiza sus primeros movimientos y se muestra estresado.

47

MINUTO 6: El usuario presenta un avance significante y se muestra ansioso e

impaciente por finalizar.

MINUTO 10: La persona finaliza el juego y se muestra con indicios de satisfacción.

PERSONA 5:

Nombre: Sebastian Rodriguez

Edad: 18 años

Ocupación: Estudiante tec. Industrial

48

MINUTO 1: se le explica las reglas a la persona 5 y se muestra despreocupado y

manifiesta conocer las reglas del juego.

MINUTO 2: Antes de realizar sus primeros movimientos el sujeto se encuentra

preparado.

49

MINUTO 5: Al transcurrir el tiempo, el sujeto bosteza e intenta ocultar su estado.

MINUTO 6: El sujeto logra terminar el juego antes de tiempo y expresa

satisfacción.

PERSONA 6:

Nombre: Tatiana Herrera

Edad: 18 años

Ocupación: Estudiante ing. industrial

50

MINUTO 1: La persona 1 escucha las instrucciones y frota sus manos

demostrando estar impaciente por comenzar el juego.

MINUTO 2: Al finalizar la explicación y antes de realizar su primer movimiento la

persona se muestra segura.

51

MINUTO 5: Realiza sus primeros movimientos mostrando un avance significativo,

manifiesta que comote un error y se muestra confundida.

MINUTO 9: El sujeto termina el juego y muestra despreocupación por el tema.

PERSONA 7:

Nombre: Karen Daza

Edad: 21 años

Ocupación: Estudiante tec. Sistemas

52

MINUTO 1: El sujeto presta atención a las instrucciones y rasca su cabeza

mostrando signos de estrés.

MINUTO 3:La persona realiza sus primeros movimientos, manifestando dificultad

al realizar el juego y se muestra confundida.

53

MINUTO 5: Durante un tiempo el sujeto no realiza movimientos en el juego y se

muestra impaciente.

MINUTO 8: Por último concreta sus últimos pasos y logra el objetivo del juego,

manifiesta que no tenía mayor dificultad como pensaba y se muestra

despreocupada.

PERSONA 8:

Nombre: Santiago Gonzales

Edad: 21 años

Ocupación: Estudiante tec.sistemas

54

MINUTO 1: El sujeto recibe instrucciones del juego, bosteza e intenta ocultar su

emoción.

MINUTO 2: Antes de realizar los movimientos la persona se muestra con signos

de estrés.

55

MINUTO 6: La persona 8 muestra y manifiesta dificultades durante el desarrollo

del juego y se ve confundida.

MINUTO 10: Al transcurrir el tiempo establecido el sujeto no logra cumplir el

objetivo del juego y se muestra despreocupado.

PERSONA 9:

Nombre: Andres Huertas

Edad: 22 años

Ocupación: Estudiante Tec. sistemas

56

MINUTO 1: La persona recibe las instrucciones para realizar el juego y mientras

tanto se muestra despreocupado por el tema.

MINUTO 4: La persona 9 realiza sus primeros movimientos y no entiende

correctamente las reglas y a su vez se muestra estresado.

57

MINUTO 7: El usuario realiza un avance significativo y muestra una posición de

satisfacción.

MINUTO 8: El usuario culmina el juego y muestra una posición de ocultar

emoción.

PERSONA 10:

Nombre: Ana Raquel Molano

Edad: 19 años

58

Ocupación: Estudiante Tec. mecánica

MINUTO 1: La persona 10 recibe instrucciones para realizar el juego y al mismo

tiempo se muestra impaciente por comenzar.

MINUTO 3: La persona realiza sus primeros movimientos agilmente, pero se

detiene y se muestra confundida.

59

MINUTO 5: El usuario muestra y manifiesta dificutades para continuear realizando

el juego mostrando signos de estrés.

MINUTO 8: Finalmente supera sus dificultades y logra terminar el juego

mostrándose despreocupada.

PERSONA 11:

Nombre: Santiago Martinez

Edad: 23 años

Ocupación: Estudiante Tec. Eléctrica

60

MINUTO 1: El usuario manifiesta conocer las reglas y se encuentra preparado

para iniciar el juego.

MINUTO 3: Realiza sus primeros movimientos y se muestra confundido.

61

MINUTO 7: El sujeto culmina el juego rapidamente y muestra una posición de

seguridad .

5 RESUMEN DE RESULTADOS

Para tabular los resultados se realiza una tabla de convenciones de las

emociones, en las primeras cuatro posiciones se encuentran las emociones de

impacto negativo y las cuatro ultimas, las emociones de impacto positivo.

Posteriormente se realiza la tabla para resumir los resultados. Finalmente se

muestra una gráfica de la evolución de emociones que experimentaron las

primeras cuatro personas.

Tabla1. Convenciones de las emociones.

0 Ninguna

1 Estresado

2 Impaciente

3 Despreocupado

4 Confundido

5 Ocultando emoción

6 Seguro

7 Satisfacción

8 Preparado

62

Tabla2. Resumen de resultados

6 RECOMENDACIONES Y SUGUERENCIAS

6.1 Relacionado con la investigación, es necesario hacer pruebas con

poblaciones diversas y con personas en condición de discapacidad con el fin de

observar la variación de los resultados y poder hacer un estudio del caso.

Tiempo (min) P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11 P12 P13 P14 P15

0-1. 3 4 6 4 3 2 1 5 3 2 8 3 8 4 1

2-3. 8 2 4 1 8 6 4 1 0 4 5 5 4 8 5

4-5. 5 8 7 0 5 4 2 0 1 1 0 1 1 5 0

6-7. 1 0 0 2 4 0 0 4 7 0 6 0 6 1 1

8-9. 2 7 1 0 7 3 3 0 0 3 0 8 3 3 0

10. 7 0 0 7 0 0 0 3 5 0 0 0 0 2 7

Finalizó Si Si No Si Si Si Si Si Si Si Si Si Si No Si

3

8

5

1

2

7

4

2

8

0

7

0

6

4

7

0

1

0

4

1

0

2

0

7

0

1

2

3

4

5

6

7

8

9

0 1 2 3 4 5 6 7

mer

o d

e la

Em

oci

ón

Tiempo (m)

Gráfica 1. Emociones vs Tiempo

P1 P2 P3 P4

63

6.2 Con el fin de evitar errores en la ejecución de la aplicación, se recomienda

seguir debidamente las instrucciones expuestas en el manual de uso (Anexo 1).

7 CONCLUSIONES

7.1 En concordancia con la actividad propuesta y analizando los resultados de las

quince personas, no se puede determinar una emoción predominante en

determinado intervalo de tiempo, debido a que los resultados fueron dispersos, sin

embargo, se puede destacar que la posición de “preparado” se encuentra

mayoritariamente al principio del juego, y la posición de “satisfacción” al final.

También se observa que la posición que menos se presentó fue la de seguro

(cuatro veces) debido a que esta posición se presenta principalmente en otras

actividades académicas como exposiciones, debates, etc.

7.2 La aplicación no puede garantizar que la emoción que se visualiza en la

Interfaz sea la que verdaderamente presente el sujeto evaluado, debido a que la

aplicación solo hace una relación de las posiciones corporales a un estado

anímico y no una evaluación psicológica, sin embargo, brinda una herramienta al

docente para hacer un seguimiento de comportamientos.

7.3 Las tecnologías actuales pueden apoyar a diferentes campos de estudio, en

este proyecto se adaptaron algunas herramientas, tanto de software como de

hardware, implementándolas en la rama de pedagogía, obteniendo como

resultado un sistema que facilita al profesor o evaluador tener un seguimiento de

la persona evaluada acerca de cuáles emociones expresó en diferentes

actividades propuestas.

7.4 La tecnología Kinect puede mostrar diferentes inconvenientes en el momento

de la captura de la imagen y del reconocimiento del esqueleto, por ejemplo, este

no captura la posición de los hombros, lo cual limitó el uso de otras expresiones

corporales, sin embargo, es una dispositivo que se puede adquirir fácilmente en el

mercado y a bajo costo.

64

8 REFERENCIAS

[1] J. S. Da Cunha Neto, P. P. R. Filho, G. P. F. Da Silva, N. B. Da Cunha Olegario, J. B. F. Duarte, and V. H. C. De Albuquerque, “Dynamic Evaluation and Treatment of the Movement Amplitude Using Kinect Sensor,” IEEE Access, vol. 6, no. JANUARY, pp. 17292–17305, 2018.

[2] S. Sophia, “Análisis Comparativo Sobre la Afectividad Como Motivadora del Proceso Enseñanza-Aprendizaje. Casos: Argentina, Colombia y Ecuador.,” pp. 217–231, 2016.

[3] Luo Yuan, Zhang Yi. Design and implementation of intelligent wheelchair gesture control system based on Kinect sensor [J]. robot, 2012,34 (1):110-114.

[4] Levenson, R.W. (1994). Human emotion. A functional view. In P. Ekman & R.J. Davidson (Eds). The nature of Emotions: Fundamental Questions (pp. 123-126). New York: Oxford University Press. [5] Ekman et al., 1983. "Autonomic nervous system activity distinguishes among emotions", Sciencie. [6] M. C. Ortega, La educación emocional y sus implicaciones en la salud. REOP - Revista Española de Orientación y Psicopedagogía. 21, 462–470 (2010). [7] Belli, S. (2010). Emociones y Lenguaje. Athenea Digital, (17), 307–312. [8]. Luo Yuan, Zhang Yi. Design and implementation of intelligent wheelchair gesture control system based on Kinect sensor [J]. robot, 2012,34 (1):110-114.

[9]. Chen Yimin, Zhang Yunhua. Research on human robot interaction technology based on gesture recognition [J]. robot, 2009,31 (4):351-356.

[10]. E. L. Narváez, C. H. Miranda, S. Paola, and R. Martínez, “Aplicación integrada a la tecnología Kinect para el reconocimiento e interpretación de la Lengua de Señas Colombianas Integrated application for Kinect technology for recognition and,” vol. 14, no. 2, pp. 7–19, 2016.

[11]. B. Russell, “Lectura Afectividad,” 2010. Basada en los textos de Alonso, Alonso y Balmori, 2004; Coon y Mitter, 2010; Cosacov, 2010.

[12]. S. Sophia, “Análisis Comparativo Sobre la Afectividad Como Motivadora del Proceso Enseñanza-Aprendizaje. Casos: Argentina, Colombia y Ecuador.,” pp. 217–231, 2016.

[13]. T. García, “Psicología de la afectividad: La afectividad en la educación que le apuesta a la formación integral, ir al núvleo del sujeto.,” vol. 3, pp. 12–23, 2008.

65

[14] R. S. Manuel and D. G. David, “Reconocimiento de expresiones con Kinect,” Univ. Carlos III Madrid, 2015.

[15] Https://www.affectiva.com/product/emotion-sdk/ .Consultado 2 de septiembre de 2018.

[16] Https://www.microsoft.com/es-co/p/suscripcion-a-visual-studio-professional/dg7gmgf0dst3/0003. Consultado 2 de septiembre de 2018.

[17] N. A. Palomá Barrera, “Una trayectoria real del juego la escalera vinculada a la hipotesis que potencian el aprendizaje de las funciones desde poblaciones diversas.” Univ. Dist. Fr. José Caldas, no. 2011, pp. 1–8, 2018.

[18] https://www.recreoviral.com/persona-comunicar-lenguaje-corporal/ Consultado 10 de Octubre de 2018.

[19] P. Tomas Gil, “Reconociendo las Emociones, ¿Qué son y para qué sirven?” UNED. Illes Balears. Abril 2014.

[20] F. Olivares A. “El cuerpo humano y su lenguaje, el mentón o barbilla” Julio 2018

[21] Mahimu “Conoce todas las claves del lenguaje corporal y su significado” 2017

[22] Alexia Herms “Lenguaje verbal II Soy lo que hago con mis manos” Abril 2013

[23] Isabel Valenzuela “Lenguaje corporal: Mitos sobre el significado al cruzarse de brazos” España, 2012.

9 ANEXOS

9.1 Manual de usuario

9.2 Explicación del código