Ramón Luis Pizarro Romero – Latin Strategy Ltda.
Curso Introductorio en Analytics y Data Science para Ingenieros.
Objetivos del curso. Introducir al auditorio (ingenieros) en el estado del arte del tema Analytics y
Data Science. Para ello: 1) Repaso de las bases del análisis cuantitativo formal, 2) Discusión y
establecimiento de una metodología para la toma de decisiones informadas, y el proceso y roles en la
organización para la tarea Analytics, 3) Construcción de La Pregunta en Analytics, y aprendizaje de un
procedimiento para la búsqueda y exploración de respuestas, 3) Construcción de algunos modelos
analíticos-predictivos con paquetes varios disponibles en la plataforma R, 5) Motivación al auditorio, a partir
de 5 plataformas-ofertas web de alta calidad, para que emprenda un roadmap de auto-capacitación como
Data Scientist y/o Data Engineer.
NOTA: “R” es una de las dos plataformas-lenguaje líderes abiertas y free para Analytics (la otra es
Python). Ver: https://www.datacamp.com/community/tutorials/r-or-python-for-data-analysis#gs.1QRPFGA.
En “R” se pueden poner en producción aplicaciones de elevadas prestaciones; se puede también combinar
su uso con otras plataformas abiertas y free – de Big Data por ejemplo. Es mandatorio para el Data Scientist
y el Data Engineer conocer y dominar (en alguna medida) R o Python; mejor si ambos.
Programa – contenidos – intensidad (12 horas)
1. Técnicas y herramientas de descripción de DATA; tablas, gráficas, otros (2).
2. Probabilidad condicional – Teorema de Bayes: rendimiento e implicaciones para Analytics (1).
3. Incertidumbre, riesgo y recompensa: el caso de negocios de Analytics (2).
4. Algoritmos y paquetes analítico-predictivos varios: ejercicios con DATA real en R (6).
5. Un roadmap técnico de auto-capacitación para Data Scientist y Data Engineer (1).
Algunas de las temáticas que NO se incluyen en estas 12 horas, que tienen que ver con Analytics y
Data Science, que pueden ser objeto de próximos cursos:
1. Estadística inferencial: muestreo, teorema del límite central, NHST (Null Hypothesis Significance
Test), otros.
2. Algoritmos típicos para el modelamiento predictivo, o técnicas específicas para el análisis en
“verticales”: tareas-tipos de DATA específicos.
3. Técnicas varias de machine learning; experimentación virtual; simulación.
4. Construcción de Apps para visualización de análisis y modelos.
5. Software comercial de análisis, visualización, otros.
6. Infraestructura o software para Big Data (altos volúmenes – eventualmente en tiempo real - de
captura, análisis y procesamiento de DATA; ejemplo Hadoop Distributed File System (HDFS)).
7. Creación, captura, “limpieza” de DATA.
8. Programación en R.
9. Plataforma-lenguaje Python.