El Magíster en Data Science (MDS) busca satisfacer la creciente demanda de profesionales con habilidades y conocimientos sólidos en análisis y gestión de datos que permitan no sólo analizar los datos históricos de la empresa e institución, sino que busquen predecir escenarios hipotéticos futuros, y tener la capacidad de, en dichos escenarios, modificar diferentes indicadores para analizar su incidencia directa en las decisiones principales y poder tomar la decisión más óptima.
En diversos sectores las empresas e instituciones recogen cada día datos en diversas escalas de magnitud. Hoy en día, estos yacimientos de datos son un activo estratégico de las empresas e instituciones para innovar, emprender, crecer y desarrollar adecuadamente su negocio. Para poner en valor toda esta data las empresas e instituciones requieren incorporar competencias, nuevas tecnologías y herramientas, así como establecer una nueva cultura basada en los datos, todo ello con el fin de garantizar una posición competitiva.
El Magíster en Data Science ofrece una formación eminentemente práctica y una visión multidisciplinaria, que integra temas de ciencias de la computación, informática, matemática, estadística, investigación de operaciones y conocimiento del negocio. Este innovador enfoque otorga una oportunidad única a los alumnos de especializarse en todos las fases del proceso de data science.
Dirigido a.
El Magíster en Data Science consta de once cursos obligatorios, cursos electivos (mínimo 40 y máximo 48 horas) y un trabajo de graduación (capstone project). Los cursos electivos los podrán elegir dentro de un listado de asignaturas ofrecidas en los distintos programas de postgrados dictados por la Facultad de Ingeniería y Ciencias de la universidad y están enmarcados en el área de gestión y en el área tecnológica.
Ética y Gestión de la Información.
En este curso el estudiante tendrá que analizar y aplicar a casos teóricos y prácticos los contenidos que se consideran en los siete módulos que el curso dispone. Los dos primeros módulos están diseñados para que el estudiante revise los conceptos fundamentales respecto a las diversas plataformas y nuevas arquitecturas digitales, que, dado su vertiginoso desarrollo, han hecho evidente el dilema ético y legal al que se enfrentan los gestores de la información. Posteriormente, se abordan diversos marcos conceptuales en que se circunscribe el ámbito de la ética y su relación con el mundo profesional y la toma de decisiones. Finalmente, se estudian las implicancias y desafíos que plantea la gestión de la información en la era postindustrial y sus efectos sobre la vida privada y pública de las personas.
Fundamentos Estadísticos para Ciencia de Datos.
Este curso permite al alumno dominar principios, técnicas y metodologías asociadas al razonamiento probabilístico y al análisis estadístico de datos. Tras conocer la Teoría de Probabilidad, se estudian los principales métodos y conceptos para la estimación y la formulación de hipótesis. Medidas de asociación. Correlación y Causalidad. En la parte de estimación se introduce el método de máxima verosimilitud, y algoritmos (como el algoritmo EM) para estimación.
Programación con R y Python.
El curso entrega los conocimientos necesarios para que el alumno utilice herramientas modernas y realice el adecuado análisis de un conjunto de datos cualquiera sea su origen y contenidos. Este curso es inherentemente práctico y aplicado a diferentes escenarios de negocio que permitirán que el alumno amplíe su nivel de abstracción y análisis para diferentes tipos de problemas. Al terminar el curso, el alumno será capaz de programar en R y Python, analizar datos y aplicar algoritmos de minería de datos y procesos para resolver diferentes problemas de una organización.
Visualización de Datos.
Este curso se concentra en definir formalmente una serie de métodos de visualización de información y en ilustrar su aplicación en el análisis exploratorio y en la comunicación de un análisis estadístico.
Modelamiento Predictivo para Ciencia de Datos.
El modelamiento predictivo busca construir un modelo estadístico que permita predecir el valor de una variable respuesta. Se incluyen desde modelos de regresión lineal, logística y de Cox, hasta técnicas de selección de variables y regularización (lasso, elastic net), y reducción de dimensión, finalizando con métricas para evaluar la calidad predictiva del modelo desarrollado.
Machine Learning.
Se presentan las herramientas y desarrollos fundamentales en el aprendizaje automático haciendo hincapié en las bases y fundamentos estadísticos de estas técnicas. La orientación del curso es práctico, haciendo uso de casos prácticos y aplicaciones de técnicas de aprendizaje automático en problemas relevantes en la industria, la ciencia y la tecnología.
Herramientas Tecnológicas para Big Data.
Este curso constituye una introducción a las tecnologías relacionadas con los sistemas de Big Data. Se inicia analizando la estructura tecnológica que se encuentra detrás de un proyecto de Big Data, y que incluye aspectos relevantes, como por ejemplo, el sistema de almacenamiento y cálculo distribuido o la gestión de los recursos hardware del cluster. Luego se revisan los tres principales modelos de procesamiento distribuido: procesamiento batch, real-time o streaming y basado en eventos complejos. Se ven las principales funciones y características de los frameworks más utilizados en la actualidad, prestando especial atención a los dos grandes estándares de la industria: Apache Hadoop y Apache Spark. El curso finaliza revisando las principales librerías de análisis de datos, incluyendo temas de machine learning, análisis de grafos y visualización de datos masivos.
Analítica Prescriptiva y Optimización.
La analítica prescriptiva va más allá de los modelos descriptivos y predictivos, recomendando uno o varios caminos de acción y mostrando las posibles consecuencias de cada decisión. Para ello, tiene en cuenta datos históricos, reglas de negocio, modelos matemáticos, variables, restricciones y algoritmos de aprendizaje automático. La analítica prescriptiva proporciona una enorme ayuda en el proceso de decisión, mejorando la eficiencia operativa de las compañías que la utilizan, y diferenciándolas de sus competidores en un mercado cambiante y competitivo como el actual. Con ese fin, este curso ofrece a los estudiantes una visión general de la teoría y la práctica de cómo aplicar el análisis prescriptivo a través de la tecnología de optimización.
Tópicos en Data Science: Analítica Textual.
Existe una variedad de métodos computacionales y herramientas comerciales bajo el paragua de Minería de Datos y Big Data, que permiten descubrir conocimiento desde grandes bases de datos estructuradas. Sin embargo, a nivel mundial casi el 80% de la información relevante a los negocios está disponible en forma no-estructurada, principalmente textos (ej. emails, quejas de clientes, opiniones, noticias, etc). Debido a esto, las técnicas tradicionales de analítica no son adecuadas por lo que se requiere de nuevos métodos, modelos, herramientas y tecnologías, para el análisis de información textual. Analítica Textual (Text Analytics) ó Minería de Textos (Text Mining) es la tarea de inferir y/o descubrir conocimiento oculto potencialmente útil desde información no estructurada (i.e., textos escritos en lenguaje natural) con el fin de apoyar procesos de toma de decisiones que generen valor agregado a los datos. Para esto, la Analítica Textual usualmente incluye tareas tales como categorización de textos, segmentación de documentos, descubrimiento de patrones, extracción de conceptos, generación de taxonomías, análisis de sentimientos, generación de resúmenes, etc. Debido a la naturaleza de los datos textuales, se requiere métodos provenientes de la recuperación de información, procesamiento de lenguaje natural, minería de datos y aprendizaje automático. De ahí que el curso proporciona a los estudiantes los conceptos básicos, técnicas y herramientas de analítica textual con el fin de entender problemas tanto de ámbitos tecnológicos como de negocio.
Generación de Valor para Negocio.
Este curso se concentra en explorar e investigar como a través de Data Science y Analytics se crea valor en los negocios e industrias. Prepara al alumno para: Entender Su rol dentro del negocio; Identificar las oportunidades y formas de generar valor dentro de su, u otras empresas/industrias; Interpretar problemáticas de negocio que pueden ser atendidas mediante capacidades de los Data Scientists; Aprender, a proponer valor dentro de sus negocios y estructuras.
Taller de Innovación y Emprendimiento Tecnológico.
Innovar se puede aprender. Para esto es necesario aprender a fallar a través de la experimentación. Este taller se centra en que cada alumno participe de rutinas necesarias para aprender a innovar y a desarrollar capacidades emprendedoras a través de desafíos reales que serán presentados por los propios participantes y por los facilitadores.
- Aplicación de metodologías y rutinas conducentes a plantear soluciones innovadoras.
- Examinar y cuestionar las barreras funcionales en términos de gestión de proyectos de innovación
- Reconocer y experimentar experiencias que simulan el desarrollo de nuevos emprendimientos innovadores de base tecnológica.
- Traspasar herramientas prácticas que permiten soportar en parte los procesos de innovación en la empresa o en el desarrollo de nuevas unidades productivas u operativas.