Programa Máster Big Data y Business Analytics UNED

Módulos y Descripción del Programa

1. Fundamentos de Big Data

En este módulo comprenderemos el concepto de Big Data y las posibilidades de aplicarlo en el mundo real, indicando las técnicas de almacenamiento y procesamiento utilizadas para manejar datos masivos.

  • Aprende que es el Big Data
  • Oportunidades y retos del Big Data
  • Introducción a las tecnologías de Big Data
  • Ejemplos de escenarios de aplicación de Big Data

2. Bases de Datos SQL y Herramientas de Business Intelligence

Diseño y modelización de base de datos y lenguaje de consulta estructurada, más conocido como SQL (Structured Query Language). El modelo entidad-relación, el modelo relacional, la implementación relacional con SQL. Aprendizaje de técnicas de la inteligencia empresarial. Entre los distintos modelos para su explotación a través de los datos existentes en una organización corporativa, se verán el dimensional, el semántico y el tabular.

f

3. Bases de Datos NoSQL

Se aprenderá a utilizar y modelar los sistemas de gestión de bases de datos noSQL. Introducción a MongoDB, operaciones CRUD, dominar el Find o proyectar los campos en resultados de búsqueda.

4. Estadística

La estadística como facilitador para la toma de decisiones. Facilitando la compresión de los conceptos estadísticos aplicados a la empresa, junto con la adquisición de habilidades útiles para el trabajo con datos. El objetivo de la parte Inferencial es familiarizar al alumno con un razonamiento inductivo, utilizando como única fuente de información, la proporcionada por los datos muestrales

5. Introducción al Machine Learning con R

En el módulo comenzamos con el estudio del lenguaje de programación R, desde su nivel más básico, utilizando la herramienta RStudio. A continuación, aprenderemos cómo realizar un análisis exploratorio de los datos utilizando R en el marco de la estadística descriptiva. Por último, realizamos un acercamiento desde cero y vamos profundizando en el problema del Machine Learning. En concreto, estudiamos distintas técnicas de modelado según el problema a tratar: regresión, clasificación o clustering, así como la validación de los modelos obtenidos. 

6. Paquetes avanzados con R

El objetivo de este módulo es el de demostrar el uso de un conjunto de paquetes ya de amplio uso en la comunidad de R y por tanto estables que permitirán al alumno complementar y mejorar notablemente las capacidades de procesamiento de datos. Estos nuevos paquetes son los siguientes, agrupados de acuerdo a su objetivo funcional:

Procesamiento de Datos:

  • data.table
  • dplyr, tidyr

Generación de informes enriquecidos:

  • rmarkdown

7. Introducción al Machine Learning con Python

El módulo tiene dos objetivos:
  1. Proporcionar una introducción a Python como lenguaje de programación (el módulo asume que no hay experiencia previa en Python, así que se comienza desde cero)
  2. Presentar las librerías y paquetes esenciales de Python para tratamiento y representación de datos y aprendizaje automático. Al mismo tiempo que se explican las herramientas básicas de Python para Machine Learning, se presentan principios generales de ML y cómo aplican, para enlazar teoría y práctica.

8. Visualización Avanzada

La visualización es un aspecto clave de cualquier proyecto de ciencia de datos, Se consigue con el uso de librerías para R que implementan desde los gráficos estáticos más elaborados, como ggplot, hasta auténticos «dashboards» interactivos con la librería shiny. Además, visualizaciones tan complejas como los mapas o las representaciones de grandes conjuntos de texto están al alcance de los científicos de datos con librerías como leaflet y wordcloud.

9. Data Governance

10. Business Analytics y pensamiento analítico de la empresa

En este tema se revisarán varios casos reales de soluciones Big Data aplicados a diferentes departamentos de una organización. Se revisarán los enfoques realizados, las mejoras producidas y las barreras tecnológicas e internas para llevar a cabo las transformaciones necesarias.

Sistemas de Soporte a la Decisión.
Marketing y Ventas
Gestión Económica Financiera
Operaciones y Logística

11. Deep Learning

12. Tecnologías de Big Data

En este módulo revisaremos las tecnologías alrededor del área de Big Data y su utilización como servicios en la nube. Pasaremos por las principales áreas de todo proyecto de Big Data: ingesta, preparación, análisis y consumo.

Arquitecturas paralelas de Big Data y Cloud Computing
Internet de las Cosas
Hadoop
Herramientas de última generación

1

13. Hadoop/Spark

comienza con un repaso de las herramientas del ecosistema Hadoop, para centrarse después en Apache Spark, la tecnología más utilizada para procesamiento distribuido de grandes volúmenes de datos en un cluster de ordenadores. Profundizaremos en cada uno de los módulos de Spark, con especial énfasis en: 

  • Spark SQL
  • Spark MLlib
  • Spark Structured Streaming
  • GraphFrames

14. Aplicaciones de negocio en la empresa

En este módulo aprenderemos a transformar los datos en conocimiento como estrategia empresarial para incrementar la competitividad basándonos en información histórica.

A

15. Data Science aplicada a la empresa

¿Cuáles son las características fundamentales que diferencian a una empresa orientada al dato? ¿Qué ventajas obtienen las empresas que integran en su ADN el concepto de Data Science?. En este módulo se revisarán esquemas que permiten medir el nivel de madurez de una empresa en cuanto a su orientación al dato para terminar con un conjunto de recomendaciones para poner en marcha un equipo Data Science. ¿Qué balance de perfiles se precisan?, ¿qué tipo de organización interna se recomienda y el enfoque adecuado para afrontar los proyectos Data Science?

  • La empresa orientada al Dato
  • Necesidades de “Data Science” por tipo de organización.
  • Construyendo un equipo de “científicos de datos”.
  • Estructura de un proyecto

16. Text Mining en Social Media

En este módulo aprenderemos a analizar textos con la finalidad de extraer información. Extrayendo información de los datos generados en las redes sociales.

  • Extrayendo información de los datos generados en las redes sociales
  • Text Mining

17. Open Data

El open data es una tendencia que aunque nace en las instituciones gubernamentales se ha extendido a otros ámbitos. En este módulo nos centraremos en cómo encontrar esos datos y cómo incorporarlos a nuestros proyectos.

  • ¿Qué es el open data ?
  • Cómo encontrar datos e incorporarlos a nuestros proyectos.
  • Open data gubernamental: Tendencias en gobierno abierto, participación y transparencia.
  • Otras fuentes de datos abiertos
  • Fuentes de algoritmos abiertos

18. Privacidad y Protección de datos

El objetivo de este módulo es comprender los requisitos legales y normas que deben de cumplir los sistemas que hagan uso efectivo de datos de terceras personas, junto con los derechos de los usuarios en materia de privacidad y protección de sus datos personales.

  • El derecho fundamental en materia de protección de datos personales y privacidad de protección de datos de carácter personal.
  • Privacidad y protección de datos personales en Big Data
  • La anonimización y la disociación de datos personales
N

19. Trabajo Fin de Master (TFM)

En este módulo aprenderemos a analizar textos con la finalidad de extraer información. Extrayendo información de los datos generados en las redes sociales.

  • Extrayendo información de los datos generados en las redes sociales
  • Text Mining