Máster en Big Data

El master en Big Data es uno de los cursos especializados más demandados en la actualidad por los profesionales vinculados al sector IT y TIC. Debido a la gran demanda de perfiles con conocimientos en Big Data, en Digital Tech Institute hemos preparado un master en Big Data orientado a profesionales con experiencia que quieran proyectar su carrera como analista de datos masivos para las empresas.

El master en Big Data tratará de forma específica y rigurosa la recolección y tratamiento de datos masivos de orígenes diversos, que representan una fuente constante para el análisis y el descubrimiento de información útil para la toma de decisiones. Si quieres ser un especialista en Big Data, este es la formación que necesitas.

¿Qué voy a aprender en el Máster de Big Data?

  • Trabajarás con las principales tecnologías del mercado: Apache, Hadoop, Spark y Hbase o MapReduce.
  • Se llevarán a cabo proyectos sobre Cloudera, la distribución de Hadoop más utilizada. Se verán también implementaciones como IBM Big Insights o MapR.
  • Se trabajará sobre con Apache Cassandra y MongoDB y se estudiarán los Big Data tradeoffs entre Bases de Datos relacionales y NoSQL. Se etudiarán también las Graph Databases como Neo4j o GraphDB.
  • Trabajremos con Python y R como lenguajes y nos introduciremos en suites como IBM Cognos BI o herramientas de análisis estadístico como SPSS.
  • Visualización avanzada de datos y se trabajará con tableau, R y distintas librerías python como NetworkX, malplotlib o geoplotlib entre otras.

¿Qué perfiles son los más demandados en el mercado de Big Data?

  • Data Scientist: su tarea es ordenar, clasificar y modelar los datos para establecer modelos productivos. Las matemáticas y las estadísticas son sus principales herramientas.
  • Data Architect: se encarga de diseñar y de integrar, centralizar y gestionar orígenes de datos. El modelado de datos y los procesos ETL son su ámbito.
  • Data Analyst: Recolecta, procesa y realiza análisis estadísticos para llegar a enunciados que representen tendencias o hechos reales.
  • Data Engineer: Construyen, mantienen y evalúan soluciones Big Data diseñadas por el arquitecto.
  • Decision Maker: Apoyan la toma de decisiones con las conclusiones derivadas del análisis de datos. Las herramientas BI son su medio

Plan de estudios

Módulo 1. Fundamentos

Se establecen las bases. Manejamos los términos de manera apropiada y definimos términos basándonos en ejemplos.

  • Presentación
  • Introducción al Big Data
  • Fundamentos data management y estadística
  • Tecnologías importantes para el máster: Hadoop, Hive, MaReduce, HDFS, entre otros.
  • Infraestructura de las distribuciones Hadoop, Cloudera, Hortonworks, Isotope o IBM BiginsIghts.
  • Almacenamiento
  • Analítica y visualización

Módulo 2. Tecnologías vinculadas al Big Data

Se estudiarán profundamente Apache, Hadoop, HDFS, MapReduce y YARN.

  • Introducción a Cloudera, HortonWorks, MapR e IBM BigInsights.
  • Instalación: modos de instalación, modo Standalone, modo pseudo distribuido, configuración SSH y variables de entorno, entre otros.
  • Almacenamiento de datos con HDFS, escritura y lectura, replicación y recuperación, ingestión de datos y Hbase.
  • Mapreduce: procesamiento de datos, fases Map y Reduce, flujo de datos, implementación en Java, desplegar un jar en Hadoop y monitorización.
  • Yarn: gestión de recursos de cluster, arquitectura, Daemons, Operación, seguridad y gobierno de datos. Fair Scheduler, CPU y Memoria.
  • Planificación y tareas: introducción, lenguajes de programación, appification, RDD, ingesta de datos, Lambdas, Java en Spark, instrumentación y librerías.

Módulo 3. Infraestructura

En este módulo se trabajará sobre Cloudera, la distribución Hadoop más utilizada. También se conocerán otras distribuciones como Hortonworks, IBM BigInsights o MapR.

  • Introducción
  • HDFS: NameNode, DataNode, copia de datos en Hadoop y tolerancia a fallos.
  • Cloudera: instalación y VMs, hardware e infraestructura para un cluster, montar un cluster de servidor con varios nodos, así como la seguridad y la monitorización.
  • Impala & PIG: instalación, lenguajes de programación y consultas.
  • Hue y otros clientes Hadoop: clientes, propósito, autenticación y autorización.
  • Apache Spark: introducción, instalación, lenguajes de programación, Appification, RDD, instrumentación y librerías, entre otros.

Módulo 4. Almacenamiento de datos

Se estudiarán en profundidad los diferentes sistemas de almacenamiento de datos más utilizados en los proyectos de Big Data. Se trabajará con MongoDB con motor noSQL.

  • Introducción al almacenamiento Big Data. Tipos de bases de datos, noSQL vs SQL, Graph Databases y bases de datos MPP.
  • Apache Cassandra: introducción y casos prácticos de uso, arquitectura, instalación, replicación y consistencia, introducción a CQL y transacciones entre otros.
  • MongoDB: introducción e instalación, escalabilidad, Mongo Shell, BSON, operadores, indexado, Big Data y reporting.
  • Hive: arquitectura, esquema, Hive Warehouse, lenguaje Hive, HiveQL, Bucketing, entre otros.
  • Ingesta de datos SQOOP y FLUME
  • Hbase: arquitectura, diseño de tablas, relaciones, nodos de cluster, Hfiles y regions, scaling y compaction.

Módulo 5. Análisis de datos

Estudio y trabajo de datos para obtener correlaciones y conclusiones que nos ayuden en la toma de decisiones. Se trabajará con Python pero también se profundizará en R, en SPSS y Cognos BI.

  • Introducción: analítica de datos, herramientas, modelado de datos, normalización, estadística, visualización y presentación.
  • Análisis de datos con Python: fundamentos, instalación, ejecución de programas, estructura de datos, construcciones e interacciones y librerías para análisis.
  • Introducción a R: introducción e instalación, IDES para R, variables, operadores, estructuras de datos y explotación de datos.
  • IBM SPSS modeler: introducción a Data Mining, recolección de datos, derivación y clasificación de datos, relaciones y modelado.
  • IBM cognos business intelligence: consumo de datos, creación de reportes, espacio de trabajo, modelos de metadata, framework manger, cube designer, y Cognos extendido.

Módulo 6. Visualización de datos

Profundización en herramientas de análisis y proceso, con especial atención a las herramientas que permiten visualizar datos a gran escala.

  • Introducción a la analítica de datos, herramientas, modelado de datos, relaciones, normalización, estadística, visualización y presentación.
  • Visualización de datos con Python: fundamentos, instalación, ejecución de programas, estructuras de datos, librerías y análisis.
  • Visualización de datos con R: introducción e instalación, IDES para R, variables y operadores, estructuras de datos, funciones, explotación de datos.
  • Pentaho reporting & Dashboards: consumo de datos en Cognos BI. Creación de reportes, espacio de trabajo, modelos de metadata, framework manager, cube designer y extendido en Cognos.
  • Tableau: introducción a Data Mining, modeler, recolección de datos, clasificación y modelado.

Equipo Docente

(HABRÍA QUE PEDIR INFORMACIÓN)

Resumen del programa en Big Data

  • ¿Cuánto dura? 8 semanas
  • ¿Cuánto cuesta?
  • ¿Cuándo empieza? ¡Consúltalo!
  • Financiamiento

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Aviso de cookies