Máster en Big Data

MASTER EN BIG DATA

E

El master en Big Data & Business Analytics es uno de los cursos especializados más demandados en la actualidad por los profesionales vinculados al sector IT y TIC. Debido a la gran demanda de perfiles con conocimientos en Big Data, en Digital Tech Institute hemos preparado un master en Big Data orientado a profesionales con experiencia que quieran proyectar su carrera como analista de datos masivos para las empresas.

El master en Big Data tratará de forma específica y rigurosa la recolección y tratamiento de datos masivos de orígenes diversos, que representan una fuente constante para el análisis y el descubrimiento de información útil para la toma de decisiones. Si quieres ser un especialista en Big Data, este es la formación que necesitas.

DURACIÓN
8 Semanas
INICIO
A consultar
PRECIO
A consultar
DÓNDE
Centros de Formación en Barcelona y Madrid
Solicita Información

¿Qué voy a aprender en el Máster de Big Data?

  • Trabajarás con las principales tecnologías del mercado: Apache, Hadoop, Spark y Hbase o MapReduce.
  • Se llevarán a cabo proyectos sobre Cloudera, la distribución de Hadoop más utilizada. Se verán también implementaciones como IBM Big Insights o MapR.
  • Se trabajará sobre Apache Cassandra y MongoDB y se estudiarán los Big Data tradeoffs entre Bases de Datos relacionales y NoSQL. Se estudiarán también las Graph Databases como Neo4j o GraphDB.
  • Trabajaremos con Python y R como lenguajes y nos introduciremos en suites como IBM Cognos BI o herramientas de análisis estadístico como SPSS.
  • Visualización avanzada de datos y se trabajará con tableau, R y distintas librerías python como NetworkX, malplotlib o geoplotlib entre otras.

¿Qué perfiles son los más demandados en el mercado de Big Data?

  • Data Scientist: su tarea es ordenar, clasificar y modelar los datos para establecer modelos productivos. Las matemáticas y las estadísticas son sus principales herramientas.
  • Data Architect: se encarga de diseñar y de integrar, centralizar y gestionar orígenes de datos. El modelado de datos y los procesos ETL son su ámbito.
  • Data Analyst: Recolecta, procesa y realiza análisis estadísticos para llegar a enunciados que representen tendencias o hechos reales.
  • Data Engineer: Construyen, mantienen y evalúan soluciones Big Data diseñadas por el arquitecto.
  • Decision Maker: Apoyan la toma de decisiones con las conclusiones derivadas del análisis de datos. Las herramientas BI son su medio
DATA SCIENTIST 100%
0%
DATA ARCHITECT100%
0%
DATA ANALYST100%
0%
DATA ENGINEER100%
0%
DECISION MAKER100%
0%

PLAN DE ESTUDIOS

1
Módulo 1. Fundamentos

Se establecen las bases. Manejamos los términos de manera apropiada y definimos términos basándonos en ejemplos.

  • Presentación
  • Introducción al Big Data
  • Fundamentos data management y estadística
  • Tecnologías importantes para el máster: Hadoop, Hive, MaReduce, HDFS, entre otros.
  • Infraestructura de las distribuciones Hadoop, Cloudera, Hortonworks, Isotope o IBM BiginsIghts.
  • Almacenamiento
  • Analítica y visualización
2
Módulo 2. Tecnologías vinculadas al Big Data

Se estudiarán en profundidad Apache, Hadoop, HDFS, MapReduce y YARN.

  • Introducción a Cloudera, HortonWorks, MapR e IBM BigInsights.
  • Instalación: modos de instalación, modo Standalone, modo pseudo distribuido, configuración SSH y variables de entorno, entre otros.
  • Almacenamiento de datos con HDFS, escritura y lectura, replicación y recuperación, ingestión de datos y Hbase.
  • Mapreduce: procesamiento de datos, fases Map y Reduce, flujo de datos, implementación en Java, desplegar un jar en Hadoop y monitorización.
  • Yarn: gestión de recursos de cluster, arquitectura, Daemons, Operación, seguridad y gobierno de datos. Fair Scheduler, CPU y Memoria.
  • Planificación y tareas: introducción, lenguajes de programación, appification, RDD, ingesta de datos, Lambdas, Java en Spark, instrumentación y librerías.
3
Módulo 3. Infraestructura

En este módulo se trabajará sobre Cloudera, la distribución Hadoop más utilizada. También se conocerán otras distribuciones como Hortonworks, IBM BigInsights o MapR.

  • Introducción
  • HDFS: NameNode, DataNode, copia de datos en Hadoop y tolerancia a fallos.
  • Cloudera: instalación y VMs, hardware e infraestructura para un cluster, montar un cluster de servidor con varios nodos, así como la seguridad y la monitorización.
  • Impala & PIG: instalación, lenguajes de programación y consultas.
  • Hue y otros clientes Hadoop: clientes, propósito, autenticación y autorización.
  • Apache Spark: introducción, instalación, lenguajes de programación, Appification, RDD, instrumentación y librerías, entre otros.
4
Módulo 4. Almacenamiento de datos
  • Introducción al almacenamiento Big Data. Tipos de bases de datos, noSQL vs SQL, Graph Databases y bases de datos MPP.
  • Apache Cassandra: introducción y casos prácticos de uso, arquitectura, instalación, replicación y consistencia, introducción a CQL y transacciones entre otros.
  • MongoDB: introducción e instalación, escalabilidad, Mongo Shell, BSON, operadores, indexado, Big Data y reporting.
  • Hive: arquitectura, esquema, Hive Warehouse, lenguaje Hive, HiveQL, Bucketing, entre otros.
  • Ingesta de datos SQOOP y FLUME
  • Hbase: arquitectura, diseño de tablas, relaciones, nodos de cluster, Hfiles y regions, scaling y compaction.
5
Módulo 5. Análisis de datos

Estudio y trabajo de datos para obtener correlaciones y conclusiones que nos ayuden en la toma de decisiones. Se trabajará con Python pero también se profundizará en R, en SPSS y Cognos BI.

  • Introducción: analítica de datos, herramientas, modelado de datos, normalización, estadística, visualización y presentación.
  • Análisis de datos con Python: fundamentos, instalación, ejecución de programas, estructura de datos, construcciones e interacciones y librerías para análisis.
  • Introducción a R: introducción e instalación, IDES para R, variables, operadores, estructuras de datos y explotación de datos.
  • IBM SPSS modeler: introducción a Data Mining, recolección de datos, derivación y clasificación de datos, relaciones y modelado.
  • IBM cognos business intelligence: consumo de datos, creación de reportes, espacio de trabajo, modelos de metadata, framework manger, cube designer, y Cognos extendido.
6
Módulo 6. Visualización de datos
  • Introducción a la analítica de datos, herramientas, modelado de datos, relaciones, normalización, estadística, visualización y presentación.
  • Visualización de datos con Python: fundamentos, instalación, ejecución de programas, estructuras de datos, librerías y análisis.
  • Visualización de datos con R: introducción e instalación, IDES para R, variables y operadores, estructuras de datos, funciones, explotación de datos.
  • Pentaho reporting & Dashboards: consumo de datos en Cognos BI. Creación de reportes, espacio de trabajo, modelos de metadata, framework manager, cube designer y extendido en Cognos.
  • Tableau: introducción a Data Mining, modeler, recolección de datos, clasificación y modelado.

Tecnologías

Resumen Itinerario Formativo

Distribución del Conocimiento

Cómo se organiza el contenido

Fundamentos y Conceptos
El objetivo será fundar una base sólida donde los conceptos estén claros y se obtenga una visión actual y holística del Big Data.

Experiencia Real
Nuestros expertos están trabajando en proyectos de Big Data en empresas de primer nivel. Compartirán con nosotros los casos a los que se enfrentan día a día, y analizaremos juntos las lecciones que han obtenido.

Clases Únicas

Una vez a la semana recibiremos una master class de un experto en diferentes áreas que nos desvelarán los secretos y conocimientos avanzados que de otra manera tardaríamos años en adquirir.

Eminentemente práctico
La mayor parte del programa se dedicará a la realización tutorizada de ejercicios prácticos. Estos ejercicios serán guiados al principio pero muchos ejercicios se realizarán en equipo y podrán tener más de una solución.

Herramientas
  • PRUEBAS DE NIVEL Y APROVECHAMIENTO
  • MASTER CLASSES Y CASOS REALES
  • LEARN BY DOING
  • LABORATORIOS, ESCRITORIOS VIRTUALES
  • VIRTUAL & REMOTE TRAINING
Qué habilidades adquiriremos

Adquiriremos destreza en la representación de los datos de una forma exhaustiva e intuitiva.

Estudiaremos los motores de bases de datos en tres enfoques, noSQL, Relacionales y Graph Databases. Trabajaremos con MongoDB

Una visión holística del Big Data y las tecnologías y Soluciones a su alcance. Tendencias y futuro

Los datos necesitan un análisis para convertirse en enunciados, trabajaremos con Python, R, SPSS y Cognos

Adquiriremos dominio de la plataforma y estudiaremos las distribuciones más utilizadas, así como su idoneidad en cada tipo de proyecto.

Nuestros Profesores
ALBERT BONILLO MARTÍN
Albert Bonillo es doctor, desde el año 2004, por la Universidad Autónoma de Barcelona, con una tesis doctoral dedicada a la depuración de grandes bases de datos. Desde entonces, ha acumulado una destacada experiencia como investigador y como docente y consultor en productos IBM especializados tanto en el análisis de datos clásico como en las últimas técnicas de Data Mining.
JAVIER ARTURO RODRÍGUEZ
Arquitecto de Software y Administración de Sistemas
Más de veinte años de experiencia desarrollando aplicaciones innovadoras en diferentes plataformas. Gran dominio en Administración de Sistemas Unix, incluyendo diseño e implementación de infraestructura para Centros de Procesamiento de Datos. Como programador ha desarrollado múltiples aplicaciones distribuidas y productos que se encuentran actualmente en uso en compañías de todo el mundo.
Toda esta experiencia le permite compartir sus conocimientos en cursos de formación y consultoría.
CARLOS RODRÍGUEZ
Arquitecto e Instructor en Tecnologías de la Información.
Cuenta con amplia experiencia en el análisis, diseño, implementación y mantenimiento de aplicaciones web en sistemas Unix y Windows, aplicando arquitecturas basadas en componentes JavaEE, Perl y PHP utilizando diferentes bases de datos, servidores y Frameworks. Ha impartido múltiples cursos, talleres y seminarios sobre nuevas tecnologías y sobre su uso en el desarrollo de aplicaciones.
MIGUEL ÁNGEL PÉREZ
Gran conocimiento de la tecnología implicada en los proyectos de IT e Ingeniería basado en la experiencia acumulada en proyectos que tocan diversas áreas como son la programación, el diseño, pruebas, control de calidad que aplican a todo el ciclo de desarrollo y de vida del producto.
▪ Conocimiento en profundidad del ecosistema de Hadoop/Spark, en distintas distribuciones, (Cloudera, Oracle Big Data Appliance, IBM Big Insights), así como el ecosistema de Big Data.
▪ Conocimiento y Programación en Java, Python, Scala y R así como otros distintos lenguajes de programación utilizados a lo largo de la vida profesional.
▪ Business Intelligence con Cognos y Oracle BI.
▪ Análisis de Datos con Python y R, así como Minería de Datos y Machine Learning con Oracle Enterprise Miner y algoritmos de Machine Learning en entornos de Big Data, (Spark Mllib).
DAVID BLAY TAPIA

Desde 1996 David Blay asesora a deportistas y empresas sobre cómo presentarse a los medios de comunicación de manera noticiable. Ha trabajado en medios como Europa Press, COPE o Radio Marca. Autor del libro ¿’Por qué no nos dejan trabajar desde casa?’, es conferenciante en compañías y simposios y profesor de Estrategias de Comunicación, Redes Sociales y Trabajo Freelance en Masters de Gestión Deportiva en la Universidad Politécnica de Valencia y UCAM Murcia.

RAFAEL ZAMORA GARRIDO

Rafael es ingeniero técnico en informática de gestión y máster en Business Intelligence. Rafael ha acumulado 18 años de experiencia en el sector de las TIC trabajando en grandes empresas nacionales e internacionales. Cuenta con más de 10 años de experiencia en ”Smart Working”, gestión de equipos y proyectos TIC.

AIGU SAINZ NICOLÁS

Aigu Sainz cuenta con 7 años de experiencia en “Smart Working”. Está especializado en formación para particulares y empresas en materia de diseño gráfico, productividad personal y modelos de teletrabajo.

CALENDARIO

9
INICIO DEL PROCESO DE SELECCIÓN

Comienza el proceso de selección de candidatos por medio de entrevistas y pruebas de nivel.

1
FIN DEL PROCESO DE SELECCIÓN

Se cierra el proceso de selección, los candidato en lista de espera serán trasladados a la próxima edición.

2
DESARROLLO DEL MASTER

Durante 8 semanas aprenderemos las técnicas y fundamentos para convertirnos en expertos en Big Data.

2
DESARROLLO DEL MÁSTER

Durante 8 semanas aprenderemos las técnicas y fundamentos para convertirnos en expertos en Big Data. Terminamos el Viernes 28 de abril.

Dónde celebramos el Máster

Ribera del Loira, 46 Edificio 2

28042 Madrid

Can Bruixa, 16

08028 Barcelona

MADRID

BARCELONA

¿DESEAS RECIBIR MÁS INFORMACIÓN?

He leído y acepto la Política de Privacidad

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Aviso de cookies