MASTER EN BIG DATA
El master en Big Data & Business Analytics es uno de los cursos especializados más demandados en la actualidad por los profesionales vinculados al sector IT y TIC. Debido a la gran demanda de perfiles con conocimientos en Big Data, en Digital Tech Institute hemos preparado un master en Big Data orientado a profesionales con experiencia que quieran proyectar su carrera como analista de datos masivos para las empresas.
El master en Big Data tratará de forma específica y rigurosa la recolección y tratamiento de datos masivos de orígenes diversos, que representan una fuente constante para el análisis y el descubrimiento de información útil para la toma de decisiones. Si quieres ser un especialista en Big Data, este es la formación que necesitas.
PLAN DE ESTUDIOS
Se establecen las bases. Manejamos los términos de manera apropiada y definimos términos basándonos en ejemplos.
- Presentación
- Introducción al Big Data
- Fundamentos data management y estadística
- Tecnologías importantes para el máster: Hadoop, Hive, MaReduce, HDFS, entre otros.
- Infraestructura de las distribuciones Hadoop, Cloudera, Hortonworks, Isotope o IBM BiginsIghts.
- Almacenamiento
- Analítica y visualización
Se estudiarán en profundidad Apache, Hadoop, HDFS, MapReduce y YARN.
- Introducción a Cloudera, HortonWorks, MapR e IBM BigInsights.
- Instalación: modos de instalación, modo Standalone, modo pseudo distribuido, configuración SSH y variables de entorno, entre otros.
- Almacenamiento de datos con HDFS, escritura y lectura, replicación y recuperación, ingestión de datos y Hbase.
- Mapreduce: procesamiento de datos, fases Map y Reduce, flujo de datos, implementación en Java, desplegar un jar en Hadoop y monitorización.
- Yarn: gestión de recursos de cluster, arquitectura, Daemons, Operación, seguridad y gobierno de datos. Fair Scheduler, CPU y Memoria.
- Planificación y tareas: introducción, lenguajes de programación, appification, RDD, ingesta de datos, Lambdas, Java en Spark, instrumentación y librerías.
En este módulo se trabajará sobre Cloudera, la distribución Hadoop más utilizada. También se conocerán otras distribuciones como Hortonworks, IBM BigInsights o MapR.
- Introducción
- HDFS: NameNode, DataNode, copia de datos en Hadoop y tolerancia a fallos.
- Cloudera: instalación y VMs, hardware e infraestructura para un cluster, montar un cluster de servidor con varios nodos, así como la seguridad y la monitorización.
- Impala & PIG: instalación, lenguajes de programación y consultas.
- Hue y otros clientes Hadoop: clientes, propósito, autenticación y autorización.
- Apache Spark: introducción, instalación, lenguajes de programación, Appification, RDD, instrumentación y librerías, entre otros.
- Introducción al almacenamiento Big Data. Tipos de bases de datos, noSQL vs SQL, Graph Databases y bases de datos MPP.
- Apache Cassandra: introducción y casos prácticos de uso, arquitectura, instalación, replicación y consistencia, introducción a CQL y transacciones entre otros.
- MongoDB: introducción e instalación, escalabilidad, Mongo Shell, BSON, operadores, indexado, Big Data y reporting.
- Hive: arquitectura, esquema, Hive Warehouse, lenguaje Hive, HiveQL, Bucketing, entre otros.
- Ingesta de datos SQOOP y FLUME
- Hbase: arquitectura, diseño de tablas, relaciones, nodos de cluster, Hfiles y regions, scaling y compaction.
Estudio y trabajo de datos para obtener correlaciones y conclusiones que nos ayuden en la toma de decisiones. Se trabajará con Python pero también se profundizará en R, en SPSS y Cognos BI.
- Introducción: analítica de datos, herramientas, modelado de datos, normalización, estadística, visualización y presentación.
- Análisis de datos con Python: fundamentos, instalación, ejecución de programas, estructura de datos, construcciones e interacciones y librerías para análisis.
- Introducción a R: introducción e instalación, IDES para R, variables, operadores, estructuras de datos y explotación de datos.
- IBM SPSS modeler: introducción a Data Mining, recolección de datos, derivación y clasificación de datos, relaciones y modelado.
- IBM cognos business intelligence: consumo de datos, creación de reportes, espacio de trabajo, modelos de metadata, framework manger, cube designer, y Cognos extendido.
- Introducción a la analítica de datos, herramientas, modelado de datos, relaciones, normalización, estadística, visualización y presentación.
- Visualización de datos con Python: fundamentos, instalación, ejecución de programas, estructuras de datos, librerías y análisis.
- Visualización de datos con R: introducción e instalación, IDES para R, variables y operadores, estructuras de datos, funciones, explotación de datos.
- Pentaho reporting & Dashboards: consumo de datos en Cognos BI. Creación de reportes, espacio de trabajo, modelos de metadata, framework manager, cube designer y extendido en Cognos.
- Tableau: introducción a Data Mining, modeler, recolección de datos, clasificación y modelado.
Tecnologías
Resumen Itinerario Formativo

Distribución del Conocimiento

Fundamentos y Conceptos
El objetivo será fundar una base sólida donde los conceptos estén claros y se obtenga una visión actual y holística del Big Data.

Experiencia Real
Nuestros expertos están trabajando en proyectos de Big Data en empresas de primer nivel. Compartirán con nosotros los casos a los que se enfrentan día a día, y analizaremos juntos las lecciones que han obtenido.

Clases Únicas
Una vez a la semana recibiremos una master class de un experto en diferentes áreas que nos desvelarán los secretos y conocimientos avanzados que de otra manera tardaríamos años en adquirir.

Eminentemente práctico
La mayor parte del programa se dedicará a la realización tutorizada de ejercicios prácticos. Estos ejercicios serán guiados al principio pero muchos ejercicios se realizarán en equipo y podrán tener más de una solución.
- PRUEBAS DE NIVEL Y APROVECHAMIENTO
- MASTER CLASSES Y CASOS REALES
- LEARN BY DOING
- LABORATORIOS, ESCRITORIOS VIRTUALES
- VIRTUAL & REMOTE TRAINING

Adquiriremos destreza en la representación de los datos de una forma exhaustiva e intuitiva.
Estudiaremos los motores de bases de datos en tres enfoques, noSQL, Relacionales y Graph Databases. Trabajaremos con MongoDB
Una visión holística del Big Data y las tecnologías y Soluciones a su alcance. Tendencias y futuro
Los datos necesitan un análisis para convertirse en enunciados, trabajaremos con Python, R, SPSS y Cognos
Adquiriremos dominio de la plataforma y estudiaremos las distribuciones más utilizadas, así como su idoneidad en cada tipo de proyecto.
Toda esta experiencia le permite compartir sus conocimientos en cursos de formación y consultoría.
▪ Conocimiento en profundidad del ecosistema de Hadoop/Spark, en distintas distribuciones, (Cloudera, Oracle Big Data Appliance, IBM Big Insights), así como el ecosistema de Big Data.
▪ Conocimiento y Programación en Java, Python, Scala y R así como otros distintos lenguajes de programación utilizados a lo largo de la vida profesional.
▪ Business Intelligence con Cognos y Oracle BI.
▪ Análisis de Datos con Python y R, así como Minería de Datos y Machine Learning con Oracle Enterprise Miner y algoritmos de Machine Learning en entornos de Big Data, (Spark Mllib).
Desde 1996 David Blay asesora a deportistas y empresas sobre cómo presentarse a los medios de comunicación de manera noticiable. Ha trabajado en medios como Europa Press, COPE o Radio Marca. Autor del libro ¿’Por qué no nos dejan trabajar desde casa?’, es conferenciante en compañías y simposios y profesor de Estrategias de Comunicación, Redes Sociales y Trabajo Freelance en Masters de Gestión Deportiva en la Universidad Politécnica de Valencia y UCAM Murcia.
Rafael es ingeniero técnico en informática de gestión y máster en Business Intelligence. Rafael ha acumulado 18 años de experiencia en el sector de las TIC trabajando en grandes empresas nacionales e internacionales. Cuenta con más de 10 años de experiencia en ”Smart Working”, gestión de equipos y proyectos TIC.
Aigu Sainz cuenta con 7 años de experiencia en “Smart Working”. Está especializado en formación para particulares y empresas en materia de diseño gráfico, productividad personal y modelos de teletrabajo.
CALENDARIO
Comienza el proceso de selección de candidatos por medio de entrevistas y pruebas de nivel.

Se cierra el proceso de selección, los candidato en lista de espera serán trasladados a la próxima edición.

Durante 8 semanas aprenderemos las técnicas y fundamentos para convertirnos en expertos en Big Data.

Durante 8 semanas aprenderemos las técnicas y fundamentos para convertirnos en expertos en Big Data. Terminamos el Viernes 28 de abril.

MADRID
BARCELONA