ITINERARIO FORMATIVO EN BIG DATA
l itinerario en Big Data & Business Analytics es una de las formaciones especializadas más solicitadas en la actualidad por las compañías que quieren actualizar los conocimientos de sus profesionales IT y TIC. Debido a la gran cantidad de datos que generan los dispositivos conectados, es necesario que muchos profesionales actualicen sus conocimientos sobre nuevas áreas tecnológicas vinculadas con el Big Data y el tratamiento masivo de datos. En Digital Tech Institute somos conscientes de esta realidad, y ponemos a disposición de las empresas un itinerario formativo en Big Data orientado a compañías que opten por una formación in company de sus empleados con el objetivo de mejorar sus competencias.
El itinerario en Big Data & Business Analytics es un ejemplo propuesto por nuestros profesionales para todas aquellas empresas que necesiten actualizar el know-how de sus empleados. A pesar de ello, es posible configurar cada uno de estos itinerarios de la forma que más convenga a la compañía que solicite la formación in company.
Rellena el formulario y descárgate el itinerario completo en Big Data
Al enviar el formulario Acepto la Política de Privacidad
CONTENIDOS DEL ITINERARIO
Los siguientes módulos forman parte del itinerario en Big Data. Digital Tech Institute permite a las empresas combinarlos con módulos de otros itinerarios para crear una formación in company personalizada y lo más ajustada posible a las necesidades de cada compañía:
Se establecen las bases. Manejamos los términos de manera apropiada y definimos términos basándonos en ejemplos.
- Presentación
- Introducción al Big Data
- Fundamentos data management y estadística
- Tecnologías importantes para el máster: Hadoop, Hive, MaReduce, HDFS, entre otros.
- Infraestructura de las distribuciones Hadoop, Cloudera, Hortonworks, Isotope o IBM BiginsIghts.
- Almacenamiento
- Analítica y visualización
Se estudiarán en profundidad Apache, Hadoop, HDFS, MapReduce y YARN.
- Introducción a Cloudera, HortonWorks, MapR e IBM BigInsights.
- Instalación: modos de instalación, modo Standalone, modo pseudo distribuido, configuración SSH y variables de entorno, entre otros.
- Almacenamiento de datos con HDFS, escritura y lectura, replicación y recuperación, ingestión de datos y Hbase.
- Mapreduce: procesamiento de datos, fases Map y Reduce, flujo de datos, implementación en Java, desplegar un jar en Hadoop y monitorización.
- Yarn: gestión de recursos de cluster, arquitectura, Daemons, Operación, seguridad y gobierno de datos. Fair Scheduler, CPU y Memoria.
- Planificación y tareas: introducción, lenguajes de programación, appification, RDD, ingesta de datos, Lambdas, Java en Spark, instrumentación y librerías.
En este módulo se trabajará sobre Cloudera, la distribución Hadoop más utilizada. También se conocerán otras distribuciones como Hortonworks, IBM BigInsights o MapR.
- Introducción
- HDFS: NameNode, DataNode, copia de datos en Hadoop y tolerancia a fallos.
- Cloudera: instalación y VMs, hardware e infraestructura para un cluster, montar un cluster de servidor con varios nodos, así como la seguridad y la monitorización.
- Impala & PIG: instalación, lenguajes de programación y consultas.
- Hue y otros clientes Hadoop: clientes, propósito, autenticación y autorización.
- Apache Spark: introducción, instalación, lenguajes de programación, Appification, RDD, instrumentación y librerías, entre otros.
- Introducción al almacenamiento Big Data. Tipos de bases de datos, noSQL vs SQL, Graph Databases y bases de datos MPP.
- Apache Cassandra: introducción y casos prácticos de uso, arquitectura, instalación, replicación y consistencia, introducción a CQL y transacciones entre otros.
- MongoDB: introducción e instalación, escalabilidad, Mongo Shell, BSON, operadores, indexado, Big Data y reporting.
- Hive: arquitectura, esquema, Hive Warehouse, lenguaje Hive, HiveQL, Bucketing, entre otros.
- Ingesta de datos SQOOP y FLUME
- Hbase: arquitectura, diseño de tablas, relaciones, nodos de cluster, Hfiles y regions, scaling y compaction.
Estudio y trabajo de datos para obtener correlaciones y conclusiones que nos ayuden en la toma de decisiones. Se trabajará con Python pero también se profundizará en R, en SPSS y Cognos BI.
- Introducción: analítica de datos, herramientas, modelado de datos, normalización, estadística, visualización y presentación.
- Análisis de datos con Python: fundamentos, instalación, ejecución de programas, estructura de datos, construcciones e interacciones y librerías para análisis.
- Introducción a R: introducción e instalación, IDES para R, variables, operadores, estructuras de datos y explotación de datos.
- IBM SPSS modeler: introducción a Data Mining, recolección de datos, derivación y clasificación de datos, relaciones y modelado.
- IBM cognos business intelligence: consumo de datos, creación de reportes, espacio de trabajo, modelos de metadata, framework manger, cube designer, y Cognos extendido.
- Introducción a la analítica de datos, herramientas, modelado de datos, relaciones, normalización, estadística, visualización y presentación.
- Visualización de datos con Python: fundamentos, instalación, ejecución de programas, estructuras de datos, librerías y análisis.
- Visualización de datos con R: introducción e instalación, IDES para R, variables y operadores, estructuras de datos, funciones, explotación de datos.
- Pentaho reporting & Dashboards: consumo de datos en Cognos BI. Creación de reportes, espacio de trabajo, modelos de metadata, framework manager, cube designer y extendido en Cognos.
- Tableau: introducción a Data Mining, modeler, recolección de datos, clasificación y modelado.
Tecnologías
Resumen Itinerario Formativo

Distribución del Conocimiento

Fundamentos y Conceptos
El objetivo será fundar una base sólida donde los conceptos estén claros y se obtenga una visión actual y holística del Big Data.

Experiencia Real
Nuestros expertos están trabajando en proyectos de Big Data en empresas de primer nivel. Compartirán con nosotros los casos a los que se enfrentan día a día, y analizaremos juntos las lecciones que han obtenido.

Clases Únicas
Una vez a la semana recibiremos una master class de un experto en diferentes áreas que nos desvelarán los secretos y conocimientos avanzados que de otra manera tardaríamos años en adquirir.

Eminentemente práctico
La mayor parte del programa se dedicará a la realización tutorizada de ejercicios prácticos. Estos ejercicios serán guiados al principio pero muchos ejercicios se realizarán en equipo y podrán tener más de una solución.
- PRUEBAS DE NIVEL Y APROVECHAMIENTO
- MASTER CLASSES Y CASOS REALES
- LEARN BY DOING
- LABORATORIOS, ESCRITORIOS VIRTUALES
- VIRTUAL & REMOTE TRAINING

Adquiriremos destreza en la representación de los datos de una forma exhaustiva e intuitiva.
Estudiaremos los motores de bases de datos en tres enfoques, noSQL, Relacionales y Graph Databases. Trabajaremos con MongoDB
Una visión holística del Big Data y las tecnologías y Soluciones a su alcance. Tendencias y futuro
Los datos necesitan un análisis para convertirse en enunciados, trabajaremos con Python, R, SPSS y Cognos
Adquiriremos dominio de la plataforma y estudiaremos las distribuciones más utilizadas, así como su idoneidad en cada tipo de proyecto.
Toda esta experiencia le permite compartir sus conocimientos en cursos de formación y consultoría.
▪ Conocimiento en profundidad del ecosistema de Hadoop/Spark, en distintas distribuciones, (Cloudera, Oracle Big Data Appliance, IBM Big Insights), así como el ecosistema de Big Data.
▪ Conocimiento y Programación en Java, Python, Scala y R así como otros distintos lenguajes de programación utilizados a lo largo de la vida profesional.
▪ Business Intelligence con Cognos y Oracle BI.
▪ Análisis de Datos con Python y R, así como Minería de Datos y Machine Learning con Oracle Enterprise Miner y algoritmos de Machine Learning en entornos de Big Data, (Spark Mllib).
Desde 1996 David Blay asesora a deportistas y empresas sobre cómo presentarse a los medios de comunicación de manera noticiable. Ha trabajado en medios como Europa Press, COPE o Radio Marca. Autor del libro ¿’Por qué no nos dejan trabajar desde casa?’, es conferenciante en compañías y simposios y profesor de Estrategias de Comunicación, Redes Sociales y Trabajo Freelance en Masters de Gestión Deportiva en la Universidad Politécnica de Valencia y UCAM Murcia.
Rafael es ingeniero técnico en informática de gestión y máster en Business Intelligence. Rafael ha acumulado 18 años de experiencia en el sector de las TIC trabajando en grandes empresas nacionales e internacionales. Cuenta con más de 10 años de experiencia en ”Smart Working”, gestión de equipos y proyectos TIC.
Aigu Sainz cuenta con 7 años de experiencia en “Smart Working”. Está especializado en formación para particulares y empresas en materia de diseño gráfico, productividad personal y modelos de teletrabajo.