Itinerario en Big Data

ITINERARIO FORMATIVO EN BIG DATA

E

l itinerario en Big Data & Business Analytics es una de las formaciones especializadas más solicitadas en la actualidad por las compañías que quieren actualizar los conocimientos de sus profesionales IT y TIC. Debido a la gran cantidad de datos que generan los dispositivos conectados, es necesario que muchos profesionales actualicen sus conocimientos sobre nuevas áreas tecnológicas vinculadas con el Big Data y el tratamiento masivo de datos. En Digital Tech Institute somos conscientes de esta realidad, y ponemos a disposición de las empresas un itinerario formativo en Big Data orientado a compañías que opten por una formación in company de sus empleados con el objetivo de mejorar sus competencias.

El itinerario en Big Data & Business Analytics es un ejemplo propuesto por nuestros profesionales para todas aquellas empresas que necesiten actualizar el know-how de sus empleados. A pesar de ello, es posible configurar cada uno de estos itinerarios de la forma que más convenga a la compañía que solicite la formación in company.

descárgate el itinerario completo

Rellena el formulario y descárgate el itinerario completo en Big Data

Al enviar el formulario Acepto la Política de Privacidad

¿Qué competencias se adquieren en el Itinerario de Big Data?

  • Los profesionales trabajarán con las principales tecnologías del mercado: Apache, Hadoop, Spark y Hbase o MapReduce.
  • Se realizarán proyectos sobre la plataforma Cloudera, la distribución de Hadoop más usada en la actualidad. Se verán también herramientas como IBM Big Insights o MapR.
  • Se realizarán ejercicios prácticos sobre Apache Cassandra y MongoDB y se estudiarán los Big Data tradeoffs entre Bases de Datos relacionales y NoSQL. Se estudiarán también las Graph Databases como Neo4j o GraphDB.
  • Se trabajará con Python y R como lenguajes y nos introduciremos en suites como IBM Cognos BI o herramientas de análisis estadístico como SPSS.
  • Visualización avanzada de datos y con tableau, R y distintas librerías python como NetworkX, malplotlib o geoplotlib entre otras.

CONTENIDOS DEL ITINERARIO

Los siguientes módulos forman parte del itinerario en Big Data. Digital Tech Institute permite a las empresas combinarlos con módulos de otros itinerarios para crear una formación in company personalizada y lo más ajustada posible a las necesidades de cada compañía:

1
Módulo 1. Fundamentos

Se establecen las bases. Manejamos los términos de manera apropiada y definimos términos basándonos en ejemplos.

  • Presentación
  • Introducción al Big Data
  • Fundamentos data management y estadística
  • Tecnologías importantes para el máster: Hadoop, Hive, MaReduce, HDFS, entre otros.
  • Infraestructura de las distribuciones Hadoop, Cloudera, Hortonworks, Isotope o IBM BiginsIghts.
  • Almacenamiento
  • Analítica y visualización
2
Módulo 2. Tecnologías vinculadas al Big Data

Se estudiarán en profundidad Apache, Hadoop, HDFS, MapReduce y YARN.

  • Introducción a Cloudera, HortonWorks, MapR e IBM BigInsights.
  • Instalación: modos de instalación, modo Standalone, modo pseudo distribuido, configuración SSH y variables de entorno, entre otros.
  • Almacenamiento de datos con HDFS, escritura y lectura, replicación y recuperación, ingestión de datos y Hbase.
  • Mapreduce: procesamiento de datos, fases Map y Reduce, flujo de datos, implementación en Java, desplegar un jar en Hadoop y monitorización.
  • Yarn: gestión de recursos de cluster, arquitectura, Daemons, Operación, seguridad y gobierno de datos. Fair Scheduler, CPU y Memoria.
  • Planificación y tareas: introducción, lenguajes de programación, appification, RDD, ingesta de datos, Lambdas, Java en Spark, instrumentación y librerías.
3
Módulo 3. Infraestructura

En este módulo se trabajará sobre Cloudera, la distribución Hadoop más utilizada. También se conocerán otras distribuciones como Hortonworks, IBM BigInsights o MapR.

  • Introducción
  • HDFS: NameNode, DataNode, copia de datos en Hadoop y tolerancia a fallos.
  • Cloudera: instalación y VMs, hardware e infraestructura para un cluster, montar un cluster de servidor con varios nodos, así como la seguridad y la monitorización.
  • Impala & PIG: instalación, lenguajes de programación y consultas.
  • Hue y otros clientes Hadoop: clientes, propósito, autenticación y autorización.
  • Apache Spark: introducción, instalación, lenguajes de programación, Appification, RDD, instrumentación y librerías, entre otros.
4
Módulo 4. Almacenamiento de datos
  • Introducción al almacenamiento Big Data. Tipos de bases de datos, noSQL vs SQL, Graph Databases y bases de datos MPP.
  • Apache Cassandra: introducción y casos prácticos de uso, arquitectura, instalación, replicación y consistencia, introducción a CQL y transacciones entre otros.
  • MongoDB: introducción e instalación, escalabilidad, Mongo Shell, BSON, operadores, indexado, Big Data y reporting.
  • Hive: arquitectura, esquema, Hive Warehouse, lenguaje Hive, HiveQL, Bucketing, entre otros.
  • Ingesta de datos SQOOP y FLUME
  • Hbase: arquitectura, diseño de tablas, relaciones, nodos de cluster, Hfiles y regions, scaling y compaction.
5
Módulo 5. Análisis de datos

Estudio y trabajo de datos para obtener correlaciones y conclusiones que nos ayuden en la toma de decisiones. Se trabajará con Python pero también se profundizará en R, en SPSS y Cognos BI.

  • Introducción: analítica de datos, herramientas, modelado de datos, normalización, estadística, visualización y presentación.
  • Análisis de datos con Python: fundamentos, instalación, ejecución de programas, estructura de datos, construcciones e interacciones y librerías para análisis.
  • Introducción a R: introducción e instalación, IDES para R, variables, operadores, estructuras de datos y explotación de datos.
  • IBM SPSS modeler: introducción a Data Mining, recolección de datos, derivación y clasificación de datos, relaciones y modelado.
  • IBM cognos business intelligence: consumo de datos, creación de reportes, espacio de trabajo, modelos de metadata, framework manger, cube designer, y Cognos extendido.
6
Módulo 6. Visualización de datos
  • Introducción a la analítica de datos, herramientas, modelado de datos, relaciones, normalización, estadística, visualización y presentación.
  • Visualización de datos con Python: fundamentos, instalación, ejecución de programas, estructuras de datos, librerías y análisis.
  • Visualización de datos con R: introducción e instalación, IDES para R, variables y operadores, estructuras de datos, funciones, explotación de datos.
  • Pentaho reporting & Dashboards: consumo de datos en Cognos BI. Creación de reportes, espacio de trabajo, modelos de metadata, framework manager, cube designer y extendido en Cognos.
  • Tableau: introducción a Data Mining, modeler, recolección de datos, clasificación y modelado.

Tecnologías

Resumen Itinerario Formativo

Distribución del Conocimiento

Cómo se organiza el contenido

Fundamentos y Conceptos
El objetivo será fundar una base sólida donde los conceptos estén claros y se obtenga una visión actual y holística del Big Data.

Experiencia Real
Nuestros expertos están trabajando en proyectos de Big Data en empresas de primer nivel. Compartirán con nosotros los casos a los que se enfrentan día a día, y analizaremos juntos las lecciones que han obtenido.

Clases Únicas

Una vez a la semana recibiremos una master class de un experto en diferentes áreas que nos desvelarán los secretos y conocimientos avanzados que de otra manera tardaríamos años en adquirir.

Eminentemente práctico
La mayor parte del programa se dedicará a la realización tutorizada de ejercicios prácticos. Estos ejercicios serán guiados al principio pero muchos ejercicios se realizarán en equipo y podrán tener más de una solución.

Herramientas
  • PRUEBAS DE NIVEL Y APROVECHAMIENTO
  • MASTER CLASSES Y CASOS REALES
  • LEARN BY DOING
  • LABORATORIOS, ESCRITORIOS VIRTUALES
  • VIRTUAL & REMOTE TRAINING
Qué habilidades adquiriremos

Adquiriremos destreza en la representación de los datos de una forma exhaustiva e intuitiva.

Estudiaremos los motores de bases de datos en tres enfoques, noSQL, Relacionales y Graph Databases. Trabajaremos con MongoDB

Una visión holística del Big Data y las tecnologías y Soluciones a su alcance. Tendencias y futuro

Los datos necesitan un análisis para convertirse en enunciados, trabajaremos con Python, R, SPSS y Cognos

Adquiriremos dominio de la plataforma y estudiaremos las distribuciones más utilizadas, así como su idoneidad en cada tipo de proyecto.

Nuestros Profesores
ALBERT BONILLO MARTÍN
Albert Bonillo es doctor, desde el año 2004, por la Universidad Autónoma de Barcelona, con una tesis doctoral dedicada a la depuración de grandes bases de datos. Desde entonces, ha acumulado una destacada experiencia como investigador y como docente y consultor en productos IBM especializados tanto en el análisis de datos clásico como en las últimas técnicas de Data Mining.
JAVIER ARTURO RODRÍGUEZ
Arquitecto de Software y Administración de Sistemas
Más de veinte años de experiencia desarrollando aplicaciones innovadoras en diferentes plataformas. Gran dominio en Administración de Sistemas Unix, incluyendo diseño e implementación de infraestructura para Centros de Procesamiento de Datos. Como programador ha desarrollado múltiples aplicaciones distribuidas y productos que se encuentran actualmente en uso en compañías de todo el mundo.
Toda esta experiencia le permite compartir sus conocimientos en cursos de formación y consultoría.
CARLOS RODRÍGUEZ
Arquitecto e Instructor en Tecnologías de la Información.
Cuenta con amplia experiencia en el análisis, diseño, implementación y mantenimiento de aplicaciones web en sistemas Unix y Windows, aplicando arquitecturas basadas en componentes JavaEE, Perl y PHP utilizando diferentes bases de datos, servidores y Frameworks. Ha impartido múltiples cursos, talleres y seminarios sobre nuevas tecnologías y sobre su uso en el desarrollo de aplicaciones.
MIGUEL ÁNGEL PÉREZ
Gran conocimiento de la tecnología implicada en los proyectos de IT e Ingeniería basado en la experiencia acumulada en proyectos que tocan diversas áreas como son la programación, el diseño, pruebas, control de calidad que aplican a todo el ciclo de desarrollo y de vida del producto.
▪ Conocimiento en profundidad del ecosistema de Hadoop/Spark, en distintas distribuciones, (Cloudera, Oracle Big Data Appliance, IBM Big Insights), así como el ecosistema de Big Data.
▪ Conocimiento y Programación en Java, Python, Scala y R así como otros distintos lenguajes de programación utilizados a lo largo de la vida profesional.
▪ Business Intelligence con Cognos y Oracle BI.
▪ Análisis de Datos con Python y R, así como Minería de Datos y Machine Learning con Oracle Enterprise Miner y algoritmos de Machine Learning en entornos de Big Data, (Spark Mllib).
DAVID BLAY TAPIA

Desde 1996 David Blay asesora a deportistas y empresas sobre cómo presentarse a los medios de comunicación de manera noticiable. Ha trabajado en medios como Europa Press, COPE o Radio Marca. Autor del libro ¿’Por qué no nos dejan trabajar desde casa?’, es conferenciante en compañías y simposios y profesor de Estrategias de Comunicación, Redes Sociales y Trabajo Freelance en Masters de Gestión Deportiva en la Universidad Politécnica de Valencia y UCAM Murcia.

RAFAEL ZAMORA GARRIDO

Rafael es ingeniero técnico en informática de gestión y máster en Business Intelligence. Rafael ha acumulado 18 años de experiencia en el sector de las TIC trabajando en grandes empresas nacionales e internacionales. Cuenta con más de 10 años de experiencia en ”Smart Working”, gestión de equipos y proyectos TIC.

AIGU SAINZ NICOLÁS

Aigu Sainz cuenta con 7 años de experiencia en “Smart Working”. Está especializado en formación para particulares y empresas en materia de diseño gráfico, productividad personal y modelos de teletrabajo.

¿DESEAS RECIBIR MÁS INFORMACIÓN?

He leído y acepto la Política de Privacidad

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Aviso de cookies