Nuestro objetivo


Buscamos convertirte en un especialista en el tratamiento de datos. Con este programa empezarás desde lo más básico hasta lograr un nivel avanzado.

Podrás armar tu propio portafolio de proyectos y conocer la implementación sobre arquitectura batch y real time.

Llevamos ayudando a más de 40 mil personas en más de 10 países en todas nuestras plataformas.

Participa en el primer programa de Ingeniería de Datos, único a nivel LATAM. Podrás implementar soluciones de datos en las nubes más reconocidas (Google Cloud, AWS, Microsoft Azure) con talleres 100% prácticos.

img01
img1.1
Programa en vivo
  • El programa se dicta en vivo y en línea.
  • Puedes llevarlo desde cualquier parte.
  • Asimismo, podrás acceder a material de formación complementaria.
img1.2
Duración
  • La duración del programa es de 190 horas.
  • Estas horas se distribuyen a lo largo de aproximadamente 5 meses.
img1.3
Requisitos
  • Conocimientos de programación y SQL.
  • Una laptop o computadora de al menos 4 GB de RAM con conexión a internet.
  • Muchas ganas de aprender.
img02

¿Qué cosas vas a aprender?


  • Computación distribuida.
  • Data Management.
  • Ciencias de la computación.
  • Almacenamiento de datos.
  • Procesamiento Batch y Real Time.
  • Orquestación de flujos de datos con Airflow.
  • Data visualization.
  • Data Engineering en Cloud.
img1
Módulo 1
Fundamentos de Data Engineering
  • Conceptos y terminología.
  • Análisis de datos con Python.
  • Fundamentos de Computer Science.
  • Cloud Computing.
  • Introducción a Big Data.
img2
Módulo 2
Estrategia y Arquitectura de Datos
  • Implementación de un proyecto de datos.
  • Estrategia de negocios.
  • Arquitectura de datos.
  • Datalakes.
  • Lambda y Kappa.
img3
Módulo 3
Data Management & Governance
  • DAMA framework.
  • Concepto y aplicación de gobierno de datos.
  • Concepto y aplicación de calidad de datos.
  • Métricas de medición de datos.
img4
Módulo 4
Tecnologías de Almacenamiento
  • Almacenamiento distribuido con HDFS.
  • Almacenamiento en cloud.
  • Formatos de compresión.
  • Ciclo de vida de datos.
  • Buenas prácticas de almacenamiento.
  • Proyecto de módulo.
img5
Módulo 5
Tecnologías de Procesamiento
  • Conceptos ETL, ELT.
  • Apache Sqoop.
  • Transformación de datos con Apache Hive.
  • Data blending con Apache Impala.
  • Pipelines con Apache Spark.
  • Talleres de preparación para certificaciones oficiales.
img6
Módulo 6
Orquestación de Pipelines
  • Conceptos y terminología de Apache Airflow.
  • Scheduling de data pipelines con Apache Airflow.
  • Integración con cloud.
  • Data pipelines con Matillion.
  • Workflows.
img7
Módulo 7
Data Visualization
  • Conceptos y terminología.
  • Técnicas de visualización de datos.
  • Data visualization con Data Studio.
  • Data visualization con Power BI.
  • Automatización de reportes.
img8
Módulo 8
Data Engineering en GCP
  • BigQuery.
  • Data Catalog.
  • Dataproc.
  • Pub/Sub.
  • Data Pipelines
  • Composer.
  • Entre otros.
img9
Módulo 9
Procesamiento en Real Time
  • Buenas prácticas.
  • Introducción a Apache Druid.
  • Apache Kafka.
  • Spark Streaming.
  • Pub/Sub.
  • Kinesis.
img10
Módulo 10
Machine Learning for Data Engineers
  • Conceptos y terminología.
  • Machine Learning con Apache Spark.
  • AutoML con Google Cloud.
img11
Módulo 11
Capstone Project

Tú pones el talento y asumes el reto de construir una solución basada en datos diseñando e implementando una arquitectura end-to-end para que sea presentado a un equipo técnico. Deberás demostrar el aporte de la solución y su viabilidad financiera.

Certificados


Al finalizar el programa obtendrás un certificado por parte de DataHack con el que podrás demostrar tus habilidades. Asimismo, con los conocimientos adquiridos podrás postular a las certificaciones de Google Cloud, Cloudera y Databricks.

img03

Opciones de pago

Más información


¿Deseas inscribirte en grupo de 2 o más personas?
¡Pregunta por nuestros descuentos!
[email protected]


Experiencia DataHack

Conoce la opinión de Sonia y su experiencia con los cursos de DataHack.