Workshop de Azure Data Factory
Instructor: Luis Miguel Salazar
Workshop
Online
11 Abril
27 Abril
15 horas
$2,000 MXN
Acerca de este programa
Aprende Azure Data Factory
Aprenderás a crear pipelines ETL a gran escala desde cero. Requiere crear cuenta en Azure
Ingeniería de Datos
Este curso está diseñado para fortalecer habilidades de ingeniería de datos.
Días de clase
Conoce si este curso es para ti
Cuentas con fundamentos de programación
Ya tienes experiencia y conocimiento usando algún lenguaje de programación como Python y SQL.
Este curso no abarca, ni explica el funcionamiento de Apache Spark.
Este curso no abarca, ni explica el funcionamiento de Apache Spark.
Te interesa mejorar tus habilidades de procesos ETL y Data Wrangling
Azure Data Factory permite realizar procesos ETL a gran escala. Construirás pipelines completos para acceder a varias fuentes de datos, realizar transformaciones y cargar los resultados a distintos repositorios para su posterior explotación analítica.
Quieres aprender Azure Data Factory a fondo
Nuestros workshops están diseñados para conocer tecnologías a fondo de manera práctica pero al mismo tiempo entendiendo los conceptos teóricos fundamentales. Este curso requiere crear tu propia cuenta en Azure, la capa gratuita es suficiente para que no pagues ningún costo adicional.
Quieres construir pipelines ETL
Conocerás las configuraciones necesarias para desplegar jobs, monitorear y orquestar flujos completos a gran escala. El curso abarca sólo procesos ETL en Batch, no incluye streaming.
Temario del curso
Instructor:
Luis Miguel Salazar
Data Engineer en Tupperware
Acerca de Luis Miguel
Ingeniero de datos senior con certificaciones en Azure y con experiencia en el desarrollo de diversos ETL usando herramientas como Matillion, Qlik, Spark y Data Factory.
Cuenta con experiencia también en Google Cloud Platform desarrollando proyectos de explotación de datos sobre Dataflow o Apache Beam, orquestrando con Composer y Apache Airflow.
Cuenta con experiencia también en Google Cloud Platform desarrollando proyectos de explotación de datos sobre Dataflow o Apache Beam, orquestrando con Composer y Apache Airflow.