Taller: Paso a paso para nuestro primer pipeline con Apache Beam y Dataflow

Conferencista(s)

Apache Beam es un SDK para pipelines de datos, en streaming y batch, que soporta varios lenguajes de programación, y diferentes plataformas para ejecutar los pipelines (Dataflow, Flink, Spark, etc). La gran ventaja de Beam es que una vez escrito el pipeline, se puede ejecutar en cualquier plataforma.

Conoce como usar Python para escribir un pipeline de proceso de datos en batch, ejecutandolo en local, y en Dataflow. Para terminar, veremos qué cambios serían necesarios para aprovechar el código que vamos a escribir para transformar ese mismo pipeline para trabajar en streaming.

Fecha de sesión