Data Engineering

Apache Airflow

Wil jij workflows ontwikkelen met Apache Airflow? Deze 1-daagse training leert je de internals, terminologie en best practices van het schrijven van DAGs. Ook doe je hands-on ervaring op met het schrijven en onderhouden van data pipelines.

Ontwikkel workflows met Apache Airflow!

Herken je het volgende scenario, dan gaat deze training je zeker helpen: je begint met een kleine cronjob die elke avond zal draaien. Een paar weken later schrijf je een andere job, die gebruik maakt van de input van de eerste job. Voor de zekerheid plan je het een paar uur na middernacht in. De komende weken heb je af en toe mensen die bij je bureau klagen dat de gegevens ontbreken en dat ze hun werk niet kunnen doen. Dit is waar Apache Airflow een oplossing biedt.

Wat is Apache Airflow

Apache Airflow is een data-orkestratietool, om datapipelines te monitoren, controleren en laten draaien. Airflow zorgt voor de planning van opdrachten en visualiseert pipelines op een grafische manier. Doe je ETL vanuit een database, dan kan de database om diverse redenen niet beschikbaar zijn. Airflow zal detecteren dat de opdracht mislukt, en het later opnieuw proberen. Dit omvat het uitstellen van de taken die afhankelijk zijn van de invoer van de eerste job.

Deze Apache Airflow training is perfect voor

De Apache Airflow training is perfect voor Data Scientists en Data Engineers. Wil jij je data naar productie brengen? Wil je data pipelines monitoren, controleren en draaien met Airflow? Dan is deze training een goede keuze. Apache Airflow is een training op Expert level. Dat betekent dat er vereisten zijn voor deelname. Om te zorgen dat je het maximale uit deze training kunt halen is het belangrijk dat je bekend bent met de basisprincipes van data engineering en de programmeertaal Python. Check hier de basics van Python. Is dit lijstje bekend, dan komt het goed!

Wat leer je tijdens de Apache Airflow training?

In deze training leer workflows ontwikkelen met Apache Airflow. We behandelen de internals, terminologie en best practices van het schrijven van DAGs. Om je vertrouwen te vergroten en om je comfortabel te maken met Airflow ga je ook zelf aan de slag met het schrijven en onderhouden van data pipelines.

Programma

Je doet ervaring op met:

  • Airflow components
  • DAG
  • Operators en sensors
  • Branching
  • Tasks
  • Connections
  • Libraries
  • Common Variables
  • Advanced topics
  •  Logs
  •  xCom
  • Het schrijven van je eigen operators en hooks.
  •  Pools
  •  Jinja Templating

Data Engineering Trainers

Deze Data Engineering training wordt verzorgd door onze trainingspartner GoDataDriven. GoDataDriven is voortdurend op zoek naar innovatieve manieren om het meeste uit data te halen en werkt met experts in het vak. Jouw trainer is een data goeroe die zijn of haar ervaring graag deelt om jou te leren werken met de nieuwste tools.

Data Engineering Trainingen

Xebia Academy biedt in samenwerking met GoDataDriven naast deze Apache Airflow training ook een 3-daagse Spark Programming opleiding. Kijk hier voor meer informatie over deze in-depth Expert level training.

Ja, ik wil meer leren over Apache Airflow

Na registratie ontvang je een bevestigingsmail met praktische informatie. Een week voor de training vragen we je naar dieetwensen. Indien voorbereiding gewenst is, krijg je op dit moment ook de literatuur via de mail. Tot dan!

Wat moet ik nog meer weten?

  • Het is belangrijk dat je voor deze training jouw eigen laptop meeneemt met toegang tot het internet.
  • Deze training wordt je aangeboden door onze trainingspartner GoDataDriven. 

Contact opnemen
contact-us

Ons team staat voor je klaar

Stuur ons een bericht!

Of bel +31 (0)35 538 1921