Your mission
Locatie: Hybride: Thuis, bij de klant en op ons hoofdkantoor in Hoofddorp
Aantal uur: 32 – 40 uur
We zoeken Data Engineers op verschillende niveaus: Junior, Medior en Senior.
Als Data Engineer bij Macaw werk je samen met onze klanten aan het ontwerpen, bouwen en onderhouden van hun data platform, van bronontsluiting tot het beschikbaar stellen van data voor gebruikers. Daarnaast spelen ook orchestratie, beveiliging en adoptie van het platform een belangrijke rol in jouw functie. Wij werken met Microsoft technologie, dit betekent dat je aan de slag zal gaan met Azure Data Factory, Azure Databricks, Azure Synapse Analytics en/of Microsoft Fabric. Je zal onderdeel worden van het team Data Solutions & Insights (DSI). Dit team bestaat uit ongeveer 50 collega’s verdeeld over 5 kleinere teams. DSI is een van de zes units binnen Macaw, waarbij alle units samen Macaw zo’n 400 medewerkers groot maakt.
Jouw dagelijkse werkzaamhedenzijn afhankelijk van twee aspecten: de klantprojecten en jouw interesse in het deelnemen aan interne projecten. De klantprojecten variëren enorm, van projecten bij kleinere organisaties waar je onafhankelijk en zelfstandig als engineer aan de slag kan gaan tot grotere bedrijven waarbij onderdeel bent van een groot projectteam waarin je samenwerkt met projectmanagers, solution architecten en ontwikkelaars. Onze klanten bevinden zich voornamelijk in Nederland en in Duitsland.
Onze interne projecten draaien om jouw eigen interesse: Ben jij een liefhebber van Microsoft Fabric, AI, Copilot, Azure Databricks, of wil jij je verdiepen in data strategie en data governance? Er zijn veel interne initiatieven waaraan jij kunt deelnemen en waar jij de mogelijkheid hebt om je kennis ook op andere gebieden verder te ontwikkelen. Denk bijvoorbeeld aan ons Smart Data Platform, een Data Platform accelerator die we intern ontwikkelen en onderhouden. Het doel van dit platform is om data platform projecten sneller en efficiënter op te starten door middel van referentie architecturen, standaardoplossingen, best practices en slimme herbruikbare laadpatronen. Het is inmiddels met succes ingezet bij meerdere van onze klanten.
Wat ga je doen?
- Het ontwikkelen en ontwerpen van betrouwbare, gebruiksvriendelijke en eenvoudig te beheren data platformen binnen het Microsoft ecosysteem.
- Het bouwen van efficiënte data pipelines met Azure Data Factory, Azure Databricks en/of Microsoft Fabric
- Het opstellen van overzichtelijke en goed presterende datamodellen. Voor implementatie gebruik je Python, SQL, PySpark of SparkSQL.
- Onze klantomgevingen worden maximaal gemanaged met Azure DevOps. Het ontwikkelen van deployment scripts en pipelines behoren dan ook tot jouw werkzaamheden.