Xylos Brussel: +32 2 264 13 20
Xylos Antwerpen: +32 3 543 75 00
xylos@xylos.com

De Intelligent cloud steunt op een solide dataplatform

Misschien heb je het al door, misschien nog niet… maar bijna alles wat we bij Xylos doen, is verbonden met het verzamelen, verwerken en begrijpen van de data die zich overal rondom ons bevindt. Denk maar aan Connected Factory en self-service BI: scenario’s die zich situeren rond het verkrijgen van inzichten in data.

Het is dus logisch dat deze toepassingen een achterliggende nood hebben aan een solide dataplatform (ook weleens data warehouse genoemd). Enkel met een stevig dataplatform kan je data vanuit verschillende systemen aggregeren én performant ter beschikking stellen.

Elk scenario heeft verschillende vereisten en actiepunten nodig. Denk maar aan self-service BI: hierbij zal je extra aandacht moeten spenderen aan de toegang tot de data. En zo is er bij elke situatie iets anders nodig. Gelukkig voor jou kan Xylos je hiermee helpen. Oef!

ETL: de weg van bron tot opslag.

De weg die data aflegt, die moet gemeten worden vanaf bron tot aan dataopslag. Deze weg wordt meestal benoemd met de term ‘ETL’: Extraction, Transformation, Load. Samengevat, praten we dan over volgende processen:

  1. Extraction: het capteren van data uit diverse systemen die elk hun specifieke interface methoden en formaten hebben.
  2. Transformation: het manipuleren/transformeren/decoderen van data, totdat deze past in het uiteindelijke data opslagformaat.
  3. Load: het opladen van de data in de dataopslag.

Zo ziet een actueel voorbeeld van ETL in IoT eruit:

Stel. Je wil de gegevens die Sigfox devices versturen, capteren én in een database opslaan. Dat zou gebeuren in volgend proces:

  1. Extraction: De Sigfox berichten worden opgevangen via Azure IoT Hub.
  2. Transformation: Azure Stream Analytics decodeert én parst het Sigfox signaal, zodat de informatie in aparte columns van een database kan worden opgeslagen.
  3. Load: De data wordt opgeslagen in Azure SQL of Azure CosmosDB.

Xylos kiest voor SaaS en PaaS als oplossing

Zoals je vast al merkte, vermeldden we voorgaand een aantal Azure componenten. En dit is geen toeval! Xylos kiest tenslotte doelbewust voor SaaS en PaaS Azure componenten als begeleiding tijdens uitvoering van projecten. Waarom? Daarom!

  1. De componenten zijn onmiddellijk beschikbaar, zonder zware upfront licentie of hardware investeringen.
  2. Wanneer de componenten nodig zijn, zijn ze onmiddellijk schaalbaar. Heb je geen capaciteit nodig? Dan heb je geen verbruik. Zo eenvoudig is het.
  3. Je geniet van een eenvoudige opzet van test-, dev- en acceptatie-omgevingen. Ook hier verbruik je enkel wanneer je ze nodig hebt.
  4. Je profiteert van gegarandeerde uptime en geniet steeds van de laatste versie van de platformen.
  5. Je hebt een minimum aan maintenance en operationele taken.
  6. Een standaard compatibiliteit tussen de verschillende componenten is gegarandeerd.
  7. Je kan zeker zijn van eenvoudige toegang én integratie met cognitieve services en Machine Learning technieken.

Een aantal voorbeelden van Azure PaaS en SaaS componenten:

  • Azure IoT Hub
  • Azure Stream Analytics
  • Azure IoT Central
  • Azure SQL
  • Azure CosmosDB
  • Azure Data Lake

Welke componenten het best geschikt zijn voor jouw project? Dat leggen we samen tijdens de analysefase vast. Om de start van jouw project te faciliteren, werken we via een vast ‘start-template’ dat door Xylos zelf ontwikkeld werd. Dit zorgt ervoor dat we geen tijd verliezen én snel resultaten boeken.

De Cloud Architect en de Data Engineer: dé superhelden wanneer het data betreft

Vooraleer de data analist (of data scientist) aan de slag kan gaan met zaken zoals data mining, machine learning algoritmes, artificiële intelligentie, … moet het correcte dataplatform aanwezig én volledig functioneel zijn.

En het beschrijven en opzetten van de juiste componenten hiervoor? Dat wordt met veel liefde en nog meer enthousiasme uitgevoerd door de Xylos Cloud Architect en de Xylos Data Engineer. Een aantal voorbeelden van hun taken:

Een analyse maken van de huidige (zoals bestaande data sources) en gewenste situatie(s).
Nauw samenwerken met de data analysts, data scientists en het IT-team. Dit is belangrijk om alle voorwaarden en vereisten te beschrijven - zowel vanuit user standpunt als vanuit technisch standpunt.
De juiste componenten selecteren, in het licht van een correct evenwicht tussen vereisten en consumptiekost.
Het definiëren én activeren van de omgeving via scripting. Dit wordt ook wel eens IaC genoemd: Infrastructure as Code. Dit is één van de DevOps basisprincipes en laat toe om uniforme test-, dev-, acceptatie-, en productieomgevingen te creëren volgens een bepaalde versie. Hier komt ook nog eenvoudige (de)activatie van de omgeving bij, zodat er geen consumptiekost bijkomt wanneer een bepaalde activiteit niet nodig is.

Heb je een specifieke nood aan data-infrastructuur - of aan een ander project? Wil je je huidige team tijdelijk versterken? Of wil je specifieke kennis in je bestaand team implementeren via een gezamenlijke projectmode? Kan allemaal! Onze Cloud Architecten en Data Engineers staan te trappelen om jou te ontmoeten!

Klaar om jouw nieuwe dataplatform te ontmoeten?

Kan jij haast niet wachten om te profiteren van al die beschikbare data die zo netjes terug te vinden is in je eigen dataplatform? Aarzel dan niet langer - en contacteer Xylos. Wij helpen je graag verder!

Ja, ik wil meer inzicht verwerven in mijn data dankzij een dataplatform!