In een wereld waarin kunstmatige intelligentie zich razendsnel ontwikkelt, onderscheidt ML6 zich als pionier die technologische innovatie combineert met een sterke visie op veiligheid, betrouwbaarheid en ethiek.
During an in-depth conversation, ML6 experts Rob Vandenberghe and Louis Vanderdonckt offered a clear view of how the company is evolving, the role it plays in the AI landscape, and why trust is an absolute prerequisite for long-term value creation. From the technical foundations to the human-driven culture: this article brings the full story together.
Wie is ML6? Een korte kennismaking
“In wezen zijn we een door engineering gedreven organisatie”, zegt Rob Vandenberghe, ISO bij ML6. “Het grootste deel van ons team bestaat uit machine learning-ingenieurs die geavanceerde, op maat gemaakte AI-oplossingen bouwen.” ML6 ontwikkelt oplossingen die industrieën ontwrichten en echte zakelijke uitdagingen aanpakken, processen slimmer maken en nieuwe vormen van efficiëntie ontsluiten. “Dankzij een structurele investering in R&D verkennen we voortdurend nieuwe technologieën, vaak nog voordat klanten erom vragen.”
Technologie is echter slechts een deel van hun verhaal. ML6 begeleidt organisaties ook bij het verantwoord toepassen van AI. Dit omvat advies over hoe AI duurzaam kan worden opgeschaald, risico's kunnen worden beheerd en governance en compliance in de praktijk kunnen worden geïmplementeerd. Het bedrijf helpt klanten te begrijpen wat AI wel en niet kan, waar de risico's liggen en hoe ze kunnen omgaan met de technologische, juridische en ethische vragen die daarmee gepaard gaan.
Met deze combinatie van technische diepgang en verantwoordelijkheid is ML6 een belangrijke speler geworden in het Europese AI-ecosysteem. De sterke nadruk op ethiek en governance onderscheidt het bedrijf duidelijk van anderen. “Een interne ethische commissie beoordeelt gevoelige projecten nog voordat ze van start gaan, en toetst ze aan duidelijke waarden en grenzen. Dat interne kompas geeft richting, maakt ML6 uniek in de sector en bouwt vertrouwen op bij klanten, partners en medewerkers”, zegt Louis Vanderdonckt, DPO bij ML6.
AI, cyberbeveiliging en vertrouwen: samen één groot verhaal
De opkomst van kunstmatige intelligentie heeft het cyberbeveiligingslandschap fundamenteel veranderd. Waar organisaties vroeger met een klein aantal duidelijk omschreven systemen werkten, opereren ze tegenwoordig binnen een gefragmenteerd ecosysteem van tientallen tools, die elk een deel van een proces automatiseren. “Dit zorgt voor nieuwe efficiëntie, maar verhoogt ook het risico”, zegt Vandenberghe. “Hoe meer gegevens verspreid zijn over verschillende applicaties, hoe groter de kans op lekken, verkeerde configuraties of misbruik.”
Grote taalmodellen introduceren ook een nieuwe categorie risico's. Omdat deze modellen moeite hebben om een duidelijk onderscheid te maken tussen gebruikersinstructies, systeeminstructies en code, zijn ze gevoeliger voor manipulatie. Ondanks belangrijke vooruitgang op het gebied van risicobeperking blijven organisaties waakzaam voor prompt injection, misleiding en ongewenste outputs.
Tegelijkertijd worden cyberaanvallen dankzij AI steeds toegankelijker en realistischer. Deepfake-aanvallen, overtuigende spear-phishing of geautomatiseerde social engineering liggen nu binnen het bereik van kwaadwillende actoren. Bedrijven moeten hun verdedigingsstrategieën even snel aanpassen als de dreigingen evolueren.
In deze context wordt vertrouwen een cruciale bouwsteen. “Bij ML6 merken we dat wantrouwen rond AI vaak voortkomt uit een gebrek aan begrip: mensen weten niet wat AI kan doen, wat de risico's zijn of hoe systemen eigenlijk werken. Daarom investeert ML6 sterk in educatie, transparantie en geletterdheid. Als je de technologie ontrafelt, verdwijnt een groot deel van de angst”, legt Vandenberghe uit.
“De ethische commissie versterkt die basis”, voegt Vanderdonckt toe. Deze interne raad beoordeelt gevoelige projecten voorafgaand aan de start en toetst ze aan duidelijke waarden. Toepassingen die ethisch of maatschappelijk problematisch kunnen zijn, worden simpelweg niet gebouwd. Dit creëert een cultuur waarin verantwoordelijkheid centraal staat en waarin vertrouwen geen bijproduct is, maar een kernonderdeel van elke AI-implementatie.
Bouwen aan veilige en volwassen AI
Bij ML6 begint beveiliging al in de allereerste ontwerpfase. Het bedrijf kiest bewust voor serverloze en cloud-native architecturen om infrastructuurrisico's te minimaliseren. Door te vertrouwen op de beveiligingsmechanismen van grote cloudproviders kan ML6 zich concentreren op applicatielogica, modelveiligheid en toegangscontrole.
“Om efficiënt en veilig te kunnen werken, hebben we voor elk type AI-project een geharde ‘bouwkit’ ontwikkeld: een vooraf beveiligde template die alle benodigde componenten bevat. Hierdoor kunnen ingenieurs onmiddellijk waarde creëren zonder het risico te lopen ernstige beveiligingsfouten te maken”, aldus Vandenberghe.
Veel organisaties zijn echter nog niet klaar voor AI. Ze willen aan de slag, maar missen de basis: duidelijke data-architecturen, governance, privacyprocessen of een veilige infrastructuur. “In dergelijke gevallen is ML6 eerlijk over de noodzaak om eerst die basis te leggen. Anders zal een project onvermijdelijk mislukken, wat de geloofwaardigheid van AI intern schaadt.”
ML6 ziet vaak dat bedrijven AI benaderen als traditionele IT, terwijl AI-governance een heel andere aanpak vereist, waarbij ethiek, privacy, veiligheid en organisatiebrede samenwerking een rol spelen. “Silo's zijn een van de grootste struikelblokken die we tegenkomen in AI-projecten met klanten”, merkt Vanderdonckt op.
In industriële omgevingen krijgt AI een extra dimensie: de koppeling tussen digitale en fysieke risico's. ML6 werkt aan projecten op het gebied van kwaliteitscontrole via vision-systemen, branddetectie met behulp van camerabeelden en voorspellende modellen voor energie- en productieomgevingen. In die contexten staat veiligheid altijd voorop.
“AI mag nooit rechtstreeks en onbeschermd OT-systemen via de cloud aansturen”, zegt Vandenberghe. “Daarom hanteert ML6 een strikte scheiding tussen IT, DMZ en OT. Voor kritieke processen worden modellen lokaal uitgevoerd om latentie, beschikbaarheid en veiligheid te garanderen.”
Voor ML6 gaat cyberbeveiliging verder dan het voorkomen van incidenten. Het is een essentieel onderdeel van kwaliteit en betrouwbaarheid. Sterke beveiliging leidt tot betere documentatie, efficiëntere processen en een snellere inwerking van nieuwe medewerkers. De investering loont zich meerdere malen.
“Beveiliging is de basis van vertrouwen. Zonder dat vertrouwen zullen mensen de systemen niet gebruiken en zal de potentiële waarde van AI nooit worden gerealiseerd”, concludeert Vanderdonckt.
NIS2: hoe ML6 de transitie heeft aangepakt
ML6 had al een sterke basis op het gebied van informatiebeveiliging voordat NIS2 werd geïntroduceerd, waardoor de transitie naar deze nieuwe Europese richtlijn relatief soepel verliep. Hun gouden regel: “Begin vroeg. Organisaties die wachten tot de druk toeneemt, lopen het risico te laat te zijn voor certificering of naleving.”
Audits spelen een belangrijke rol in het beveiligingskader van ML6. Ze bieden niet alleen onafhankelijke verificatie voor klanten, maar verbeteren ook de interne kwaliteit en houden het managementteam nauw betrokken. “Vooral binnen een AI-toeleveringsketen, waar modellen, datasets, cloudproviders en verschillende API-koppelingen samenkomen, is transparantie tussen alle partijen noodzakelijk.” Echte zekerheid komt voort uit kritische vragen, open communicatie en gedeelde verantwoordelijkheid.
Een treffend voorbeeld is de samenwerking met het Nationaal Cyber Security Centrum (NCSC). ML6 heeft een systeem ontwikkeld dat kwetsbaarheden uit meerdere bronnen automatisch omzet in begrijpelijke en bruikbare rapporten voor organisaties die onder NIS2 vallen. Deze oplossing maakt snellere, consistentere en efficiëntere analyses mogelijk, waardoor de veerkracht van talloze bedrijven direct wordt versterkt.
Samenwerking met OpenAI: op naar de volgende fase van AI-innovatie
Eerder dit jaar kondigde OpenAI aan dat ML6 een van hun Services Partners wordt om de acceptatie van AI in heel Europa te stimuleren. “Deze strategische samenwerking geeft ML6 toegang tot nieuwe technologieën en inzichten voordat deze algemeen beschikbaar komen”, zegt Vanderdonckt. “Daardoor kunnen we sneller innoveren en risico's vroegtijdig signaleren. Maar OpenAI leert ook van onze praktijkervaring, waardoor de samenwerking echt tweerichtingsverkeer is.”
ML6 onderscheidt zich ook door zijn intensieve samenwerking met de spraakmodellen van OpenAI. “Een van de meest in het oog springende toepassingen is een AI-recruiter die automatisch contact opneemt met kandidaten, vragen stelt en informatie verzamelt. Deze oplossing helpt organisaties om grote groepen kandidaten efficiënter en inclusiever te bereiken”, legt Vanderdonckt uit.
Training & AI-governance: de gecertificeerde AI Compliance Officer (CAICO)
Een opmerkelijk initiatief is het trainingsprogramma dat ML6 in samenwerking met ICTRecht aanbiedt: de opleiding tot Certified AI Compliance Officer. Dit programma combineert technische inzichten, juridische expertise en praktische oefeningen om professionals voor te bereiden op de uitdagingen van AI-governance. Het omvat online modules, een uitgebreid handboek, drie intensieve trainingsdagen en een erkend examen.
Het programma trekt een divers publiek: DPO's, juridische experts, bedrijfsleiders en ingenieurs. De kracht ervan ligt in de uitwisseling tussen deze profielen en de sterke praktijkcases die aan bod komen.
Het verhaal van ML6 laat zien dat AI alleen waarde creëert wanneer technologie wordt gecombineerd met veiligheid, governance, ethiek en vertrouwen. Innovatie alleen is niet voldoende. Het is de weloverwogen, doordachte aanpak die AI duurzaam en zinvol maakt.