Dans un monde où l'intelligence artificielle évolue à une vitesse fulgurante, ML6 se distingue comme un pionnier qui allie innovation technologique et vision forte en matière de sécurité, de fiabilité et d'éthique.
Au cours d'une conversation approfondie, Rob Vandenberghe et Louis Vanderdonckt, experts chez ML6, ont présenté une vision claire de l'évolution de l'entreprise, du rôle qu'elle joue dans le paysage de l'IA et des raisons pour lesquelles la confiance est une condition sine qua non à la création de valeur à long terme. Des fondements techniques à la culture axée sur l'humain, cet article retrace l'histoire dans son intégralité.
Qui est ML6 ? Une brève présentation
« Nous sommes avant tout une organisation axée sur l'ingénierie », explique Rob Vandenberghe, ISO chez ML6. « La plupart des membres de notre équipe sont des ingénieurs en apprentissage automatique qui développent des solutions d'IA avancées et sur mesure. » ML6 développe des solutions qui révolutionnent les industries et répondent à des défis commerciaux réels, rendent les processus plus intelligents et ouvrent la voie à de nouvelles formes d'efficacité. « Grâce à un investissement structurel dans la R&D, nous explorons en permanence de nouvelles technologies, souvent avant même que les clients ne les demandent. »
La technologie n'est toutefois qu'une partie de leur histoire. ML6 guide également les organisations dans l'application responsable de l'IA. Cela comprend des conseils sur la manière de développer l'IA de manière durable, de gérer les risques et de mettre en œuvre la gouvernance et la conformité dans la pratique. L'entreprise aide ses clients à comprendre ce que l'IA peut et ne peut pas faire, où se situent les risques et comment aborder les questions technologiques, juridiques et éthiques qui y sont liées.
Grâce à cette combinaison de connaissances techniques approfondies et de responsabilité, ML6 est devenu un acteur important de l'écosystème européen de l'IA. L'accent mis sur l'éthique et la gouvernance distingue clairement l'entreprise. « Un comité d'éthique interne évalue les projets sensibles avant même leur lancement, en les comparant à des valeurs et des limites claires. Cette boussole interne fournit une orientation, rend ML6 unique dans le secteur et instaure la confiance avec les clients, les partenaires et les employés », explique Louis Vanderdonckt, délégué à la protection des données chez ML6.
IA, cybersécurité et confiance : une histoire étroitement liée
L'essor de l'intelligence artificielle a profondément bouleversé le paysage de la cybersécurité. Alors qu'auparavant, les organisations travaillaient avec un petit nombre de systèmes clairement définis, elles opèrent aujourd'hui dans un écosystème fragmenté composé de dizaines d'outils, chacun automatisant une partie d'un processus. « Cela crée de nouveaux gains d'efficacité, mais augmente également les risques », explique M. Vandenberghe. « Plus les données sont réparties entre différentes applications, plus les risques de fuites, de mauvaises configurations ou d'utilisations abusives sont élevés. »
Les grands modèles linguistiques introduisent également une nouvelle catégorie de risques. Comme ces modèles ont du mal à distinguer clairement les instructions des utilisateurs, les instructions du système et le code, ils sont plus susceptibles d'être manipulés. Malgré des progrès importants en matière d'atténuation, les organisations restent vigilantes face aux injections rapides, aux tromperies et aux résultats indésirables.
Dans le même temps, les cyberattaques deviennent plus accessibles et plus réalistes grâce à l'IA. Les attaques deepfake, le spear-phishing convaincant ou l'ingénierie sociale automatisée sont désormais à la portée des acteurs malveillants. Les entreprises doivent faire évoluer leurs stratégies défensives aussi rapidement que les menaces évoluent.
Dans ce contexte, la confiance devient un élément essentiel. « Chez ML6, nous constatons que la méfiance à l'égard de l'IA découle souvent d'un manque de compréhension : les gens ne savent pas ce que l'IA peut faire, quels sont les risques ou comment les systèmes fonctionnent réellement. C'est pourquoi ML6 investit massivement dans l'éducation, la transparence et la culture numérique. Lorsque vous démystifiez la technologie, une grande partie de la peur disparaît », explique M. Vandenberghe.
« Le comité d'éthique renforce cette base », ajoute M. Vanderdonckt. Ce conseil interne examine les projets sensibles avant leur lancement et les évalue par rapport à des valeurs claires. Les applications qui peuvent poser des problèmes sur le plan éthique ou social ne sont tout simplement pas développées. Cela crée une culture où la responsabilité est centrale et où la confiance n'est pas un produit dérivé, mais un élément essentiel de toute mise en œuvre de l'IA.
Construire une IA sûre et mature
Chez ML6, la sécurité commence dès la toute première phase de conception. L'entreprise opte délibérément pour des architectures sans serveur et natives du cloud afin de minimiser les risques liés à l'infrastructure. En s'appuyant sur les mécanismes de sécurité proposés par les principaux fournisseurs de cloud, ML6 peut se concentrer sur la logique applicative, la sécurité des modèles et le contrôle d'accès.
« Pour travailler efficacement et en toute sécurité, nous avons développé un « kit de construction » renforcé pour chaque type de projet d'IA : un modèle pré-sécurisé contenant tous les composants nécessaires. Cela permet aux ingénieurs de créer immédiatement de la valeur sans risque d'erreurs graves en matière de sécurité », explique M. Vandenberghe.
Cependant, de nombreuses organisations ne sont pas encore prêtes pour l'IA. Elles souhaitent se lancer, mais ne disposent pas des éléments fondamentaux : architectures de données claires, gouvernance, processus de confidentialité ou infrastructure sécurisée. « Dans de tels cas, ML6 est honnête quant à la nécessité de construire d'abord ces fondations. Sinon, un projet échouera inévitablement, ce qui nuira à la crédibilité de l'IA en interne. »
ML6 constate souvent que les entreprises abordent l'IA comme elles abordent l'informatique traditionnelle, alors que la gouvernance de l'IA nécessite une approche complètement différente, qui inclut l'éthique, la confidentialité, la sécurité et la collaboration à l'échelle de l'organisation. « Les silos sont l'un des principaux obstacles que nous rencontrons dans les projets d'IA avec nos clients », note M. Vanderdonckt.
Dans les environnements industriels, l'IA prend une dimension supplémentaire : le lien entre les risques numériques et physiques.
ML6 travaille sur des projets impliquant le contrôle qualité par des systèmes de vision, la détection d'incendies à l'aide d'images de caméras et des modèles prédictifs pour les environnements énergétiques et de production. Dans ces contextes, la sécurité passe toujours avant tout.
« L'IA ne devrait jamais contrôler directement et sans protection les systèmes OT via le cloud », explique M. Vandenberghe. « C'est pourquoi ML6 utilise des séparations strictes entre l'IT, la DMZ et l'OT. Pour les processus critiques, les modèles fonctionnent localement afin de garantir la latence, la disponibilité et la sécurité. »
Pour ML6, la cybersécurité va au-delà de la prévention des incidents. Elle est un élément essentiel de la qualité et de la fiabilité. Une sécurité renforcée permet une meilleure documentation, des processus plus efficaces et une intégration plus rapide des nouveaux employés. L'investissement est largement rentabilisé.
« La sécurité est le fondement de la confiance. Sans cette confiance, les gens n'utiliseront pas les systèmes et le potentiel de l'IA ne sera jamais exploité », conclut M. Vanderdonckt.
NIS2 : comment ML6 a abordé la transition
ML6 disposait déjà d'une base solide en matière de sécurité de l'information avant l'apparition de la directive NIS2, ce qui a rendu la transition vers cette nouvelle directive européenne relativement facile. Leur règle d'or : « Commencer tôt. Les organisations qui attendent que la pression augmente risquent d'être en retard pour la certification ou la mise en conformité. »
Les audits jouent un rôle important dans le cadre de sécurité de ML6. Ils fournissent non seulement une vérification indépendante pour les clients, mais améliorent également la qualité interne et maintiennent l'équipe de direction étroitement impliquée. « En particulier dans une chaîne d'approvisionnement IA, où se côtoient modèles, ensembles de données, fournisseurs de cloud et différents liens API, la transparence entre toutes les parties est nécessaire. » Une véritable assurance passe par des questions critiques, une communication ouverte et une responsabilité partagée.
La collaboration avec le Centre national néerlandais de cybersécurité (NCSC) en est un exemple frappant. ML6 a développé un système qui convertit automatiquement les vulnérabilités provenant de multiples sources en rapports compréhensibles et exploitables pour les organisations soumises à la directive NIS2. Cette solution permet des analyses plus rapides, plus cohérentes et plus efficaces, renforçant directement la résilience d'innombrables entreprises.
Partenariat avec OpenAI : passer à la phase suivante de l'innovation en matière d'IA
Au début de l'année, OpenAI a annoncé que ML6 serait l'un de ses partenaires de services pour promouvoir l'adoption de l'IA à travers l'Europe. « Cette collaboration stratégique permet à ML6 d'accéder à de nouvelles technologies et connaissances avant qu'elles ne soient largement disponibles », explique M. Vanderdonckt. « Cela nous permet d'innover plus rapidement tout en identifiant les risques à un stade précoce. Mais OpenAI tire également des enseignements de notre expérience pratique, ce qui rend cette collaboration véritablement bidirectionnelle. »
ML6 se distingue également par son travail intensif sur les modèles vocaux d'OpenAI. « L'une des applications les plus remarquables est un recruteur IA qui contacte automatiquement les candidats, leur pose des questions et recueille des informations. Cette solution aide les organisations à atteindre de grands groupes de candidats de manière plus efficace et plus inclusive », explique M. Vanderdonckt.
Formation et gouvernance de l'IA : le Certified AI Compliance Officer (CAICO)
Une initiative remarquable est le programme de formation proposé par ML6 en collaboration avec ICTRecht : le cours Certified AI Compliance Officer. Ce programme combine des connaissances techniques, une expertise juridique et des exercices pratiques afin de préparer les professionnels aux défis de la gouvernance de l'IA. Il comprend des modules en ligne, un manuel complet, trois jours de formation intensive et un examen reconnu.
Le programme attire un public varié : délégués à la protection des données, experts juridiques, chefs d'entreprise et ingénieurs. Sa force réside dans les échanges entre ces différents profils et les cas pratiques concrets qui sont abordés.
L'histoire de ML6 montre que l'IA ne crée de la valeur que lorsque la technologie est associée à la sécurité, à la gouvernance, à l'éthique et à la confiance. L'innovation seule ne suffit pas. C'est une approche délibérée et réfléchie qui rend l'IA durable et significative.