#7 - AI Act / Normes ISO : une nécessité pour une IA éthique et de confiance ?

Pierre
Et bonjour à tous, bienvenue dans ce septième épisode du podcast YAPAC La Data. L'AI Act a été ratifié en février, une dernière version du document a été signée il y a quelques jours, mi-mars. La réglementation autour des usages de l'IA est un sujet clé pour toutes les entreprises. Et aujourd'hui, pour en parler, pour parler de ce sujet brûlant, nous avons le plaisir d'accueillir Arnaud Youalalen, qui est le PDG et cofondateur de Numalis, une entreprise de la deep tech qui propose des outils pour valider les usages. et l'algo d'IA afin de les rendre plus robustes et aussi explicables. Arnaud a également la casquette d'ISO Expert. Il contribue à créer cet encadrement pour les usages autour de l'IA. Je suis toujours accompagné de mon acolyte Thomas Memoun et très heureux de vous accueillir. Donc bonjour Thomas, bonjour Arnaud.

Thomas
Salut Pierre, salut Arnaud, on va commencer très simplement. Est-ce que tu peux nous présenter ce qu'est Numalis ?

Arnault
Alors Numalis, comme l'a dit Pierre, on est une deep tech qui travaille sur les questions de fiabilité de l'intelligence artificielle. Ce qui veut dire qu'en fait on développe des outils qui permettent de mesurer... jusqu'où on peut faire confiance à une intelligence artificielle et on propose ces outils pour les ingénieurs qui fabriquent de l'IA. Aujourd'hui dans différents secteurs, principalement des secteurs un peu critiques comme l'automobile ou l'aérospatiale ou la défense, où on a envie de mettre de l'IA mais il va falloir s'assurer que tout ça, ça marche bien. Et pour définir justement comment on va faire ce déploiement, on travaille aussi, comme l'a dit Pierre, dans les comités de standardisation, notamment ISO, pour définir c'est quoi les bonnes pratiques, les exigences et les requirements qu'on va mettre. ces IA pour pouvoir leur mettre un tampon pour dire que ce sont des IA de confiance.

Thomas
C'est hyper intéressant. Je n'avais jamais entendu le terme Deep Tech auparavant. Est-ce que tu peux nous expliquer en quoi ça consiste ?

Arnault
Une Deep Tech, c'est un modèle de startup un peu différent des startups classiques. Elles sont généralement liées à des laboratoires. Ça peut être des spin-off ou bien des entreprises qui industrialisent des résultats de travaux de recherche. Elles sont caractérisées par des cycles de vente et de déploiement qui sont beaucoup plus longs que des entreprises. de start-up classique où on se projette plus à 5 ou 8 ans pour savoir qu'on va propager une innovation dans l'industrie que sur 2 ou 3 ans pour la mettre sur le marché en B2C par exemple.

Pierre
Et du coup, les défis spécifiques finalement aux entreprises de la deep tech, c'est pas mal de sciences, des cycles de vente longs, c'est ça ? Et Numalis, c'est basé à Montpellier ?

Arnault
C'est basé à Montpellier depuis 2015. On est déjà à 8 ans d'existence et justement on est sur des sujets scientifiques assez lourds puisqu'on parle de preuves de programmes. Donc en gros on fait des maths pour prouver des intelligences artificielles. Et ça, il a fallu bien 5-6 ans avant de comprendre et d'éduquer notre marché et de créer notre marché en fait. Parce qu'une deep tech souvent elle arrive sur un marché où le besoin... et pas forcément encore bien caractérisés. Les gens n'ont pas conscience qu'ils ont ce besoin. Du coup, on doit d'abord faire une phase d'évangélisation pour arriver à convaincre que cette solution répond à un besoin qui est critique pour les industries. Ensuite, il faut convaincre que même si on est nouveau et petit, on est l'acteur de confiance pour pouvoir développer cette technologie.

Pierre
Pas simple.

Arnault
Ce n'est pas simple, effectivement.

Pierre
Toi, tu dois passer des bonnes nuits blanches. Tu as dit en passer un.

Arnault
On a beaucoup de gens à les convaincre et il faut se prendre beaucoup de baffes. En effet, mais par contre, c'est super gratifiant de voir dans le regard des gens ou d'un moment quand ils ont compris ce qu'on fait.

Pierre
La lumière.

Arnault
Et qu'ils se disent, ah ouais, mais en fait, c'est hyper important ce que vous faites et j'en ai besoin. Et donc ça, c'est quelque chose, effectivement, c'est un peu le challenge qu'on va chercher.

Pierre
Et donc du coup, le but de Numalis, c'est de construire des IA robustes et fiables.

Arnault
C'est d'aider à construire. Nous, on ne vend pas des IA. On n'est pas une entreprise AI makers. On ne fait pas des IA sur étagère. On fabrique des outils qui rentrent dans la caisse à outils de l'ingénieur IA, n'importe où, dans n'importe quel groupe ou dans n'importe quelle entreprise, pour l'aider à lui-même vérifier, est-ce que je suis en train de faire une IA qui est suffisamment robuste ? Est-ce que je peux me servir des techniques d'explicabilité pour la rendre encore plus robuste et pour pouvoir justifier de sa conception ? Et in fine, d'arriver à une IA qui est beaucoup plus fiable et de confiance.

Thomas
Je vais peut-être un peu trop sauter dans le sujet, mais au moment où... L'intelligence artificielle, elle évolue vraiment. Aujourd'hui, on parle beaucoup d'IA générative, mais de façon plus générale, c'est les LLM qui ont un véritable impact dans notre société actuellement. Sauf que les LLM, par nature, ils sont basés sur des modèles de fondation qui sont eux-mêmes extrêmement opaques. On ne sait pas vraiment sur quelles données ces modèles apprennent. Est-ce que de ce fait... on est bloqué pour créer des nouvelles IA qui sont robustes.

Arnault
Alors la robustesse des LLM, c'est un vrai sujet. La robustesse, si on se place du côté du monde de la standardisation, ça veut dire quoi ? Ça veut dire, est-ce que je peux garantir que mon système reste performant, en gros, peu importe l'endroit où je l'utilise ? Est-ce que je peux maintenir sa performance ? Et déjà, rien que là, quand on se dit, mais est-ce qu'un LLM est performant ? En fait, c'est hyper subjectif.

Pierre
Définir performance.

Arnault
Exactement. Parce que pour un système, on va dire, pas génératif, en général, on peut avoir des vraies métriques, des trucs mathématiques pour dire 98, quelque chose. Par contre, un LLM qui vous pond une réponse ou qui vous pond une image... vous allez peut-être être super satisfait de la réponse, moi peut-être pas, mon voisin moyennement. c'est subjectif en fait et donc du coup si c'est subjectif ça veut dire que c'est pas évident de dire je peux attester d'une certaine fiabilité, d'une certaine performance de mon système déjà si j'arrive pas à dire c'est quoi la performance je vais avoir encore plus de mal à parler de la robustesse, est-ce que ma performance se maintient alors on y a du mal parce que c'est très nouveau... c'est parce que les LLM ça a déferlé dans l'opinion publique il y a à peu près un an en vrai il y a quand même des travaux aujourd'hui qui se développent pour essayer de quantifier de mesurer et de mettre un peu de mathématiques de rigueur dans tout ça donc ça va venir, je l'espère en tout cas nous on est acteurs justement dans cette direction là J'espère que bientôt on pourra avoir des vrais KPI, Key Performance Indicators, qui diront vraiment est-ce que mon LLM je peux dire jusqu'à quel niveau je peux lui faire confiance.

Thomas
Je me demandais si le ML Ops était une réponse... utile face aux IA robustes ? Est-ce qu'aujourd'hui le MLOps, ça vous aide ?

Pierre
Déjà, qu'est-ce que c'est le MLOps ?

Thomas
Le MLOps, c'est le fait de pouvoir, dans les grandes lignes tracées, faire évoluer de façon pérenne une solution, pouvoir tester sa solution de machine learning avec quatre gros enjeux. Et aujourd'hui, dans les LLM, on a beaucoup de choses à découvrir. Il y a tout un aspect qualitatif aussi gros que le quantitatif. Le MLOps se base vraiment sur des techniques qui sont assez vieilles, sur du machine learning, qui ont déjà fait leur preuve depuis 10 ou 15 ans. Aujourd'hui, on essaie d'appliquer une philosophie un peu plus dev, de développeur, le DevOps, pour donner un cadre logique au déploiement des solutions qui intègrent de la donnée et des modèles d'intelligence artificielle, en plus que le développement. Est-ce que ça vous aide concrètement à rendre l'IA plus robuste déjà le MLOps ou ce n'est pas une réponse en tant que telle ?

Arnault
Ça en est une, en partie. Le MLOps, en fait, c'est de la rigueur juste. On va écrire des étapes bien définies avec des inputs, des outputs, des attendus. Et on va pouvoir mesurer à chacun des steps dans ce processus. Est-ce qu'on a franchi ou pas les attendus ? En fait, c'est de la rigueur de développement. Et en informatique, ça fait hyper longtemps qu'on sait faire ça et qu'on le pratique.

Pierre
C'est de l'intégration et du déploiement continu finalement, mais appliqué au machine learning, au modèle, etc.

Arnault
C'est ça. Et ce que j'aime à dire souvent, c'est que pendant très longtemps... Ceux qui fondent l'IA ont été vus un peu dans les entreprises comme des gens qui faisaient de la magie noire. Ils étaient dans leur coin, personne ne comprenait rien à ce qu'ils faisaient. Par contre, il fallait prendre pour argent comptant que ce qu'ils avaient produit, c'était génial.

Pierre
Tu parles de l'époque où l'IA et le machine learning étaient assurés par ce qu'on appelle les data scientists, principalement. C'est peut-être plus scientifique qu'informaticien.

Arnault
En fait, surtout, on avait des petites équipes de data scientists qui étaient dans leur coin. qui ne rendaient finalement pas beaucoup de compte aux gens. On leur disait, il faut faire ça. Et eux, ils se débrouillaient. Boîte noire. Boîte noire, exactement. Et donc, eux, après, ils livraient un objet machine learning, que ce soit un LLM ou autre chose. Et voilà. Par contre, dans l'industrie, ce n'est pas comme ça que ça marche, en fait. Dans l'industrie, on a besoin d'avoir des processus documentés avec des gens dont on peut attester des compétences. On va vérifier que les processus ont bien été respectés, que la qualité de ce qui est produit est au rendez-vous. et ça c'est de la rigueur en fait ça c'est du ML Ops,

Pierre
c'est du DevOps donc effectivement si on veut un produit de qualité où on peut dire il est robuste il faut avoir un processus qui permet de mesurer ça tout au long du développement et d'être réplicable ce processus quantifiable et on sait à chaque étape si c'est ça qui a produit ou détérioré de la qualité, de la régression etc.

Arnault
C'est ça et ça permet surtout pour ensuite les managers de pouvoir dire c'est quoi l'effort que j'ai besoin de faire pour avoir ce produit. Est-ce que c'est 3 mois de boulot ? Avec son qualité. Exactement. Et donc là, on rentre vraiment dans un processus industriel, mais hyper classique. De, j'ai mon triangle, le nombre de ressources nécessaires, le temps pour le faire et la qualité obtenue.

Pierre
Finalement, c'est le passage du on sort de l'éprouvette et du poc où on était souvent cantonné finalement à une approche industrialisation et développement logiciel plus classique qui permet du coup d'être intégré dans une chaîne de déploiement, de développement logiciel, etc.

Arnault
C'est ça, ce que je disais, on sort de la magie noire pour rentrer dans une ère industrielle, exactement.

Pierre
C'est une sorte de maturité finalement, de ce secteur.

Arnault
Oui, et c'est complètement cohérent en fait d'être passé par ces étapes au début où on bricolait parce que la technologie... se développer et les premiers usages apparaissaient, mais on n'avait pas tellement besoin d'avoir de la rigueur. Maintenant, vu qu'on veut massifier l'emploi, le déploiement, et en même temps que les risques augmentent, on est obligé de se couvrir en disant si je déploie à très grande échelle et que je touche des millions de personnes avec mon produit, est-ce que je peux garantir que ça ne va pas me retomber dessus après ?

Thomas
C'est exactement ce qu'on est en train de vivre actuellement avec les LLM finalement.

Arnault
Oui.

Pierre
Ok, très très clair et très intéressant. Du coup, je vais passer du coq à l'âne. On a parlé en intro de ce gros mot qu'on appelle AI Act. Je dis gros mot parce que ça déclenche des passions. C'est des débats passionnés entre ceux qui sont pour, ceux qui sont contre. C'est vraiment quelque chose d'important dans la tête des gens dans notre industrie. Est-ce que déjà tu peux nous en détourer un peu les grandes lignes de quoi il s'agit ?

Arnault
L'AI Act, c'est une réglementation européenne. L'AI Act, c'est une réglementation européenne. Du même ordre que le RGPD. Le RGPD, c'était celui sur les données personnelles. C'est en gros un règlement qui s'applique à tout le monde, à tous les États, à toutes les entreprises du territoire européen, de facto. La portée est très élevée puisque le droit national n'a pas tellement son mot à dire. Tout le monde aura le même AI Act, que ce soit en Allemagne, en Espagne ou en France. Ensuite, cet AI Act approche le problème de l'IA par une approche par les risques. Et en gros, il dit qu'il y a des trucs inacceptables, des choses tellement risquées, c'est interdit. Sur le territoire européen, vous n'avez pas le droit de faire ça.

Pierre
Donc ça, c'est quoi ? Des industries, des secteurs d'activité ou carrément par usage ?

Arnault
C'est des usages plutôt. Ils disent par exemple la surveillance de masse biométrique, le crédit social chinois avec des IA derrière, interdit. Ça ne respecte pas nos valeurs européennes, donc on n'en veut pas.

Pierre
Même pendant les JO ?

Arnault
Alors les JO, c'est un cas intéressant. Il y a tout un mécanisme d'exception et c'est hyper encadré pour justement dire est-ce qu'on a le droit exceptionnellement juste dans les gares ou dans les stations de métro avec énormément de garde-fous C'est comme le français, t'as beaucoup de règles et plein d'exceptions Il y a un peu de ça Je rigole mais moyennement quand même Il y a des choses où vraiment là ils ont dit c'est non C'est pareil, tous les trucs de manipulation de masse de l'opinion Ensuite, tout en bas, dans l'échelle des risques, il y a ce qui n'est pas risqué. L'IA dans les jeux vidéo, par exemple. Ils ont dit que si on faisait ce qu'on voulait, il n'y avait pas de problème. Un cran au-dessus, il y a le médium risque. Là, on retrouve tout ce qui est dans l'interactivité avec les chatbots, par exemple. C'est le fait que quand vous parlez à une IA, vous devez en avoir conscience. Vous ne parlez pas à un humain, vous parlez à une machine. Il faut que la machine vous le dise. C'est juste ça. Ce n'est pas bien méchant. Après, il y a la catégorie interne. C'est la catégorie entre le interdit et le médium.

Pierre
Ça doit être la catégorie où il y a le plus de débats.

Arnault
C'est celle-là où structurent les IAC. C'est la catégorie des IA à haut risque. Qu'est-ce que c'est une IA à haut risque ? Si on le prend de la manière la plus générale, c'est en gros une IA qui peut violer vos droits fondamentaux. Ça c'est une définition très large, donc le droit fondamental c'est quoi ? C'est par exemple le droit à la vie. Donc une IA qui peut vous tuer, c'est un système à haut risque. Donc une IA dans une voiture qui peut causer un crash, c'est une IA à haut risque. Une IA dans un dispositif médical qui peut être défaillant et vous mourrez à cause de ça, c'est une IA à haut risque. Mais il y a d'autres droits fondamentaux auxquels on pense un peu moins, c'est par exemple le droit au travail. C'est aussi reconnu en tant que droit fondamental. fondamentales en Europe. Une IA qui discriminerait massivement et empêchant des millions de personnes de travailler à cause de leur patronyme, c'est une IA à haut risque aussi. Puisque du coup, elle priverait les gens de ce droit-là. Donc, la définition est assez large. Après, il y a un énorme débat pour savoir comment on va détourer les frontières en disant est-ce que c'est à haut risque ou pas. Et là, les IAC te va permettre d'avoir de la souplesse, puisqu'il y aura des mécanismes, des corps de rappel pour régulièrement réviser ça, pour dire est-ce que c'est ça c'est vraiment à haut risque, est-ce que ça ne devrait pas le devenir, etc. mais en gros c'est ce package là d'IA à haut risque qui va être fortement régulé et c'est sur celui là que nous on travaille typiquement c'est pour dire ok comment je fais pour m'assurer que ce système qui est à haut risque et qui va être sur le marché, c'est le but je vais m'assurer qu'il soit fiable parce que s'il ne l'est pas là il risque d'y avoir des problèmes, il risque d'y avoir des morts il risque d'y avoir des discriminations et ça, ça va pas le faire et donc l'AI ACT il est là pour encadrer comment on va mettre ces systèmes sur le marché ok

Pierre
Je pense qu'on aurait beaucoup de choses à dire. J'ai plein de questions. Si un chatbot n'est pas classé dans l'AI à haut risque ?

Arnault
Oui, il a juste besoin de dire que je suis un chatbot. Quand vous démarrez la conversation avec lui, vous devez savoir que vous êtes en train de parler à un chatbot.

Pierre
Admettons qu'il discute avec une personne et qu'il lui dise de se jeter par la fenêtre.

Arnault
Alors là, on est dans le registre de la manipulation. Et on commence à se rapprocher des choses interdites.

Pierre
Mais comment tu peux définir qu'au départ, vu que c'est classé par usage, que ton IA, elle part en vrille ou elle hallucine, et elle sort de son... de sa cage finalement ?

Arnault
Là, ça sera au concepteur de mettre des cordes de rappel justement pour dire... Des saveguards. Oui, c'est ça, des guardrails ou des choses qui vont relire ce que l'IA produit pour vérifier que d'un coup, là, on n'est pas dans un registre où on change de classe. Mais par construction, en fait, pour dire qu'il va rester dans une IA pas au risque, il va devoir bien borner son domaine d'emploi, son usage. et ensuite il va borner évidemment si son IA peut sortir de ça il va devoir mettre des barrières ouais,

Pierre
ils doivent s'arracher les cheveux toutes ces réglementations j'imagine qu'il doit y avoir quelques pages dans ce document oui là c'est quelques centaines ok super t'en as lu un ? tu les as lu ?

Arnault
j'ai pas lu la toute dernière version qui est sortie il y a deux jours mais les précédentes oui ok super, je l'ai sur ma table de cheveux. c'est pour dormir, c'est parfait si vous avez besoin d'un bon somnifère.

Pierre
du coup ça me permet d'aller sur cette deuxième séquence du podcast qui est la partie un peu réglementation parce que t'as une deuxième casquette enfin t'as plein plein plein de casquettes mais en tout cas minimum deux, la deuxième c'est que t'as un rôle d'expert ISO alors qu'est-ce que c'est cette chose qu'est-ce que sont les normes ISO et notamment en matière d'intelligence artificielle

Arnault
Alors l'ISO, pour ceux qui ne connaissent pas du tout, vous en avez peut-être déjà entendu parler dans un temps quand les entreprises disent qu'elles sont certifiées avec ISO par exemple 9001. Et ça en fait ce sont des standards qui définissent par exemple la qualité de gestion dans l'entreprise. Donc ce sont des documents qui sont écrits collégialement par des experts, qui sont ensuite reconnus par des états, qui disent ok on pense que ce document il est suffisamment bien écrit, mature et utile à l'industrie pour qu'on le promulgue. Et ensuite les industries peuvent l'adopter et dire moi je suis les recommandations, les best practices qu'il y a écrites dans ce document. Et donc, je fais quelque chose de qualité. Je suis en train de lire un document qui parle de qualité. Depuis 2018, l'ISO a constitué un comité spécifique à l'intelligence artificielle. Ça s'appelle le sous-comité 42.

Pierre
42.

Arnault
Parce que c'est le 42e, mais le chiffre est parfait. Mais du coup, ils sont structurés depuis 2018. Après, il y a à peu près 30 pays qui participent activement. Et moi, je fais partie des experts qui sont dans la délégation française. pour pousser des positions au nom de la France et qui servent aussi des intérêts français. Et moi, je suis même un peu plus que ça, c'est que j'ai réussi à planter le drapeau sur un des sujets qui est traité à l'ISO, qui est la robustesse. Et donc, en fait, les standards qui parlent de la robustesse, c'est moi qui les pilote. C'est-à-dire que c'est moi qui organise les débats, qui recueille les avis et les contributions des différents experts des 30 pays. et qui essaye de faire aboutir le document avec un consensus international pour permettre justement de dire on est tous d'accord, c'est bon, la robustesse c'est ça, voilà comment on la mesure, etc. Donc mon rôle il est aussi de faire ça, je suis éditeur on appelle ça, de standards ISO.

Thomas
Mais à ce niveau là c'est de la politique ou encore du dev ?

Arnault
Alors on se rapproche plus même de la géopolitique, puisque en fait on voit apparaître les tensions entre les différentes... Les différents états, avec un bloc typiquement anglo-saxon qui n'est pas tellement pour écrire des standards trop contraignants, parce qu'ils aiment plutôt le free market et laisser les entreprises s'auto-réguler. Les européens, à l'inverse, qui veulent plutôt des standards assez stricts, qui vont définir des attendus très précis, et si on ne les a pas, on n'est pas certifié. Et après, il y a tout le jeu avec les autres pays. qui peuvent être influencées par des entreprises comme les GAFA, qui sont présentes partout dans le monde et qui poussent aussi leurs intérêts. C'est un jeu un peu complexe entre les intérêts nationaux, les intérêts d'entreprises transnationales et d'entreprises nationales qui essayent aussi, comme nous, de défendre notre bout de pain, puisqu'on vend des outils sur la robustesse, on écrit le document sur la robustesse, et effectivement, on a un intérêt très fort à ce que le document soit bien écrit.

Pierre
Tu as une question Thomas ? Non,

Thomas
ça fait penser à une série Le jeu du troll un petit peu dans quelle mesure on donne de l'importance aux choses et en fait moi ça me fait tout de suite penser au fait que on a parlé du MLOps auparavant la nature du MLOps c'est de dire qu'on est dans un environnement qui est non déterministe c'est à dire que les données et les modèles ils dépendent par nature des données qu'on ne contrôle pas qui dépendent des... personnes qu'on a en face de nous, comment on fait pour garantir, au-delà de mettre en place, garantir des normes qui restent pertinentes et évolutives à travers le temps ?

Arnault
Alors, les normes, ce sont des documents qu'on révise régulièrement, au moins au plus tard tous les 5 ans. Il faut réouvrir une norme pour vérifier est-ce qu'elle est toujours suffisamment à jour par rapport à l'état de l'art. Ce sont des documents évolutifs. Évidemment, on ne va pas se mentir, l'état de l'art avance plus vite que les normes. On met à peu près trois ans pour sortir un document à l'ISO. Entre le moment où on lance le document et le moment où il est publié, effectivement l'état de l'art a déjà pas mal évolué, surtout dans le domaine de l'IA. C'est toujours un peu compliqué de dire est-ce que ce document est suffisamment mature ou est-ce qu'il suit relativement bien. bien l'état de l'art. Ce qu'on essaye de faire, surtout, c'est de définir des principes qui, eux, normalement, restent un peu intemporels, mais vont rester un peu stables. La robustesse, si je me place 20 ans en arrière avec les IA qu'on avait au début des années 2000, globalement, ça sera à peu près le même concept que maintenant. Il n'y a que sur les LLM où, là, d'un coup, on se dit, ah, tiens, là, on a peut-être loupé un truc. Effectivement, la robustesse des LLM, c'est pas aussi simple, mais la robustesse des IA d'il y a 20 ans ou celle d'aujourd'hui, hors LLM, ça passe. Donc quelque part, c'est ça qu'on essaye de définir. Ce sont des choses assez génériques, assez horizontales, on dit, pour que ça soit applicable dans tous les secteurs, et qui soient suffisamment stables pour qu'on se dise c'est bon, dans six mois, ça aura encore un sens de l'avoir écrit.

Pierre
Et du coup, tu as dit qu'il y avait 30 pays qui se sont représentés. Il y a la Chine.

Arnault
Alors oui, très clairement, la Chine est un des gros poids lourds de l'écosystème.

Pierre
Et en fait, je ne comprends pas le concept, parce que... En fait, du coup, eux, ils participent à rédiger une norme dont, a priori, ils s'en foutent un peu quand même, chez eux.

Arnault
Non, parce qu'en fait, ce qu'ils veulent rédiger, si c'est une norme ISO qui est appliquée partout dans le monde...

Pierre
Ah, c'est la rédiger pour les autres ?

Arnault
Ben ouais, pour qu'ils puissent exporter plus facilement leurs produits dans d'autres zones géographiques. Je ne vais pas rentrer dans le débat sur l'OMC, mais dans le principe, la position de la Chine, c'est effectivement d'essayer de faire en sorte de favoriser aussi son industrie, comme tout le monde à l'ISO, tout le monde essaye de défendre ça. Mais eux, ce qu'ils aimeraient, c'est effectivement que les normes leur soient aussi favorables pour qu'ils puissent exporter en Europe, en Amérique ou en Afrique leurs produits d'intelligence artificielle.

Pierre
Et du coup, il y a un lien entre les normes ISO et l'AI ACT ou pas ?

Arnault
Alors oui. Alors là, il faut rentrer un peu dans la technique de comment l'AI act se structurent.

Pierre
Ça va être plus compliqué que de discuter d'intelligence artificielle, je pense.

Arnault
Donc, l'AI act, c'est le règlement européen. il vous dit qu'est-ce que vous devez faire. Il vous dit que vous devez faire des IA robustes, vous devez faire des IA explicables, etc. Il vous donne tout ça. Mais il ne vous dit absolument pas comment. Le comment, en fait, c'est un organisme de standardisation européen qui s'appelle le CEN-CENELEC, qui doit rédiger des documents de standardisation qui disent comment on fait. Comment on fait de l'IA robuste, comment on fait de l'IA explicable, etc. Ce CEN-CENELEC, j'en fais partie aussi, puisque c'est là où ça se joue, Lui, il a une mission, c'est que d'ici à mars-avril 2025, c'est-à-dire dans pas longtemps, il doit fournir ce corpus de documents à l'Europe. En disant, c'est bon, on a rédigé ce que vous nous avez demandé, voilà la copie, vous pouvez adosser ça à l'AI Act. Et si les gens lisent l'AI Act et ses documents, et qu'ils les appliquent, ils seront présumés conformes. Donc ça, c'est super. Ça veut dire, en gros, on vous fait confiance. Le truc, c'est qu'évidemment, le CEN-CENELEC, en un an et demi... il n'a pas le temps de rédiger from scratch tous ces documents. Donc qu'est-ce qu'il fait ? Il va taper à la porte de l'ISO et il dit Excuse-moi, mais est-ce que vous n'auriez pas déjà des documents sur la robustesse par exemple ? Et là l'ISO répond Oui, oui, ça fait depuis 2018 qu'on bosse dessus, donc si vous voulez, vous pouvez les prendre. Ce qui se passe en ce moment, c'est que le CEN-CENELEC importe les standards ISO, les repeint en normes européennes, et prépare le package comme ça pour répondre à l'AI ACT. Donc effectivement, l'ISO a un impact sur la manière dont on va implémenter l' AI ACT à travers le CEN-CENELEC.

Pierre
J'ai perdu un hémisphère de cerveau.

Arnault
J'ai essayé pourtant d'être didactique, mais j'espère que je n'ai pas tué tout le monde.

Pierre
Non, mais c'est super intéressant ceci dit. Et Thomas, je sais que Thomas a plein de questions.

Thomas
En fait, je pars du principe que l'AI acte, on le subit plus qu'autre chose. Ça a des vertus à long terme, bien évidemment, mais ça nécessite des changements de la part des entreprises ou des solutions à mettre en place. Est-ce que ça a été... autant difficile de considérer la GDPR, la gestion des données personnelles, sur l'aspect IA ? Puisque là, on a le AI Act qui va toucher directement ton domaine sur la robustesse de l'IA. Mais est-ce que quand on a eu un hack, on a parlé de RGPD, ça a beaucoup impacté aussi ton travail ? Vous avez dû retoucher les normes et ce genre de choses ? Pas du tout.

Arnault
Alors le RGPD a un lien avec les IA, puisqu'effectivement pour faire de l'IA il faut des données, si c'est des données personnelles il y a le RGPD dans l'affaire, donc ça évidemment. Après de manière pratico-pratique, si le sens de ta question c'est est-ce que les IA va modifier toutes les pratiques de faire de l'IA dans l'industrie, la réponse n'est pas forcément, puisqu'il faut se rappeler que c'est une approche par les risques, et si vous n'êtes pas dans la catégorie à haut risque, a priori, vous faites un peu ce que vous voulez. Si vous êtes dans la catégorie sans risque, l'IA pour les jeux vidéo, eux, ils ne changent pas une ligne de leur process actuel de fabriquer des IA. Là où le RGPD, par contre, touchait tout le monde. À un moment donné, tout le monde a une newsletter, tout le monde a un site web où on peut s'inscrire. Eux, par contre, là, c'était beaucoup plus large, l'impact pour les entreprises. Donc l'IA, pour moi, ne va pas changer... toutes les entreprises, par contre, celles qui vont être affectées vont devoir penser en profondeur comment ils vont mettre des IA à haut risque sur le marché.

Pierre
Du coup, excuse-moi, ça me fait penser encore à une autre question, mais les modèles de fondation, tu peux avoir plein d'usages de modèles de fondation différents, parce qu'après, notamment les modèles que tu fournis sur les plateformes en open source, etc. derrière potentiellement ils seront réutilisés, fine-tunés, whatever, etc. et potentiellement mis dans d'autres outils pour devenir finalement par héritage. Est-ce qu'il y a une responsabilité en cascade des producteurs des modèles de fondation par rapport aux usages finaux qu'ils pourraient avoir par d'autres personnes qui les utilisent en fait ?

Arnault
Alors là il faut un juriste pour vraiment répondre le plus précisément à ta question, mais dans le principe, si tu utilises un composant extérieur, c'est de ta responsabilité de t'assurer qu'il va te permettre d'être conforme.

Pierre
Donc si demain, admettons, je prends un exemple, demain je prends un modèle Mistral ou Lama ou autre, il faut que moi je m'assure déjà que eux soient conformes avec les high-act et ensuite il faut que je m'assure que mon usage aussi va y être conforme si je le détourne ou si j'utilise des usages à risque, c'est ça que tu veux dire ?

Arnault
De manière générale, hors LLM, on va mettre les LLM et les modèles de fondation juste de côté deux secondes, si tu prends un modèle pré-entraîné, un réseau de neurones pré-entraîné, classique, pas LLM... si tu l'intègres dans ta chaîne de production et que tu la réentraînes ou que tu le fine-tunes, c'est de ta responsabilité de t'assurer qu'il ne va pas mettre en péril ta propre conformité. Logique. En tant qu'intégrateur de ce composant, c'est à toi de vérifier que ton fournisseur a le bon niveau de conformité. Le problème avec les modèles de fondation, c'est que justement, c'est un peu des grosses boîtes noires et vu qu'elles sont à usage général, Pour eux, c'est vachement dur de dire pour tous les usages.

Pierre
Tu ne peux pas les classer sur toute la pyramide.

Arnault
C'est le problème. C'est là où je pense qu'il faut que je... Là, on est le 15 mars et il aurait fallu peut-être faire l'interview dans une semaine, le temps que j'ai le temps de lire la dernière version.

Pierre
Non, mais on a deux, trois heures,

Arnault
on peut bosser un petit peu. Je peux vite fait regarder ce qu'ils ont mis. Parce que le gros débat entre la dernière version et celle-là, ça a été ça. Ça a été comment on va vraiment traiter les modèles de fondation. On sent bien que c'est problématique. Et surtout, toute la partie sur les modèles de fondation a été rajoutée à la toute fin de l'AI Act dans le process.

Pierre
Dans fondation, excuse-moi, rappelle-moi, il y a fondation, non ? Donc ils l'ont traité à la fin.

Arnault
Alors, ça a été appelé modèle de fondation, même si le terme, je ne trouve pas forcément le meilleur. Mais en fait, c'est sorti une fois que ChatGPT est apparu, dans le radar du moins du public.

Pierre
Oui, bien sûr, il y a un an.

Arnault
L'AI Act, ça fait, je crois, si je me rappelle bien, les premiers travaux, c'est 2019. Donc si tu veux, ça fait beaucoup plus longtemps que les législateurs se mettaient d'accord et commençaient à converger vers un texte, et à la toute fin, on leur dit, il vous manque un pan entier qui s'appelle l'IA générative, débrouillez-vous, rajoutez-le. Et évidemment, ça fait un peu une verrue sur le texte, si tu veux. Le texte n'était pas pensé depuis le début pour l'IA générative aussi, donc ils ont essayé de rajouter ça par-dessus avec les histoires de modèles de fondation, mais on sent bien que c'est la partie de la législation qui risque d'être amendée dans les années qui viennent, parce que... ça bouge tellement vite, on ne sait pas vraiment où on va, que ce n'est pas certain de ce qu'on va faire.

Thomas
Il y a vraiment beaucoup de sujets encore. On voulait ensuite parler un peu de la souveraineté, c'est un fort sujet, tu as parlé de la Chine, Pierre, ça me paraît cohérent, un peu des Etats-Unis aussi. Mais avant de passer à cette étape, il y avait Mohamed de l'ancien épisode qui avait posé une question pour le prochain invité, un autre et le prochain invité. Moi je considère que ça a un petit rapport avec la souveraineté dans une certaine mesure. Quel est l'avenir des RAGs dans un écosystème où les LLM, ils ont une fenêtre de contexte, aujourd'hui de plus d'un million de tokens, mais en réalité qui évolue de jour en jour. Quand avec le RAG, tu peux créer un semblant de garde-fou, le fait de créer des énormes contextes, tu peux changer complètement la donne et tu peux perdre le contrôle des RAGs que tu aurais mis en place ou des garde-fous de façon générale.

Pierre
Est-ce que tu peux juste, peut-être Arnaud, toi qui es le spécialiste rappelé pour nos auditeurs, mais sans rentrer non plus dans les détails ? fondamentaux de ce que peut être un RAG ?

Thomas
Ah oui, pardon.

Arnault
Alors, je pense que ce n'est pas forcément moi la meilleure personne pour répondre à cette question. Je ne suis pas assez qualifié sur ça.

Pierre
Toi, Thomas, tu peux le définir ? Si Thomas,

Arnault
je pense que tu le définiras mieux.

Thomas
De façon extrêmement simple, un RAG, c'est juste de lui apprendre avec des données supplémentaires. Donc, le cas le plus simple, surtout dans les entreprises, c'est qu'on va fournir au modèle de fondation des données, des textes. qui proviennent de l'entreprise et donc qui sont très précis pour un besoin bien spécifique. Pour des mots, par exemple, qui pourraient ne pas connaître, qui sont propres à l'entreprise. C'est un niveau un peu en dessous du fine tuning et ça permet déjà d'avoir des résultats qui sont très cohérents pour des cas d'usage en entreprise.

Pierre
Donc ça voudrait dire que ta question, c'est qu'on n'aurait plus besoin de cet outil-là ou de cette méthodologie qu'on appelle RAG parce que les fenêtres de contexte des LLM deviennent énormes et en fait, à chaque fois... tu pourras coller tout ton contexte, c'est ça ?

Thomas
Pour recontextualiser un tout petit peu, c'est qu'au moment où on avait ChatGPT qui est sorti, on avait un contexte qui était assez limité et le RAG, ça a été une des solutions de dire bon, en fait, on peut donner plus de contexte. en fournissant des documents supplémentaires à ChatGPT de façon très simple. Mais aujourd'hui, les modèles, les LLM, ils permettent de prendre beaucoup, beaucoup, beaucoup plus de contexte. Donc ça crée une certaine concurrence entre les deux. Il y a un débat beaucoup plus profond là-dessus, mais c'est vraiment pour essayer de simplifier la chose.

Arnault
Si je prends le modèle économique de OpenAI, c'est finalement de pouvoir fincuner la base de ChatGPT à votre besoin. Donc eux, visiblement. C'est plutôt ça qui les intéresse, c'est de pouvoir construire un modèle économique disant je vais faire votre chat GPT spécialisé dans votre secteur, pour votre entreprise, pour vos clients. Ça, ça fait sens parce que pour moi, finalement, une IA de fondation, c'est une IA qui a les bases pour parler, échanger dans une langue, dans plusieurs langues, mais qui n'est pas forcément experte en tout. L'expertise, ça viendra par la spécialisation, ce qui était d'ailleurs le modèle initial de l'IA. Avant les IA génératives, les IA sont hyper spécialisées. Elles font une tâche super bien. Par contre, elles ne font rien d'autre. Donc, quelque part, pour moi, ça reste cohérent d'aborder le sujet de la performance des IA comme un sujet de spécialisation du domaine.

Pierre
Ok. Souveraineté, éthique, au cœur du combat. Donc, l'AI Act a été ratifié début février. La nouvelle version, la dernière version, a été signée il n'y a vraiment pas longtemps, quelques jours. On peut se poser la question de, est-ce que les IAC, cette énorme réglementation et cadre juridique, peut-elle freiner ou en tout cas, peut-elle ralentir la dynamique d'innovation en Europe versus l'avancement des US et de la Chine qui sont déjà, on le sait, plus avancés, techniquement plus avancés. Est-ce qu'on n'est pas déjà en train de se mettre un bâton dans les roues et des obstacles devant cette course ?

Arnault
Pas forcément. D'une part, il faut voir qu'il y a un executive order de Biden qui ressemble furieusement au contenu de l'AI Act. qui a été pris sur l'IA il y a maintenant je crois presque un an. Donc quelque part, il y a une demande aussi de leur côté d'avoir une forme de régulation. Alors, ils ne l'ont pas tout à fait structuré pareil, mais quand on lit le texte de l'executive order, globalement on retrouve quand même les idées clés. Donc, on se dit que déjà, côté américain, il y a cette compréhension qu'il y a un besoin d'encadrement. Même les chinois, finalement, ont aussi... mis en place des guidelines et des réglementations en interne. Donc, quelque part, eux aussi savent qu'il faut encadrer l'affaire pour qu'elle se passe bien. Pourquoi ils font tout ça ? Et nous aussi, ma vision de la chose, c'est que le point clé de l'utilisation de l'IA pour que ça marche, c'est l'adoption. Il faut que les gens aient confiance dans la techno. Et aujourd'hui, le déficit de confiance qu'on peut avoir, de défiance même qu'on peut avoir, une manière d'y répondre, c'est en montrant patte blanche avec de la réglementation, avec des labels, avec des certifications, avec justement des preuves et des tiers de confiance qui attestent. que ça a été fait dans les règles de l'art, que c'est une bonne IA, de confiance, etc.

Pierre
Un tampon, quoi.

Arnault
Exactement. Aujourd'hui, ce qui fait quand même que les gens montent dans des voitures ou dans des avions, c'est parce qu'on sait qu'il y a quand même des industries qui sont hyper encadrées avec des processus, avec des contrôles, avec des certifications qui sont hyper lourdes à mettre en œuvre. C'est clair, si l'automobile n'avait pas tout ça, ça coûterait peut-être moins cher de faire des véhicules. Par contre, il serait vachement moins sûr. et donc les gens les utiliseraient peut-être moins. Si on veut avoir une adoption de masse, il faut avoir une confiance de masse.

Pierre
Du coup, ça m'a fait penser pour la voiture, mais bon, c'est pas grave, on pourra en parler des Tesla et Full Safe Driving et de ces réglementations. Est-ce que toi, tu as des cas concrets où la réglementation pourrait servir l'innovation finalement, des cas d'usage finalement ? ou dans les systèmes critiques, je crois, dans les industries critiques.

Arnault
Exactement. Dans les industries critiques, si je prends l'aéronautique, aujourd'hui, les standards en vigueur, qui réglementent comment on a le droit de mettre du logiciel dans un avion, interdisent purement et simplement l'usage de l'IA dans les fonctions critiques de l'avion. Tout ce qui va être pilotage, déploiement du train d'atterrissage ou navigabilité de l'avion.

Pierre
Déploiement du train d'atterrissage quand c'est un Airbus, pardon.

Arnault
En tout cas, c'est interdit de mettre de l'IA pour ça. C'est écrit noir sur blanc dans le standard. Forcément, vous êtes avionneur, vous voyez que le marché est fermé. C'est impossible. ce qui se passe maintenant, c'est que justement, l'IA Act, il dit, écoutez, ces fonctions-là critiques de navigation de l'avion, ça rentre clairement dans les systèmes à haut risque, si vous mettez une IA, il n'y a aucun doute là-dessus. Si vous le faites de cette manière-là, on peut parler d'IA de confiance. Et donc vous, vous pouvez, vous, dans le vertical aéronautique, possiblement réformer votre manière d'aborder le sujet de l'IA en vous basant sur l'IA Act. Et donc à partir de là, en fait, ce que ça fait, c'est que ça ouvre. la porte pour pouvoir mettre des fonctions d'IA dans des systèmes qui aujourd'hui les interdisent.

Pierre
En vous reposant sur la norme.

Arnault
Exactement. Ça veut dire que là, en fait, on crée des marchés pour l'IA, qui aujourd'hui, sinon, no go. Vous n'avez pas le droit de vendre ça.

Pierre
Très clair.

Thomas
J'ai une question qui est peut-être un petit peu personnelle, mais finalement, est-ce que tu as un avis sur la situation de la souveraineté française, ou à plus forte mesure européenne, mais la France c'est mieux, face au reste du monde, concernant à la fois la data et l'intelligence artificielle ? Merci.

Arnault
La position européenne et française sont à peu près similaires. La France a peut-être l'avantage d'avoir les meilleurs universitaires et les meilleures écoles de formation en IA par rapport au reste de l'Europe. Pour moi, je vais peut-être m'élever un peu dans le niveau stratégique, mais clairement la bataille du cloud, on l'a perdue. Le stockage des données, ce n'est pas l'Europe qui a la mainmise là-dessus. Donc là où les Américains se sont engouffrés dans la brèche sur l'IA, c'est qu'ils ont dit, nous on va faire de l'IA à partir de données massives. Parce qu'on a le cloud, donc forcément on a les données. Donc nous on a l'avantage. Donc dont acte, clairement, sur ce terrain-là, ça va être très compliqué de battre les Américains à leur propre jeu. Là où par contre, on peut être malin, c'est qu'il n'y a pas que ça en fait comme IA. On peut faire de l'IA différemment. On peut faire de l'IA avec moins de données, on peut faire de l'IA frugale, et donc on peut inventer. d'autres modèles d'IA qui peuvent être peut-être tout aussi performants, voire mieux, il faut voir, c'est de la recherche, sur lequel nous, Européens, on pourrait avoir un avantage stratégique. C'est-à-dire de dire, en fait, j'ai pas besoin de votre cloud pour le faire. Je peux le faire avec le peu de données que j'ai chez moi et je serai quand même compétitif par rapport à vous. Et cerise sur le gâteau, en général, quand je fais ça, je consomme moins de carbone. Enfin, j'en produis moins. Je consomme moins d'eau. En plus, je suis green. Et ça, pour le coup, c'est vachement apprécié en Europe. Sur le marché européen, si j'arrive à m'afficher comme ça, j'ai un avantage compétitif par rapport à vous, américains qui, par contre, vous polluez avec vos dizaines de milliers de GPU pour entraîner votre chatGPT. donc il y a un positionnement qu'on peut construire en réponse à cette domination américaine ou même chinoise sur le même principe du massive data pour faire de l'IA en allant chercher un autre modèle d'IA par contre ça demande des efforts de R&D, ça demande une politique publique volontaire pour le faire, ce qui n'est pas évident mais c'est faisable ça peut être une voie de sortie pour éviter d'être sur le même terrain de bataille en fait que eux parce que clairement on n'est pas en mesure de remporter comme ça...

Pierre
Et du coup, quand tu parles de... Quand on parle de normes, on a parlé de cadres, de réglementations, etc. Il y a un mot qui m'intéresse et qui revient beaucoup à la mode, c'est le terme d'éthique. Comment on peut garantir ou travailler pour que ces normes soient alignées avec cette notion d'éthique ? Est-ce qu'il faut définir l'éthique ?

Arnault
Alors ça, c'est les grands débats qu'on a beaucoup en Europe. notamment au CEN-CENELEC sur comment implémenter des standards d'éthique sur un territoire sachant que l'éthique est dépendante de là où vous êtes vous êtes en Chine, vous n'avez pas la même éthique que vous êtes en Inde ou en Afrique ou en Europe donc ça veut dire que nous européens, on a une série de valeurs qu'on peut ensuite décliner dans des principes qui vont constituer un socle avec des règles éthiques mais elles seront sont valables probablement que pour nous, même si on appelle ça des règles universelles, etc. En vrai, elles ne le sont pas de facto. Elles ne sont pas si universelles que ça. Donc, il faut, nous, réussir à définir, par rapport à nos valeurs en tant qu'Européens, qu'est-ce qui est important pour nous, pour qu'ensuite on puisse traduire ça sur le territoire européen, en des guides pratiques, des guidelines, etc. Un exemple concret, c'est par exemple, l'éthique, c'est finalement sur tout le processus qu'il faut. de le prendre en compte, y compris par exemple dans la sélection des données.

Pierre
Tout à fait, pour éviter les biais et tout, on parle de ces choses-là.

Arnault
Mais même juste, quel type de données vous utilisez ? Il y avait eu un scandale aux Etats-Unis, une entreprise qui avait fait des logiciels de reconnaissance faciale qui pré-entraînaient son algorithme avec des données, avec des gens qui étaient tous dans des tenues orange. En gros, je ne suis pas tellement sûr que les prisonniers des prisons américaines avaient donné leur conscience. pour que leurs photos servent à entraîner des IA. Là, on se dit bien, il y a peut-être un sujet, effectivement. Il faut que l'entreprise se pose la question, est-ce que je suis d'accord pour finalement prendre ces données-là pour entraîner mon système ? Peu importe ce que je vais en faire après, peut-être que c'est pour faire énormément de bien, mais en même temps, j'ai quand même déjà un caillou dans la chaussure parce que je n'ai pas choisi de manière très éthique la manière dont j'ai sélectionné mes données.

Pierre
C'est vraiment, totalement passionnant. On en a parlé récemment. pas mal de Gemini qui est un modèle de Google et on ne va pas se faire des amis on a déjà les chinois contre nous les américains on ne va vraiment pas se faire des amis on va avoir des contrats sur nos têtes mais il y a eu une affaire de ce qu'on appelle le wokisme là aussi on touche quelque chose de sensible et ça a aussi un peu rapport finalement à la sélection des datas comment tu... Tu peux lutter contre ça finalement en tant qu'entreprise ou même en tant que cadre réglementaire finalement. Parce que là, on est dans la manipulation.

Arnault
C'est hyper intéressant parce qu'en fait, là clairement, eux, ils ont appliqué leur éthique. L'éthique de Google. Oui, leur éthique. C'est-à-dire que dans leur référentiel éthique, en fait, ce qui se passait dans ces algorithmes, c'est que ce n'est pas tellement l'IA en tant que telle, c'est le pré-processing et le post-processing qui en fait réécrivaient vos requêtes et vos propositions. pour inclure nécessairement des attributs de genre ou de couleur de peau différents. Histoire de faire de la diversité.

Pierre
Mettre le prompt dans des bonnes conditions qui leur allaient bien, finalement.

Arnault
C'est ça. Et ça, là, pour le coup, c'est conscient. C'est écrit...

Pierre
C'est volontaire de la part de l'entreprise.

Arnault
C'est écrit dans une spec. Il y a quelqu'un qui a écrit Vous faites en sorte que le prompt, vous le réécrivez comme ça, avec une spec très précise, à mon avis, de comment il fallait le faire. Donc, ça... C'est une exigence qui a été mise par des développeurs ou par les responsables de ces développeurs pour le faire.

Pierre
Donc là on est typiquement dans quelque chose où une loi ou une réglementation qui encadre aussi ces pratiques avec l'éthique aussi comme feature caractéristique aurait pu faire du bien.

Arnault
La loi va vous dire que vous devez tenir compte des principes éthiques dans votre conception. Si les standards vont jusqu'à dire que vous devez modifier pour être plus inclusif dans l'intégralité des promptes, si le standard écrit ça, l'entreprise qui le fait pourrait dire que je suis conforme à ce standard.

Pierre
Non mais en fait là ça va être un problème parce qu'en fait on demande de savoir finalement la vraie question c'est de savoir si la discrimination positive rentre dans ce qu'on pourrait appeler une éthique acceptable pour l'Europe

Arnault
Et là je pense que le point de vue des Américains et des Européens divergent à mon avis Donc c'est complètement idéologique là en fait Oui c'est exactement ça et c'est pour ça que je disais le premier point avant de parler d'éthique c'est de parler des valeurs c'est quoi les valeurs européennes et à mon avis c'est pas les mêmes que les américains et c'est pas les mêmes que les chinois et donc à ce moment là c'est normal qu'on diverge en termes d'implémentation ensuite de l'éthique qui a découlé si d'un côté tu prends la data et

Pierre
que la data elle est biaisée et que de l'autre côté tu veux dire j'ai envie de débiaiser la data et que tu installes des règles pour faire du wokisme ou de la discrimination positive comment finalement on fait pour avoir un système justement qui soit dans ces valeurs là dans ce cadre là tu

Arnault
peux toujours retraiter tes données pour refléter une manière d'enlever les biais qu'elles pourraient contenir il y a quand même des techniques en maths qui vont permettre de travailler sur ça. Je ne dis pas que c'est simple, je dis juste qu'il y a des techniques. Après, quelque part, c'est à l'entreprise d'être transparente sur quelles sont les valeurs et l'éthique qu'elle va appliquer.

Pierre
On pourrait en parler parce qu'on n'a rien en fait. On n'a pas les algos, on n'a pas les poids, on n'a rien.

Arnault
Aujourd'hui, effectivement, c'est Blackbox. Là où par contre, dans une démarche de conception selon les AI ACT, il y a déjà beaucoup plus d'exigences de transparence pour expliquer Montrez-moi comment vous avez fabriqué votre affaire. Montrez-moi quelles ont été les étapes, les choix de conception, les choix de validation. Montrez-moi tout ça. Tout ça, c'est demandé. Donc quelque part ça va forcer les entreprises si vous voulez aller dans une direction woke ok, vous avez le droit de le faire par contre il faut le dire, il faut le préciser il faut que les gens soient conscients que là ils parlent avec une IA qui a une conception qui tient compte de tel et tel paramètre critères, valeurs, etc.

Thomas
Si je savais qu'on allait parler de philosophie pendant ce podcast j'aurais peut-être pu s'écouter en cours cette partie là voilà On a toujours une dernière question Arnaud, c'est quelle est ta question pour le prochain invité ?

Arnault
Le prochain invité, je ne sais pas qui c'est évidemment.

Pierre
Bien sûr que non,

Arnault
c'est la magie. Un sujet je pense qui mériterait d'être abordé par le prochain invité, c'est qu'on a parlé de souveraineté, on a évoqué l'IA et les algorithmes, par contre on n'a absolument pas évoqué le hardware. et je pense une vraie question c'est aujourd'hui comment on peut espérer rester souverain si on n'a pas de filière hardware qui permettront de soutenir l'effort de l'intelligence artificielle super

Pierre
question Super question, parce qu'il est beaucoup question d'air de bois en ce moment avec des arrivées de LPU en face des GPU, donc des architectures spécifiques pour traiter des problématiques de LLM et d'IA. Génial question, ça aurait pu durer encore des heures et des heures. Je me demande si on ne va pas devoir faire un deuxième épisode avec toi Arnaud.

Arnault
La revanche.

Pierre
Parce qu'il y a plein d'autres trucs dont on aimerait parler. Je sais que tu es aussi impliqué dans tout ce qui est comité de défense aussi et l'IA pour la défense. Et ça aussi c'est des choses qui sont à la fois très stratégiques, critiques. dont on pourrait parler un grand grand grand merci à toi Thomas pour ces questions, je sais que tu as été passionné aussi par tout ça et un grand merci Arnaud très content d'avoir fait cet épisode et j'espère que vous aurez passé du bon temps à écouter tout ça et que ça sera un peu moins opaque pour vous, toutes ces questions là merci Arnaud,

Arnault
merci Thomas merci à vous

Créateurs et invités

Pierre Vannier
Hôte
Pierre Vannier
Fondateur et PDG Flint, Dev Backend / IA, agitateur Tech ✨
Thomas Meimoun
Hôte
Thomas Meimoun
Machine Learning Engineer / Data Scientist
Arnault Ioualalen
Invité
Arnault Ioualalen
CEO and R&D director at Numalis
#7 - AI Act / Normes ISO : une nécessité pour une IA éthique et de confiance ?
Diffusé par