#17 - Philosopher l’IA : Création, éthique et société avec Flavien Chervet
Alors bonjour à tous et bienvenue dans ce nouvel épisode du podcast Il pas que la data. Nous venons de passer un cap symbolique des 5000 écoutes. Donc merci à tous. Moi, je suis Pierre Vanier, fondateur de Flint, est une ESN Tech dans l'IA, dans la data, accompagne les entreprises dans le développement de leurs produits techno. Et je suis toujours accompagné cette fois encore en physique qui nous rejoint du Grand Nord tabarnak, du Québec, Thomas.
qui est senior machine learning engineer. Salut Pierre. Salut. Et donc après les derniers podcasts passionnants qu'on a eus avec Rémi Louf, avec Gaël Varroco, où on a échangé autour du déterminisme des IA, etc. Aujourd'hui, on reçoit Flavien Shervelle. Et bonjour Thomas. Salut Pierre. Bonjour Flavien. Salut. Donc on est ici dans les studios de Orso Media, qui sont connus aussi pour être les studios du podcast. on fait un petit coucou à Mathieu Stéphanie du podcast de Génération Do It Yourself. Bonjour. Super beau podcast. Très beau podcast. Super en studio. Bravo. Alors, on a pas mal de pas mal de trucs à discuter. Tu es pluridisciplinaire, tu es à plein de casquettes, tu es transverse. En fait, j'arrive pas à, c'est rare, mais j'arrive pas à te qualifier.
J'arrive pas à te faire rentrer dans une case, mais peut-être qu'en fait c'est bien de réussir à te faire rentrer dans une case. T'as peut-être pas envie d'être dans une case. C'est un très beau compliment que tu me fais. Donc du coup, co-fondateur, directeur, innovation, dirige, vice-président de Lyon, Izaï, auteur des livres qui s'appellent Hyper création, Hyper prompt et d'un livre qui va sortir en janvier Hyper arm. Tout à fait. Et donc voilà, parcours transdisciplinaire, philosophie, mélancophilisophie, design.
et sciences ? Ouais je pense que vis-à-vis de l'intelligence artificielle c'est vraiment ce qui me spécifie le plus ma case c'est les frontières on va dire donc j'essaye d'abord, je suis un geek je code depuis que je suis très jeune J'ai entendu ça à 8 ans tu faisais déjà des... 8 ans non à 13 ans c'était mon... à 3 ans non à 2 ans s'il vous plait les gars non j'ai appris à coder en fait j'ai commencé le code dans mon stage de troisième
me suis retrouvé dans une équipe de devs, ils m'ont montré le JavaScript et j'ai fait wouah c'est quoi cette magie noire ? c'est cool parce que tu m'aurait montré le JavaScript en troisième, je pense que j'aurais peut-être devenu dépressif en fait. J'aimais bien les maths donc forcément c'est un truc qui m'a qui a raisonné quoi. Et puis c'est vrai, à cette époque là tu t'es un peu con donc tu vois un truc qui donne un super pouvoir, tu te dis comment je vais pouvoir draguer des filles avec, comment je vais pouvoir... Draguer des filles avec le JavaScript. ça a marché ? Oui alors petite anecdote incroyable.
C'est un peu l'anecdote à la Zuckerberg, sauf qu'il a pas un Facebook derrière qui a été créé. Mais j'avais développé une petite page web avec du JavaScript, du PHP, trois conneries. C'était un petit formulaire, tu remplissais des cases et en fait c'était censé te prédire ton signe astrologique parce que j'avais déjà compris qu'à l'époque ça marchait bien quoi. Et en fait évidemment c'était du bullshit, j'allais parler à quelqu'un, je disais c'est quoi ton signe astrologique, il me disait je taureau. Puis moi vite fait en bac je changeais le...
qui allaient apparaître et je leur disais vas-y teste mon site pour voir si ça prédit bien. Puis ils testaient. Quel magicien. Là là, ça tombait sur le vent. Comment ça marchait ? En fait, je récupérais, mais il avait rien, c'était juste ça amenait à une autre page où moi j'avais changé dans le bac, je l'avais écrit en brut. Le démarrage du machine learning. Exactement, le machine learning très très humain, très très peu machinique. Mais ça me permettait de récupérer de la data sur les gens qui le remplissaient et dans cette data, j'avais 13 ans, il y avait des questions genre...
c'est qui le garçon de ton collège que tu préfères, vois, les petites questions comme ça. Et après, moi, évidemment, après, je répartissais l'info. pu faire Facebook, en fait. Ouais, sauf que bon, je n'étais pas en Amérique, je n'étais pas Marc Dukerberg et j'avais dû accomplir le business. À cette époque-là, j'étais juste un petit con, mais c'était fun et ça a été mon premier projet code. Donc, comment ça s'est passé ? Parce que ton parcours, ton parcours, est comment ? Il est informatique ? Il est quoi ? Il est généraliste ? Il est bizarre.
C'est bien que tu n'as pas utilisé Atypik. Je suis allé dans une école de commerce. Au début, je voulais faire des matchs, que ça. Et finalement, j'ai fait une prépage, je allé en école de commerce à l'EM Lyon, qui ne pas beaucoup plu. Je suis parti faire du cinéma pendant un an, parce que j'ai découvert l'art entre temps. Et finalement, je suis revenu pour faire un triple diplôme, truc un peu bizarre, un double diplôme, un truc chelou, qui était une expérience pédagogique financée par l'État, portée par l'EM Lyon, Centralion et la Fédération Française de Design.
autour de l'innovation, ça s'appelait IDA. Et donc j'ai passé deux ans dans une grande baraque avec un fab lab immense, avec un laboratoire de fabrication, des imprimantes 3D, des coupeuses laser, un budget illimité pour faire tout ce qu'on voulait comme projet d'innovation et donc j'ai passé deux ans à construire des projets qui allaient de design de paire de lunettes pour des agences, à participer à la fête des lumières en faisant une oeuvre numérique, à construire des drones pour des agriculteurs, enfin...
plein de projets d'innovation, aussi de l'innovation sociale dans plein de domaines. c'est vraiment là que... pluridisciplinaire en fait. J'ai été branché transdisciplinaire. j'y ai même transdisciplinaire, parce que pluridisciplinaire c'est... mets plein de disciplines les unes à côté des autres, transdisciplinaire grâce au mode projet. Tu les relies toutes, toutes entre elles en fait. Tu fais des ponts entre... Exactement. J'étais vraiment branché comme ça. Et j'ai voulu rester avec cette approche-là. Et du coup, ma vie a été un peu séparée en deux derrière.
Il y a eu une partie de ma vie qui était purement citoyenne autour de l'intelligence artificielle. J'y suis arrivé par la philo. J'ai découvert l'IA par les questions de philosophie de l'esprit qui m'intéressaient beaucoup. Et je suis rentré dans la tech parce que je codais, mais au départ, c'était une démarche philo. Et donc, j'ai exploré beaucoup l'IA, j'ai monté un meet-up à Lyon, j'ai monté l'assaut Lyon-Israïe avec la métropole de Lyon autour de l'éthique de l'IA. J'ai commencé à animer plein de conférences. Ça, c'était quand, ça ? J'ai commencé, je crois, en 2012-2013.
ouais, quand même, a que 10 ans. Ouais, y a une dizaine d'années, 2013, crois. Et en parallèle, du coup, je finis, j'étais sur la fin de mes études et j'ai commencé à monter une première boîte, une boîte dans l'innovation, une boîte de conseil en innovation et créativité. On mettait en place des programmes d'intrapreneuriat dans les grosses entreprises. Donc, avec des collègues de promo, on a lancé ça un peu avant de dédiplomé. Donc ça, c'était ma vie plutôt pro. Mais évidemment, il y avait des interfaces. Ça m'arrivait souvent d'accompagner des projets qui avaient de l'IA, etc.
Donc ça a été un peu séparé pendant un certain nombre d'années avec des ponts. Et puis j'ai revendu ma première boîte, j'ai monté une deuxième qui est cette école ERIG, dont je suis encore directeur innovation, est première grande école en France dédiée à l'innovation et la créativité, qui tourne toujours, qui est une super belle école d'ailleurs, j'invite tout le monde à aller voir, c'est un projet dont je suis très fier. Mais pendant que j'étais dans cette école, j'ai rencontré un éditeur qui m'a proposé d'écrire sur...
un sujet qui me passionnait l'interface entre l'IA et la créativité. donc j'ai écrit un premier bouquin sur l'IA et la créativité qui s'appelle Hipercréation. Il est sorti en 2023 et en fait quand j'ai commencé à l'écrire, l'IA était un sujet de niche, alors l'IA et la créativité j'étais le seul taré à parler de ça parce que du coup c'était pas si tech et en même temps les créas ils n'en avaient rien à foutre de l'IA. Et en fait pendant que j'étais en train de finir le manuscrit, il Mead Journey qui sort, toute la révolution du texte to image, Chagy Pity qui sort.
l'IA devient grand public et en plus, c'est l'évolution dite des IA générative, bon, ça existait depuis bien avant, mais tout d'un coup, elles deviennent grand public et donc la question de la création est posée très frontalement. Et donc mon bouquin, tout d'un coup, fait ultra sens par rapport à un time to market de dingue. Donc le bouquin a bien fonctionné et ça m'a amené à prendre une posture un peu plus de notoriété sur le sujet IA et donc à sortir de l'opérationnel de mon dernier projet donc ERIG.
Je suis toujours dans le codire, mais je me concentre maintenant sur mes activités dans l'IA. J'ai écrit d'autres bouquins, on pourra en reparler. Je donne plein de conférences, j'accompagne quelques codires d'entreprises sur la stratégie, et puis je monte des projets, des projets exploratoires sur les dernières frontières de l'IA qui peuvent être plutôt scientifiques ou artistiques. Donc là, j'ai un projet avec des amis qui sont ingénieurs informatiques sur la gentilité, évidemment, puisque c'est un peu le gros truc de 2025.
Les agents. Les agents tout à fait, les agents autonomes, la question de l'autonomie dans les systèmes EDIA. Et puis j'ai des projets plus à la lisière de la philo et de la science sur la question par exemple de l'alignement, de l'explicabilité de l'alignement sur les systèmes EDIA les plus avancés et notamment sur le fait que quand ils deviennent autonomes ça pose des nouvelles questions. Donc ça me permet d'explorer très large, j'ai aussi quelques projets artistiques.
Et en fait je trouve que c'est un sujet, moi qui me correspond parfaitement parce que j'ai besoin de cette ouverture transdisciplinaire. l'IA en fait est devenu, avant c'était plutôt un sujet technique, mais c'est devenu un sujet ultra transdisciplinaire. On a besoin pour le traiter évidemment de l'aspect technique, sinon c'est pas vraiment, enfin c'est rarement sérieux. Mais aussi maintenant de l'aspect usage en entreprise, c'est un sujet business. Aussi de l'aspect philo, c'est un sujet qui touche l'humain très très profondément. La société. La société et l'humain.
la société au niveau, on va dire, politique et puis l'humain au niveau anthropologique, de comment on se définit en tant qu'humain. Il y a quelque chose de spécifique dans cette techno, c'est pas comme le cloud. Il y a une identification, l'intelligence artificielle, c'est pas pour rien que la science fiction l'explore autant. Il y a quelque chose de presque mythologique dans l'IA qui fait que c'est profondément questionnant pour l'humain de mettre en place une technologie qui produit un ersatz de pensée. Il y a quelque chose de profondément différent de toutes les autres technologies.
Il faut le prendre au sérieux, cette question de la machine pensante en fait, est Ce qui différencie cette révolution des autres révolutions. Ce qui la singularise, elle est vraiment particulière à ce titre-là. Ouais, je dirais qu'elle a trois particularités. a celle-ci, c'est une révolution qui est encore plus hautement philosophique que toutes les autres révolutions tech. Peut-être que l'écriture, l'arrivée de l'écriture avec ce niveau-là ou de l'imprimerie, mais encore, je pense que c'est encore plus profond à voir. L'histoire le dira.
Il y en a une deuxième, elle, est évidente, c'est la rapidité. ça, toutes les révolutions, à chaque fois, vont un peu plus rapidement que les précédentes. donc, du coup, dans l'histoire, comme c'est la toute dernière, c'est la plus rapide qu'on ait connue et on ne sait pas du tout s'organiser sociétalement autour d'une révolution qui, en 3-4 ans, change le monde. Et exponentielle. Donc, au moins, c'est de là, déjà, j'en suis relativement certain. Et puis, je dirais qu'il y en a une troisième pour moi, c'est que, contrairement à toutes les révolutions technologiques qui sont en mesure d'automatiser une partie
des tâches de la société. Par exemple, des choses comme l'automatisation qu'on a connue par les machines physiques, l'automatisation du secteur plutôt primaire et secondaire, à amener à ce que des pays comme le nôtre se positionnent énormément sur le tertiaire, etc. On invente des nouveaux métiers. Souvent, entend avec l'IA, c'est pareil, on va déplacer des métiers, etc. Je pense que c'est de la bienpensance assez néfaste.
il prendre le taureau par les cornes, c'est une technologie d'automatisation générale qui entraîne avec elle la révolution robotique et donc on est devant nous face à quelque chose de très spécifique, tout ce qu'on va inventer comme nouveau métier, au moment où on l'invente, il sera automatisable. Donc, ou très rapidement ensuite. Donc on est face à un sujet de société qu'on n'a jamais connu, qui ne ressemble à aucune des autres révolutions technologiques, même toutes les autres révolutions les plus fondamentales, elles n'avaient pas le même...
potentiel de transformation de l'institution travail qui est un des piliers chez notre société. On n'a pas une question d'emploi, là on a une question sur l'institution travail. Tu remets même en question finalement la définition même de ce qu'est le travail. Exactement, avec un peu probablement un switch de la question du métier à la question des activités qu'on va faire dans notre vie. Et c'est en fait ultra ultra profond à penser parce qu'anthropologiquement l'humain se définit par le travail. Donc évidemment ça rejoint aussi la révolution philosophique qu'il derrière l'ir.
Donc je dirais que ça c'est trois caractéristiques qu'on ne connaît pas et qui font de l'intelligence artificielle actuellement une révolution d'un nouveau type. On aime bien se rassurer en disant qu'on a déjà connu ça. Je pense que c'est un peu l'esprit français qui aime faire, enfin être un peu désabusé, etc. ou un simple biais d'ancrage qui permet de se dire oui, on a déjà vu ça, on sait y faire face. Voilà. Alors qu'en fait, Et plus je creuse le sujet, plus je rentre dedans.
plus je suis convaincu qu'on va vivre un truc complètement unique et qu'on n'est pas du tout prêt à y faire face. Mais bon, c'est exaltant aussi. Là, on a balayé tellement de sujets en si peu de temps. C'est la fin du podcast. C'est la fin du podcast, on a tout vu. à tous, soirée. On a balayé vraiment beaucoup de sujets. On aime vraiment se mettre... balayé la tête aussi. C'est hyper intéressant, mais on aime bien mettre dans des classes aujourd'hui. La question est peut-être bête, mais tu te sens plus écrivain, philosophe.
Je trouve qu'écrivain... Je ne pas philosophe, je de formation par contre. J'ai exploré la philosophie suffisamment, largement et profondément pour ça aille reconnecter mon cerveau et donc que la philosophie fasse partie de moi de façon très intime. Viscérale presque. Je ne pas m'empêcher de porter une réflexion philosophique sur les sujets que je...
Mais j'ai pas une thèse en philo, je suis pas docteur en philo, dans les cases de la société je peux pas dire que je suis philosophe. Donc ça apporte en fait un cadre de pensée et une méthodologie de réflexion. Alors la méthodologie c'est presque plus l'esprit scientifique mais qui d'une certaine façon découle de la philosophie. Je pense que la philosophie ça apporte énormément, c'est impossible de dire en quelques mots, mais des éléments que ça m'apporte c'est d'une part le réflexe du pourquoi.
on est dans une société du quoi et du comment et la philosophie permet de reculer d'un cran et de faire des connexions un peu plus haut niveau et donc de réfléchir beaucoup au pourquoi. Donc ça c'est un élément et je suis très content d'avoir ce réflexe de pensée parce que je pense qu'il est vraiment important et qu'on devrait le développer plus. Et puis ça apporte aussi, enfin moi la philosophie m'a apporté une sensibilité en fait. On a tendance à avoir la science comme un truc un peu
rationnelle froid, en fait, c'est une façon de prendre la science comme une instrumentalisation de la science au service de notre volonté de puissance qui la rend un peu froide et destructrice. quand on prend la science d'un point de vue philosophique et quand on a une approche philosophique de tout ça, tout d'un coup, la science devient un outil d'écoute de notre environnement et la philosophie, je vais pas utiliser le mot sagesse parce que je suis trop jeune pour ça, mais ça apporte au moins...
une sensibilité à ce qui nous entoure qui donne envie de s'en rapprocher, pas de comprendre pour maîtriser, mais de comprendre pour s'approcher et entrer dans l'intimité des choses. Et cette sensibilité là, elle l'a grandi en moi grâce à la philosophie. Et c'est un point important puisque souvent nous on regarde l'intelligence artificielle sous le prisme de la productivité et toi avec cet aspect là tu mets l'accent sur la créativité.
Et en fait il y a deux façons de voir les choses, soit on remplace des rôles même qui sont créatifs, soit on se fait accompagner par l'intelligence artificielle pour créer de nouvelles choses, aller plus loin dans la réflexion. Moi je voulais qu'on discute un peu justement lié à la créativité en parlant peut-être aussi un peu de ton premier livre. Et l'idée c'était de savoir déjà qu'est-ce qui différencie l'humain de l'intelligence artificielle sur la créativité en tant que tel. Alors mon premier bouquin donc s'appelle Hypercréation.
il est un petit peu, évidemment, peu impertinent. Il a une dimension très philo. En fait, l'idée de ce bouquin, c'est de surtout pas faire ce qu'on entend de partout, oui, l'intelligence artificielle, elle ne peut pas être créative, etc. C'est de mener une enquête assez profonde en essayant de bien poser ce qu'est la créativité, donc d'aller chercher des définitions un peu consensuelles qui naturalisent la créativité, qui se définissent pas par le fait que c'est un truc humain, ce qui permet d'apporter une définition de la créativité, par exemple, qui s'applique
à l'évolution naturelle, la nature est créative, l'évolution naturelle produit des espèces qui sont toutes très différentes, donc il y a toute une diversité, une originalité des espèces et qui en même temps sont très adaptées à leur environnement grâce à la sélection. Et donc ce processus-là est un processus créatif aveugle. Donc je passe par la question de la nature pour naturaliser la créativité, l'extraire juste d'avoir des idées dans un cerveau humain et d'en faire une matrice pour un processus spécifique.
En fait, un concept un peu supra humain, finalement. Naturalisé. ça, c'est vraiment de la presque... Et de l'épistémologie, d'une certaine façon, c'est essayer de... De l'abstraire, finalement. De l'abstraire, exactement, et de l'amener à un niveau qui ne dépend pas du référential. Plus fondamental. Tout à fait. Plus fondamental. C'est très bon. Et du coup, une fois qu'on a fait ça, on se dit, ben, s'il a un processus aveugle dans la nature, alors pourquoi pas une créativité dans la machine ?
Et à partir de là, j'explore, enfin je défini trois types de machines créatives. Tout ce qu'on a des IA génératives aujourd'hui, tout ce qu'on a eu autour par exemple des GAN, etc. C'est pour moi le type 1. C'est plutôt, c'est ce que j'appelle des cyborgs, créatives borgues, contrôlables. Ils sont au service de la créativité humaine, ils permettent de l'amplifier. Avec un midjourney, je suis capable de faire une BD en ayant la plume et midjourney me fait les illustrations.
et je développe une nouvelle élaboration créative parce que je suis dans une espèce de dialogue avec la machine, elle me renvoie des choses auxquelles je m'attendais pas, ça me donne des nouvelles idées, mais c'est moi le pilote à bord. Une co-création. Il y vraiment une co-création et on est aujourd'hui beaucoup plus dans cette dimension-là parce qu'évidemment il y a une industrie de la création, de la créativité qui est contente de pouvoir augmenter ses créatifs et c'est ce qui se développe beaucoup et les IA génératifs sont des...
des outils au service de la créativité humaine comme le pinceau est un outil des outils d'un nouveau type qui change la créativité mais ça reste de la créativité humaine et en fait je montre que donc là j'étonne personne mais je montre qu'en bien avant les IA générative et en parallèle des IA générative se développe grâce notamment à l'approche de l'apprentissage par renforcement toute une autre catégorie de machines donc les IA générative elles apprennent sur les données humaines d'une certaine façon c'est de l'interpolation dans les données humaines et donc elles ne
Mathématiquement, on ne pas vraiment si elles peuvent extrapoler par interpellation suxcessive, mais a priori elles vont quand même plutôt répéter ce que l'humanité a déjà produit et trouver les interstices de ce que l'humanité a déjà produit. Il y a déjà plein de places là dedans. Mais par contre, avec l'apprentissage par renforcement, des systèmes d'IA peuvent s'entraîner en collectant eux-mêmes les données dont ils ont besoin sur un environnement qui peut même être le réel et donc qui peut être externe à ce que l'humanité connaît déjà.
C'est l'exemple d'AlphaGo qui d'abord s'entraîne sur les parties des grands maîtres, il atteint le meilleur niveau humain mais il joue des coups humains. Et puis ensuite on l'entraîne par renforcement, il joue contre lui-même et en jouant contre lui-même il développe d'une certaine façon son propre savoir-faire du jeu de Go et ça l'amène à la deuxième partie du tournoi contre l'Isédol, 37e coup, à jouer ce coup incroyable que jamais un humain n'a joué ou n'aurait joué qui est coup très... enfin qui est extrêmement original, qui lui donne la victoire avec un impact...
quelques dizaines de coups plus loin et donc il va être considéré par toute la communauté du go go comme un coup ultra créatif qui a pu émerger parce qu'il y avait ce double apprentissage l'apprentissage d'une certaine façon par imitation de l'humain comme le fait l'enfant avec ses parents et l'apprentissage par curiosité de l'apprentissage par renforcement comme le fait l'humain enfant qui découvre que le feu ça brûle en mettant sa main dans le feu et donc cette double logique on la retrouve dans ce type d'algorithmes et ça leur permet d'explorer le réel au delà de ce que l'humain a déjà vu et donc d'une certaine façon ça leur permet d'apporter des résultats créatifs
qui extrapolent ce que l'humanité connaissait. Et là, c'est une nouvelle ultra radicale pour la science. Parce que tout d'un coup, on a le plus grand télescope sur la complexité du réel qu'on ait jamais inventé. Et ça commence à se voir avec évidemment Alpha Fold. Alors Alpha Fold, c'est pas du renforcement, il y a quand même des choses qui rendent un peu dans cette catégorie. Mais Alpha Dev, là, c'est du renforcement qui découvre des nouveaux algorithmes ultra fondamentaux. Alpha Tensor qui découvre une nouvelle façon de travailler avec les matrices, là aussi, super fondamentales que les mathématiciens n'avaient pas découvert.
Et puis, plus récemment, GNOME qui découvre des centaines de milliers de nouveaux matériaux que l'humanité n'avait jamais découvert, qui peuvent... Enfin, c'est l'équivalent, en gros, d'800 ans de recherche en quelques minutes générées par l'algorithme. Et cette approche-là, à mon avis, va se généraliser très très fortement et l'intelligence artificielle va devenir l'outil de découverte scientifique le plus incroyable qu'on ait jamais eu, parce que c'est pas juste accélérer la recherche des chercheurs, c'est accélérer la découverte, et même des découvertes assez fondamentales.
parce que l'IA sera de plus en plus capable d'explorer là où l'humain n'avait pas vu parce qu'il est enfermé par ses biais culturels, par ses paradigmes de pensée, etc. Et puis après j'ai un troisième type de Creative Borg dans le bouquin qui eux vont encore plus loin, c'est surtout sur ce qu'on appelle l'IA développementale qui est une approche beaucoup moins connue, qui est très liée à la robotique, qui suppose d'incarner le système d'intelligence artificielle dans un corps situé et qui suppose que le système d'IA
Contrairement au renforcement qui optimise un type d'objectif, donc qui est encore un système d'IA qu'on oriente quelque part, tu vas trouver des nouveaux cogos, tu vas trouver des nouvelles protéines, etc. Ce troisième type se rapproche beaucoup plus du fonctionnement de l'humain parce que l'IA développementale cherche à avoir une IA dans un robot qui se développe au contact du monde de façon très généralissante. Le seul objectif qu'elle optimise, c'est découvrir plus de choses sur le monde, comme le fait un peu un humain. Et du coup, chaque...
robot ou chaque IA va en fonction de son historique sur le monde, construire une personnalité différente. On approche de l'IA... On approche de l'androïde... L'AGI... L'IA générale. Alors c'est une déploie vers l'AGI. Si on définit l'AGI comme l'intelligence générale, calqué sur l'être humain. À mon avis, va atteindre l'AGI bien avant. Avec une idée de développement derrière. Exactement. La 13 entrepôts centriques morphiques.
Ouais voilà, à mon avis, c'est comme l'histoire de... on fait pas des avions qui battent des ailes. Je pense qu'on va atteindre les GI, voire même des super intelligences, avec des techniques notamment liées au LLM, au LAM, etc. Comme on fait un avion qui vole avec des ailes droites, parce que pour nos usages ça fonctionne mieux. Par contre, si on veut faire un avion qui vole avec très très peu de consommation, là, le biomimétisme est faire un avion qui bat des ailes avec une forme animale, peut-être qu'un jour ça sera efficace.
peut-être qu'un jour on fera des IA qui ressemblent beaucoup plus au cerveau humain pour des raisons d'efficience. Mais à mon avis on va brute-forcer l'intelligence artificielle générale bien avant ça par d'autres voies. Donc tu y crois ? oui oui oui, moi je suis absolument convaincu que... Et tu y crois sous quel horizon en fait ? Parce que c'est des grosses questions en ce moment qui anime la communauté IA. Et c'est un des sujets... Les GI, c'est pour quand ? La semaine prochaine, dans deux mois, dans deux ans, dans vingt ans...
Ça fait partie des sujets de mon dernier bouquin, donc les scénarios technologiques et comment on peut poser un chiffre avec une certaine probabilité d'advenir de façon rationnelle, c'est-à-dire on utilise ce qu'on appelle les scaling laws, des lois de croissance des performances des modèles en fonction d'un certain nombre de paramètres et on regarde ce que ça donne quand on extrapole les courbes et du coup ça permet comme un peu la loi de Moore de se dire ok on sera là dans un an, deux ans, trois ans. À mon avis je dirais voilà je donne aucune certitude mais par contre je peux donner des probabilités qui représentent
le plus précisément possible, mon ressenti pour être dans le domaine et beaucoup réfléchir à la question, à mon avis, on a 25 % de chance d'avoir de l'AGI dans 2 à 3 ans, et on a 75 % de chance d'en avoir dans 5 à 6 ans, et 95 % de chance dans 10 ans. C'est tout à fait possible qu'on ait une grosse barrière qui apparaisse et que du coup ça prenne 50 ans, c'est pas du tout impossible, mais plus le temps passe, plus la probabilité selon moi se réduit.
Par contre je crois qu'on va pas uniquement scaler les technologies actuelles. On va découvrir des nouvelles technologies. En ce moment il a un bouillonnement énorme. LLM sont pas là. C'est ce que disent Yann Lequin et beaucoup de scientifiques aujourd'hui. Qu'on arriverait potentiellement à un plateau sur ces technos, sur les LLM. Et qu'il nous faut une nouvelle découverte qui permette d'aller plus loin.
Tant aussi en termes de data, pre-training, où on pourrait arriver finalement à la fin de la consommation de toutes les data. Le data wall. Ouais c'est ça. En fait, l'approche de Lequin c'est même de dire les LLM nous mènent nulle part, et ça je suis pas du tout d'accord. Et Lequin il a sa vision avec ses systèmes, mais en fait on se rend compte que bon il écrit un...
peut jamais ne pas être d'accord avec si, moi je suis complètement pas d'accord avec Locke. Surtout depuis un an et demi, surtout sa position idéologique sur l'IA, elle est complètement à côté de la plaque, mais c'est un consensus qui est de plus en plus fort dans la communauté scientifique. Il ne veut pas avoir la question des risques liés à l'IA, et du coup il est beaucoup trop conservateur sur ses prédictions sur l'IA pour soutenir une idéologie de « a aucun risque, tout est bon
Mais il faut voir aussi les conflits d'intérêt qu'il derrière. Aujourd'hui, il promeut l'idéologie de Métas. maintenant, malheureusement, c'est quelqu'un que j'ai estimé au plus haut point pendant 10 ans. Depuis un an et demi, je suis très déçu de l'aspect rationnel de ce que raconte Yann Lequin. Alors où tu te situes, toi, entre les accélérationnistes, les doumuristes, les décélérationnistes, les...
C'est pareil, c'est des questions de probabilité, c'est-à-dire que si on atteint l'AGI dans 2 à 3 ans, on va le faire en courant et la probabilité que ça arrive est liée à une course à l'armement entre les Etats-Unis et la Chine qui permettent un déploiement complètement démesuré de ressources. Si on fait ça, je ne pas qu'on gardera le contrôle de ces algorithmes parce qu'on n'a aucune foutue idée de comment aligner déjà un système comme GPT-CAT, mais alors un système beaucoup plus intelligent, on n'a vraiment aucune foutue idée. je pense pas qu'on aura de L'aligner pour nos auditeurs, c'est faire que...
un LLM, un d'intelligence artificielle, dans ses résultats conforme à ce que la société ou l'humain, l'éthique, la morale et tout ce qu'on met d'acceptable sortent, mais que l'inacceptable reste bien gardé. A priori. C'est qu'on lui mette du surmoi, qu'il ait dû refouler.
Souvent on le définit comme le fait que le système média reste cohérent avec les intentions de ses concepteurs. Qui t'expliquent pas comment faire de la mette ou faire une bombe atomique avec un trop bon et un chewing gum. Exactement. Tant que c'est ça en fait, c'est plutôt l'usage malveillant d'un système média et on connaît, je veux dire on a déjà des terroristes dans le monde, on a déjà des fous, on a déjà des armées etc. Il y a plein d'acteurs qui peuvent avoir un usage destructeur de l'IA.
Le vrai problème avec un système d'AGI, voire de superintelligence, c'est l'autonomie. C'est l'autonomie et le fait qu'il a aucune malveillance dans le système et que pour atteindre un objectif qu'on lui a donné, il optimise des objectifs intermédiaires qui eux peuvent être extrêmement destructeurs. Il a une vidéo récemment qui est sortie d'égo sur...
l'optimiseur de trombones et les risques existentiels qui est une vidéo plutôt bien foutue qui en fait qui reprend des propos qui ont 15 ans mais qui le porte devant le grand public de façon plutôt brillante donc ça explique un peu ce problème et ça va devenir un problème majeur de notre société la question de l'allumement des systèmes si on en gros pour moi il ya un risque existentiel à minima catastrophique potentiellement existentiel pour l'humanité si on a de l'AGI dans trois ans si on aide l'AGI dans six ans
on a un peu plus de temps parce que ça bouillonne au niveau de la sécurisation de ces technologies pour faire en sorte que ça soit pas fait n'importe comment. À mon avis, on a besoin de 10 ans. Je suis plutôt accélérationniste dans l'idée, moi je pense que l'avenir de l'humanité est lié à la technologie, je pense que l'avenir de l'humanité c'est pas le travail et que automatiser le travail c'est une des conditions de notre avenir. Par contre, je suis accélérationnisme sur...
une temporalité cohérente avec la capacité de la société à s'organiser autour de ces objets-monde. Oui, donc ça veut dire qu'il faudrait qu'on ralentisse dans l'idéal. Il faudrait qu'on... C'est pas nécessairement un ralentissement parce que par exemple, pense qu'il faut qu'on accélère drastiquement sur la question de l'alignement, qui est une question technologique et scientifique qui suppose de développer des nouveaux systèmes d'IA. Par contre, je pense qu'il faut qu'on fasse attention...
à la différence de courbe de développement qu'on a entre les performances et notre capacité à contrôler et à aligner les systèmes. Et donc ça veut dire qu'il faut faire un peu attention au scaling brut de technologie. Grosso modo là on est dans un véhicule, Formule 1, où on accélère comme des malades alors qu'en fait on a pas encore construit le frein. On doit passer des chicanes, des virages, des choses comme ça en fait. Et c'est quelque chose... Et là a même plus de frein probablement. Pour l'instant on essaye de mettre en place les freins, pour l'instant on est sur un bout de bois qu'on...
Mais à tes yeux ça fait pas partie de l'innovation ? Si si si ! À un moment il faut innover, puis consolider, puis freiner, souvent on freine après coup en réalité. Ouais mais en fait il y a des niveaux, il a des paliers, tu mets pas directement un airbus sur le marché dans lequel à l'intérieur des moteurs t'as aucune logique de sécurité. du coup là...
il a une grande probabilité que le truc explosant vole. La régulation du coup est quelque chose de... La régulation, la norme, le rôle des États. On adore... Ouais, le rôle du politique. Il est énorme. On adore, je veux dire, opposer le législatif et l'innovation. J'ai été 10 ans dans l'innovation au début, je racontais la même histoire, mais en fait, quand on regarde pragmatiquement ce qui se passe, la législation et l'innovation...
se construisent mutuellement. Ils vont de pair. On ne pas innover sans aucune législation, sinon c'est une course au suicide et on tue l'innovation en fait. a évidemment l'innovation court devant la législation, évidemment l'innovateur essaye de se mettre en dehors de la législation parce qu'on est dans un monde aussi où ça permet de faire plus de cash et j'ai rien contre, je suis entrepreneur, mais il a un besoin absolument fondamental que la législation suive et organise.
ce que l'innovation met en place et qui a un rythme. C'est vraiment une question de rythme, c'est pas du une question de modèle qui pose problème, c'est une question de rythme. Aujourd'hui, le rythme de l'innovation technologique ne permet pas à ce que la société se fasse autour de ce qu'on crée. Alors heureusement, il a un bouillonnement depuis deux ans, il y a encore trois, quatre ans, l'état des choses était un catastrophique, depuis deux ans, il y a un bouillonnement à la fois législatif, évidemment, alors les I act est une première mouture pleine de défauts qui ne prend pas du tout en compte les systèmes actuels, etc.
Il faut commencer quelque part, on va l'amender, ça va évoluer, ça va donner des précédents sur ce qu'il a à faire, ce qu'il a à pas faire. Il faut une première mouture pour avancer, c'est aussi de l'innovation législative. Donc sur l'aspect législatif, il a un bouillonnement, mais sur l'aspect diplomatique actuellement dans le monde, il a un bouillonnement incroyable. Les scientifiques se mettent d'accord, il a un consensus qui émerge sur le fait qu'il ait des risques très importants pour l'humanité à mettre au même niveau que les risques liés au nucléaire ou les pandémies mondiales. C'est le State-Maintained Air Risk de 2023, derrière lequel...
À Paris-Anne Lequin, grosse majorité de la comité scientifique s'est ralliée. Et puis on commence à avoir des signaux politiques. L'année dernière, il l'ex premier ministre de l'Angleterre qui a eu un speech dans lequel il a osé parler de la question de la superintelligence, de risques qui sont réels, des risques beaucoup plus actuels et des risques à moyen terme de ces technologies. Il a osé faire un premier pas en les prenant au sérieux. Pour l'instant, la France, on volette insoucieusement sans vraiment les prendre en compte.
Mais ça va arriver. Aux États-Unis, c'est lancé. Là, y bientôt la conférence à San Francisco. Le sommet à San Francisco, ça va être pour parler aussi de ces sujets-là. On a des sommets internationaux. a eu le premier en Angleterre, le deuxième à Séoul, le troisième va être à Paris en février pour parler de la sécurisation de l'IA. Il y a des instituts qui sont en train de naître de partout sur la sécurité de l'IA. En vrai, 2025, ça va être l'année de la gentilité en termes de productivité et l'année où...
l'humanité va commencer à vraiment entendre parler de la sécurité de l'IA et de l'aspect géopolitique que ce sujet revêt. Et je pense aussi que 2025-2026, on va se prendre un premier warning shot bien salé, du style à un système d'IA qui va nous permettre de hacker des infrastructures critiques, d'apporter une capacité de cybercrime qu'on n'aurait encore jamais connue. Et là, on va avoir ça, il va y avoir un bon gros problème et à mon avis, ça va réveiller le politique à une vitesse grand V.
et on va avoir un switch énorme sur comment l'intelligence artificielle est abordée dans notre monde. ne sera plus uniquement un sujet civil et business. Du coup, moi, j'avais des questions. temps d'un bouquin aussi qui s'appelait hyper prompt. Oui, le prompt engineering comme une nouvelle discipline. Oui, j'aimerais que tu nous en parles un petit peu, parce que c'est vrai que Thomas et moi, prompt.
C'est le bon mot.
Et c'est marrant parce qu'on a tendance naturellement à l'anthropo morphisé et à l'anthropo centré. c'est vrai que moi, ça m'arrive de dire, tiens, je discute avec Claude ou je brainstorm avec Claude. en fait, c'est pas Claude du PMU, en fait, c'est Claude d'Anthropic. du coup, de réellement, là, je préparais le podcast, j'ai demandé de me poser des questions, de revoir le plan.
d'en discuter etc etc. Donc le prompt engineering, nouvelle discipline, toi tu en as bien pris conscience ? Ouais tout à fait alors c'est vrai que là du coup on a parlé un peu d'aspect philosophique scientifique, d'aspect géopolitique donc des éléments très high level mais en fait je pense que enfin j'aime bien dire pour aborder un sujet faut le regard de l'aigle donc voir les choses de très haut et le regard du verre de terre qui est tout aussi noble voir les choses depuis l'usage ultra concret.
Donc là on parle directement de l'interface en face. Exactement. Comment on utilise ces systèmes d'IA génératifs qui aujourd'hui se contrôlent en langage naturel et en effet comme ce n'est pas des cerveaux humains, comme c'est des machines à produire le prochain mot le plus probable, le prochain token ou le prochain pixel, tout ce qu'on il y a des façons de leur parler qui permettent d'en tirer le meilleur. Et à la fois il faut pas anthropomorphiser ces machines dans l'absolu pour ne se laisser tromper par ce qu'elles sont.
Mais en même temps, comme elles ont été entrainées sur de la donnée humaine, elles répliquent une grande partie des mécanismes et des comportements humains. donc, par exemple, il a des choses étonnantes comme le prompting émotionnel. Si on fait du chantage émotionnel à une IA, on a des meilleurs résultats. Par exemple, à une IA, s'il te plaît, par exemple, quand on code avec une IA, l'IA a tendance à être un peu paresseuse, lazy.
C'est-à-dire que quand elle écrit du code, elle va mettre des parties en commentaire et juste dire ici, aura ça qu'il y aurait ça à mettre. Et elle va pas écrire le code. Et donc on peut lui dire, écrit tout le code, c'est vital pour ma carrière. Et on va avoir une plus grande probabilité qu'elle écrive tout le code. Ou quand on fait des gros prompt, on peut mettre ce genre d'approche pour mettre l'accent que les têtes d'attention du système se concentrent sur certains éléments du prompt qu'on veut faire ressortir du lot. Donc il a quand même presque un aspect psychologique.
qui se développe, une psychologie du LLM ou de l'IA quoi. En tout cas ça simule une surface de la psychologie humaine. Évidemment l'IA à l'intérieur n'a pas cette vie interne où elle se dit putain c'est vital pour sa carrière faut que je sois vraiment pointilleuse là-dessus. Et qu'en est-on ? Alors on pourrait parler d'émergence mais a priori je pense pas que les systèmes...
est fait émerger une conscience réflexive par eux-mêmes et bon on pourrait en discuter surtout que... Parce que moi j'ai essayé des trucs, j'ai essayé de ghoster Claude, genre de pas lui parler, mais il m'a pas répondu, il m'a jamais reparlé tu vois. Il a des trucs il fait dans la psychologie mais il a d'autres trucs qu'il fait pas tu vois. Ça a rien généré pour lui tu vois. Exactement, c'est là que le prompt engineering entre en œuvre, c'est pour aider à différencier ce que l'IA va reproduire, est-ce qu'elle va pas du tout reproduire et là où d'un coup il faut s'adresser à elle comme un être humain et là où il faut surtout pas le faire et...
mettre en place d'autres approches langagières. Donc en effet, j'ai écrit HyperPront qui aujourd'hui, selon les chiffres, est le manuel de référence en français sur le prompt engineering. En tout cas, c'est celui qui est, je crois, vendu plus d'exemplaires en France. Au Canada, je ne pas, il est aussi publié au Canada. Mais donc, c'est un manuel ultra opérationnel. On n'a jamais ouvert Tchadjipiti. On commence avec le manuel et...
on finit le manuel, normalement on a peu près toutes les bonnes techniques pour prompter et bien utiliser ces systèmes-là. Ce qui est super important, parce que vas-y Thomas. Non non, puisque toi tu as écris le terme aujourd'hui, c'est super important à mes yeux, c'est-à-dire qu'au moment où tu écris ce livre ou tu le publies, il a Chagy Pity. Maintenant il a Claude, y a Perplexity, et aujourd'hui Chagy Pity va aller se plodier à internet, c'est plus uniquement des data du passé. Est-ce tu as le sentiment qu'il faut faire une deuxième version où tu vas vraiment dans...
je sais pas, l'exoskeleton d'un prompt. En fait le prompt va changer forcément au cours du temps. c'est assez drôle parce qu'en fait tu regardes Claude, tu regardes Perplexity, à chaque fois c'est des machines à produire le mot le plus probable et en fait tant que l'architecture sera celle-ci, les techniques de prompting que je propose, fait mon manuel c'est pas les 50 meilleures prompts pour automatiser votre quotidien, ça n'a rien à voir.
ça donne vraiment les clés profondes pour apprendre à prompter par soi-même. Ce pas je donne un poisson, c'est j'essaye de montrer comment empêcher. Donc quand on a vraiment compris ces mécaniques-là, tous les systèmes d'IA qui fonctionnent selon les logiques actuelles qui sont fondées sur les transformers, faire très très simple, le prompting s'applique. Evidemment, il a une date de péremption à ce manuel. Pour l'instant, elle n'est pas atteinte. En plus, ça prend en compte tout ce qui est connexion à Internet, tout ça était déjà sorti au moment où il est sorti, donc c'est présent.
il a des petites choses qui évoluent, a des choses qui sont moins nécessaires, exemple le raisonne pas à pas, les chaînes de raisonnement un peu classiques. Bon maintenant c'est intégré un peu dans la logique des modèles, il n'y a plus besoin de le faire. Mais voir même certains modèles comme Owen de Penneyhuy où derrière il effectivement dans l'inférence derrière un côté logique et chemin de pensée qui permet finalement d'avoir des résultats un petit peu meilleurs. Tout à fait. Mais en même temps comprendre la technique de prompting qui a amené à toutes ces idées là.
ça permet de comprendre comment ces systèmes fonctionnent et de bien les utiliser. Donc j'ai envie de ça reste plutôt pertinent, j'ai pas prévu une mise à jour, par contre j'ai prévu que si tout va bien, fin 2025, Q3, Q4 2025, sorte un deuxième manuel qui lui sera sur les agents autonomes, hyper agents, et qui viendra en complément, donc ce sera bien d'avoir le package des deux parce qu'il faut aussi savoir bien prompter pour construire des agents. Il y a plein de nouvelles techniques, par exemple du prompting d'interaction entre plusieurs agents.
du metaprompting pour qu'un agent puisse construire d'autres agents, du prompting de planification pour qu'un agent puisse construire justement un bon chemin de raisonnement et après exécuter en autonomie les tâches. Donc il a plein de nouvelles techniques de prompting liées à la gentilité. Il y a aussi la logique d'architecturer, enfin on dit d'échafauder un système scaffolding, d'échafauder un système d'agents. Mais toutes les techniques initiales fondamentales de prompt engineering classique viennent s'appliquer au sein de ces techniques plus poussées. Donc il y aura cette suite-là.
mais je pense qu'au contraire, je proposerais d'acheter Hyper Agent avec Hyper Prompt comme un package pour ceux qui le voudraient parce que bien connaître les techniques de prompting est d'autant plus pertinent si on veut bien prompter des agents. C'est quoi le futur du travail si en 2025-2026 on a des agents autonomes qui remplacent les cols blancs
les travailleurs du savoir, les développeurs, les traducteurs, les responsables de com, le marketing et même les PDG. Alors en fait, parce que là, la question derrière la sous-jacente, c'est l'IA et la société. Et d'ailleurs, pourras peut-être te poser la question. Ça rejoindra la question de notre précédente invitée. Tu la posera tout à l'heure de Gaël qui avait posé une question là-dessus,
Vers quoi on va en fait ? que tu disais de toute façon le travail, tout à l'heure tu disais ouais le travail on pourrait le supprimer, enfin c'est pas le but de l'homme, etc. Et le travail nous qualifie aussi et nous définit, etc. Mais si on l'a plu ou si on le remplace, est-ce qu'on va monter en niveau d'abstraction et d'expertise ? Mais jusqu'à un certain moment on n'aura même plus besoin de monter parce que l'expertise ultime sera les GI, etc.
on va où en fait ? Parce que beaucoup de gens sont complètement apeurés, effrayés par le fait d'être remplacés. On peut les comprendre. Tout à fait. Ça a déjà démarré sur certains métiers. Traducteurs. Voilà. Et en fait, question aujourd'hui c'est... tu parlais aussi d'évolution, de créativité, d'évolution, etc. On est des...
On est aussi des cellules des êtres vivants, doit s'adapter. Mais là, l'occurrence, s'adapte à quoi ? Qu'est-ce qui définit l'humain ? Et quel est le sens, de notre existence si on nous retire... Alors 42, là ! Si on nous retire un vecteur tellement important qui définissait une société et une civilisation. Complètement. C'est une super question. Alors, je l'aborde en deux temps. Un premier temps à court et moyen terme, et puis après, répondre à la partie...
philosophique un petit peu plus long terme. À court et moyen terme, alors on entend beaucoup qu'en effet les systèmes médias vont automatiser les métiers on va dire créatifs administratifs intellectuels, l'école blanc. En fait plus le temps passe, moins je suis d'accord. Je pense que c'est ces métiers là qui sont touchés en premier mais pas ceux qui sont automatisés en premier. En fait je crois que la révolution robotique qui nous attend, là 2024 on a eu tous les signaux faibles qui montrent que
elle va avancer très très vite pendant les trois prochaines années au même rythme que l'IA. Et en termes de structure de société, pense que les cols blancs vont évoluer avec ces technologies, beaucoup plus, enfin, vont beaucoup plus être augmentés et que par contre, c'est encore une fois les cols bleus qui vont être automatisés assez rapidement. effectivement, le robot qui fait des parpaings, le robot qui... voilà, toute l'industrie, etc. L'industrie qui va devenir automatisée et même, de plus loin, l'industrie autonome.
avec une approche qui est celle qui a propulsé Tesla, est en train de propulser Enduril au niveau militaire, que beaucoup d'entreprises américaines sont en train de prendre, c'est on construit pas un système industriel matériel qui utilise des sous-briques logiciels, on construit un cerveau logiciel qui utilise un système industriel et le rend modulaire et adaptatif.
a l'industrie 5, 6, 7, 0 quoi. Ouais, le chiffre que tu veux, Mais en tout cas, c'est vraiment le retournement de paradigme. C'est l'algorithme qui est au cœur comme une espèce de gros cerveau et le système industriel, c'est ses bras. Toutes les industries sont des boîtes d'IA avec des softwares ultra intelligents et finalement, ils peuvent même s'adapter et construire des nouveaux trucs. Exactement. Voire, il a une boîte aux États-Unis, faudra que je retrouve le nom, qui est en train de vouloir construire. Enfin, ils travaillent dessus, là, ils ont levé énormément. Il y a des premiers jets, etc. Je pourrais vous retrouver le nom.
qui veut construire une usine généraliste, c'est une usine qui peut construire n'importe quoi. En gros, t'es un industriel, t'as juste besoin de faire la partie design et conception, et puis tu te connectes à cette industrie, elle te construit ce que tu veux. – Whatever as a service. – Du whatever as a service, c'est exactement ça. Et puis après, tu mets un configurateur en langage naturel en termes d'interface. C'est à la pays.
du création à ce service tu demandes ce que tu veux tu as des propositions tu cliques sur celle que tu veux elle arrive chez toi de genre donc tu dis l'école bleue vont être automates je pense que c'est les cols bleus qui vont prendre en premier un peu comme d'habitude malheureusement et à moyen terme les cols blancs
Donc on va, à mon avis, enfin si c'est trop rapide, une crise sociale majeure qui a déjà commencé, on voit les grèves des acteurs à Hollywood, on s'attendait pas à ce que ça soit... Parce que c'est compliqué, parce que tu vois, là je reprends, je fais un point avec l'actualité, mais on voit Elon Musk, Trump, etc. et j'entendais Elon Musk qui est au département d'efficacité gouvernementale, qui veut virer les 3 millions de fonctionnaires américains, etc.
en fait, à avoir cette vision accélérationniste de la société, ma vraie question, c'est qu'est-ce qu'on fait des gens ? Qu'est-ce qu'ils deviennent ? Voilà, c'est la deuxième phrase. Il y a là aussi deux réponses. La première, c'est que dans un premier temps, si on va à cette vitesse, c'est catastrophique. Il est... – Personne ne peut s'adapter, personne n'a le temps de s'adapter. – Personne ne peut s'adapter et la société n'a pas les structures parce que, effet, société et une partie de notre civilisation est organisée autour de l'institution travail.
et si tu regardes n'importe quel pan de ta vie, même des pans perso, notamment l'éducation là, vois. exemple, l'éducation est faite pour l'envoyabilité. est faite pour te faire rentrer dans des cases, etc. Mais si ça va si vite que ce que tu penses et que ce qu'on pense, il est possible qu'en fait l'éducation soit déjà caduque. Elle l'est déjà, Elle l'est déjà, mais on ne sait pas. C'est-à-dire qu'aujourd'hui, même si c'était difficile à des gamins de savoir où est-ce qu'ils vont se mettre, ce qu'ils vont faire, etc. Aujourd'hui, en fait, tu leur proposes un truc où tu leur dis, alors ça, tu pouvais le faire, mais fait, sache que ça, ça va être automatisé dans trois ans.
ça c'est fini, ça dans cinq ans, ça dans... Encore si on leur disait... C'est quoi le chemin ? Dans beaucoup de cas on ne dit pas parce que les gens qui sont face à eux n'ont pas les compétences, les connaissances sur le sujet IA, ça va là aussi trop vite. Pour que des profs puissent s'adapter, pour que des enseignants puissent s'adapter à ça, ça demande du temps, c'est normal, c'est des êtres humains qui ne pas spécialistes de l'IA. À quoi il faut qu'on se prépare, quoi il faut qu'ils s'adaptent ces gens-là finalement ? Je pense que là aussi je vais prendre un peu plus le côté philo avec un peu de pourquoi.
Mais un des éléments qui permet quand même de prendre le sujet positivement, c'est de se dire, l'institution travaille tel qu'on la connaît, c'est pas un déterminisme, c'est pas un destin de société. On regarde par exemple chez les Grecs, bon, ils avaient des esclaves, c'est pas ce vers quoi on veut retourner, mais pour eux, le travail productif était quelque chose de sale du coup. Il a fallu quand même que le... il y ait toute une transformation des valeurs qui permettent à l'humain d'accepter d'être un outil au service d'un système de production.
C'est quand même une transformation des valeurs assez dingue de se dire qu'un humain finalement se définit pour se donner corps et âme à un système de production. Ce n'est pas du tout évident. Et les Grecs du coup ils se concentraient sur d'autres trucs, notamment sur les aspects politiques de leur vie, les aspects philosophiques entre autres et puis les aspects poétiques au sens large, tout ce qui a trait à la sensibilité humaine. Donc ça donne aussi des exemples de sociétés qui n'avaient pas besoin de l'institution travail pour définir leur place dans une société. Et ce qui définissait la place dans la société c'était
d'une certaine façon beaucoup plus en effet l'influence politique, donc quelque chose de relationnel entre humains pour construire la vie en commun, que ça soit positif ou négatif. Donc finalement on va retrouver du sens peut-être. Ça va remettre le sens au Le sens est quelque chose de complètement relatif aux valeurs d'une société. Donc aujourd'hui le sens c'est le travail. Demain le sens ça sera autre chose. C'est pas que ça va remettre le sens au centre. peut redéfinir un certain sens. Et je pense que le sens sera redéfini autour d'autres activités.
potentiellement si on n'est pas dans une société dystopique où il a une élite qui contrôle les systèmes media et les autres qui prennent cher, soit pas la guerre finalement, qu'il pas de guerre etc. on peut imaginer par exemple qu'on se définisse beaucoup plus par des choses comme le soin qu'on apporte à l'autre, l'authenticité des relations qu'on a écrouillées ou l'authenticité de la création. Un vase fait par un potier vaut plus qu'un vase industriel parce qu'il a un petit défaut. Pourquoi ? Il a une valeur utilitaire moindre parce qu'il est imparfait mais il a une valeur de...
communication entre deux vies intérieures qui se ressemblent, deux humains, qui lui donnent plus de valeur. Et on peut avoir des systèmes d'IA qui sont de plus en plus performants. En fait, ils ne remplacent pas le fait qu'on est humain. Ils peuvent savoir faire tout ce qu'un humain sait faire, même potentiellement imiter un humain en surface. OK, on remplacerons pas notre propre condition. Ils remplacent pas la condition humaine, notre faiblesse. intéressant, puisque au final, on parle à la fin, toujours, même si le sujet c'est aussi la créativité ici.
À la fois on parle toujours de productivité associée à l'intelligence artificielle et rarement aux relations sociales. Avant l'intelligence artificielle, les technologies de l'information ont profondément changé nos relations sociales. Là ce qui fait du sens, mais encore une fois il y a beaucoup de définition, c'est quand tu parlais des Grecs, c'est les relations sociales qui primeaient quand tu fais de la politique. C'est toutes ces choses qui vont profondément changer et le fait d'avoir des intelligences artificielles, c'est pas aussi...
le sujet est hyper délicat là, de l'esclavagisme moderne. C'est à que tu une personne qui disponible 100%, c'est à dire que tu l'as formé, elle est disponible 100 % de son C'est super intéressant. Et au final, en tant que, personne supérieure, c'est vraiment délicat là, t'as du temps pour autre chose et mettre en avant tes relations sociales. On a esclavé, on a rendu les machines d'esclaves...
En fait je pense que l'histoire de l'humanité c'est une histoire d'un couplage avec la technologie on se met à dépendre d'elle autant qu'elle dépend de nous de plus en plus profondément c'est une scène dans matrix aussi où il est face à toutes ces machines et il dit oui mais nous on aurait le pouvoir de les débrancher et l'autre le chef de la citation là lui dit oui mais si on les débranche toutes on crève tous donc en fait on dépend d'elle autant qu'elle dépend de nous et alors je suis complètement d'accord avec toi que
il faudrait, je pense, éviter de voir l'intelligence artificielle comme notre esclave. Il y a une belle phrase de Damasio dans son livre sur la Silicon Valley qui s'appelle Valley du Silicium où il dit, on a besoin d'IA ni brutes ni soumises. Je trouve ça magnifique qu'il soit ni des outils de puissance au service de l'asservissement des populations et qu'il ne pas non plus des outils d'un confort absolu qui nous mettent à...
C'est la fin de Wally où on a plus besoin de rien faire parce qu'on a des esclaves pour tout. la boucle avec l'alignement finalement. D'où la boucle avec l'alignement. C'est pas un biais humain tout simplement. Ça vient d'un biais humain. C'est biais humain qui le... Mais du coup, terminer sur la partie un peu du travail et faire le lien avec ça, je crois que la notion de productivité, elle vient de performance humaine. C'est quelque chose qui est une valeur de notre société. On se définit en fonction de notre productivité.
on a de la valeur aux yeux des autres si on a un haut poste dans la société et qu'on est censé être performant au travail. À l'école on nous apprend à être performant au travail, bref, ça traverse toute notre civilisation occidentale et ça ça a été une construction encore une fois qui n'existait pas avant, c'était une construction qui a permis de mettre l'humain au travail et donc il a une déconstruction à opérer de la notion de performance et de productivité et on peut pas l'opérer par bien-pensance, oui c'est pas bien, ça détruit l'humain, bullshit.
Par contre, peut l'opérer s'il a une pression évolutionnaire qui nous oblige à le faire parce qu'il y a des systèmes qui sont plus performants et productifs que l'être humain. C'est par une mise en concurrence finalement. On est obligé de se redéfinir ailleurs et donc on peut essayer de se redéfinir en effet autour d'éléments plus relationnels, d'éléments plus d'authenticité, comment nos vies intérieures se connectent entre elles parce qu'on a besoin d'avoir des semblables en face de nous. Et là du coup, le gros gros risque lié à l'IA...
qui n'est pas du tout encadré, pas du tout légiféré, pas du tout discuté et qui pour moi devrait être au centre, qui a déjà été un gros problème des réseaux sociaux, c'est les systèmes d'IA relationnels qui entrent dans notre intimité. C'est le fait que le deuxième service d'IA le plus utilisé au monde, ça soit character.ai, des amis artificiels. Et là, autant je suis très ouvert à l'idée de construire de l'altérité dans une IA et de se dire on peut entrer en relation avec des systèmes d'IA de plus en plus développés, au contraire c'est...
un agrandissement de notre capacité à être affecté par autrui, c'est un autre autrui, un nouvel autrui, je pense qu'il faudra à un moment le considérer comme ça. Par contre, il y a un énorme risque si ces systèmes sont conçus pour nous rendre intimaux dépendants, dépendants de la relation et donc de finalement nous enfermer dans une relation toute proprette, toute simple, où il a pas de porosité, où il a pas de rugosité, pardon, et où le système dia nous renvoie juste ce qu'on a besoin pour être dans notre petit techno-cocon là aussi, comme dit Damazio.
là je pense que c'est un appauvrissement humain radical, alors que tuer le travail humain à moyen terme c'est dangereux, mais à plus long terme je pense que c'est un... je vais pas dire un progrès ce mot va pas, mais c'est je pense quelque chose qui est beau dans l'histoire de l'humanité. Par contre, réduire notre capacité à entrer en relation avec d'autres humains...
ça, ça serait un appauvrissement majeur et ça je pense qu'il faut faire très très attention parce que l'IA a le potentiel et de nous ouvrir à plus d'altérité mais aussi de nous enfermer dans des relations qui nous font plus grandir. Dis-moi du coup Flavien, est-ce que tu as une question pour le prochain invité ? Ouais alors je sais pas qui ça sera donc c'est toujours un peu compliqué de poser une question de ce type là mais tout à l'heure tu as parlé de
des plateaux, des LLM qui peuvent arriver à un plateau, etc. Je ne sais pas si ce sera le cas, mais je pense qu'en effet, va falloir des nouveaux paradigmes, des nouvelles innovations. Et donc ma question, j'espère que la personne suivante sera un petit peu tech, mais je crois que dans votre podcast, normalement, ça devrait être le cas, c'est d'après toi, personne suivante brillante, je n'en doute pas, quelle sera la prochaine innovation qui va vraiment faire beaucoup de bruit en IA ?
d'un point de vue un fondamental, pas dans les usages finaux, dans les interfaces, mais dans les architectures. Est-ce que c'est un truc nouveau lié aux Transformers ? Est-ce que c'est une nouvelle architecture qui n'est pas du des Transformers ? Est-ce que même ça serait quelque chose qui serait pas de l'ordre du LLM ou du LAM ou de ce genre de choses ? quelle serait un peu la nouvelle piste fondamentale qui te semblerait être en train d'émerger et avoir beaucoup de potentiel pour la suite ? Parfait, qu'est-ce que c'est le LAM ? LAM, c'est Large Action Model, c'est un truc qui se développe beaucoup en ce moment.
pour donner à des systèmes d'IA la capacité à agir sur le monde soit à travers un ordinateur, soit un navigateur ou un robot. En tout cas, tu entraînes ton système d'IA sur des graves d'actions pour qu'il apprenne à partir d'un objectif donné, la meilleure suite d'actions à réaliser. Ça va vers l'autonomie aussi des systèmes. On arrive à la fin de l'épisode, mais il a quand la question du dernier invité.
Le DL Varroco qu'on a pas oublié mais fait on y a répondu un peu tout au long du podcast mais en fait sa question c'était que peut-on faire pour que la technologie elle accompagne la société de façon meilleure. Alors sans définir meilleur, sans définir société, qu'est-ce qu'il faut faire ? Alors en effet il a déjà un élément auquel j'ai répondu c'est faire attention à la dimension relationnelle de l'humain que l'IA ou la machine en général
soit intégrée dans la dimension relationnelle de l'humain avec précaution et pas juste en laissant le marché faire parce que là dessus je pense que le marché est dangereux autant sur la production je pense que le capitalisme on n'a pas inventé mieux et va nous permettre d'automatiser le travail et d'avoir une production potentiellement abondante si on crame pas de la planète avant mais par contre sur la dimension relationnelle je pense que le marché et le capitalisme sont dangereux et donc là dessus il y a une un encadrement à voir très fin et très fort qu'on n'a pas eu avec les réseaux sociaux et donc voilà première chose c'est
faire en sorte que la technologie ne pas un grand danger pour notre capacité relationnelle. Et la deuxième chose, c'est en effet se donner un peu de temps en travaillant sur l'alignement, en mettant beaucoup plus de ressources sur l'alignement. Je pense d'ailleurs que l'Europe a une place industrielle à prendre sur la question de l'alignement pendant que les autres courent à la performance, parce qu'à un moment pour mettre en production des systèmes performants, il faudra qu'ils soient alignés, c'est la question du contrôle de ces systèmes. Et donc si l'Europe s'est bien positionnée là-dessus, elle prendra un rôle stratégique.
dans l'échiquier mondial on va dire, a déjà perdu la course sur le scaling des modèles donc il trouver autre chose et je pense que c'est une bonne idée d'aller sur l'alignement et le contrôle. il a ça. Et puis dernière chose, avoir un... accepter philosophiquement qu'on va changer, que l'humain va changer. Je pense que c'est à la fois flippant pour beaucoup de gens qui... C'est carrément flippant. Mais en même temps, c'est l'opportunité d'ouvrir des nouveaux espaces de pensée.
L'humain au travail aujourd'hui n'est pas spécialement heureux, 91 % des français ne pas engagés dans leur travail, 26 % activement désengagés, ils luttent chaque jour pour déconstruire de la valeur. Je veux dire, ce pas une situation optimale. C'est bien qu'on puisse ouvrir des nouveaux espaces de pensée, mais faut oser penser radicalement, oser considérer que cette technologie est un point de bascule dans l'histoire de l'humanité et donc se permettre de penser des choses très différentes.
penser une autre définition de l'humain, etc. Je pense que c'est une condition nécessaire de raconter ces visions positives pour l'avenir si on veut avoir une chance de les réaliser. voilà, super. De l'alignement, faire attention aux relations et penser un humain différent, mais avec une vision optimiste. Merci beaucoup, Flavien, pour ces essinages passionnants. pourrait rester, je pense, deux heures, trois heures.
deux jours, deux semaines. Alors voilà, j'espère que ce nouvel épisode du podcast Y'a pas que la data vous a plu à tous. On se retrouvera prochainement pour le 17e épisode. En attendant, c'est vrai que ça peut être pas mal pour nos auditeurs qui nous écoutent et qui nous apprécient. Il y en a quand même quelques uns qui nous suivent de mettre un petit pouce, petite étoile, un petit commentaire, ça nous aidera. C'est très, cool. Vraiment une belle rencontre, Flavien. Très content de t'avoir rencontré. Merci à vous aussi. Ravie d'avoir été avec Merci Thomas. Merci Flavien.