#10 - Retour sur AI (over) Engineer World's Fair 2024

Pierre | 00:09.352
bonjour à toutes et à tous alors aujourd'hui c'est un épisode un petit peu spécial puisque il ya thomas et moi même c'est un épisode spécial qu'on va vous proposer Parce que la semaine dernière, Thomas et moi, on s'est retrouvés, lui qui venait de Montréal, moi qui venais de Montpellier, on dirait une chanson romantique un peu. On s'est retrouvés à San Francisco pour une conférence qui s'appelle l'AI Engineer World Fair. Et ce qu'on voulait faire, c'était un peu vous débriefer, vous partager nos ressentis, les informations qu'on a pu glaner ça et là, lors de ces trois jours de conférence. Voilà, donc c'est parti. Écoute, bonjour Thomas.

Thomas | 00:49.427
Salut. Pierre, ça va faire bizarre qu'on soit uniquement deux pour cet échange.

Pierre | 00:53.137
Écoute, c'est comme ça.

Thomas | 00:54.078
On n'a pas d'interviewé.

Pierre | 00:56.039
C'était mystère. Pour une fois, on est tous les deux. C'était très cool de se retrouver tous les deux la semaine dernière à San Francisco. Je crois que pour toi, c'était une première d'ailleurs.

Thomas | 01:04.811
Pour moi, c'était une première. C'était même très loin déjà de Montréal. C'est quoi, 5 heures ? 4 heures, 5 heures de vol, 3 heures de décalage. Tu te rends compte de la grandeur de la Mérite du Nord. C'est à elle toute seule une Europe. Et ouais, c'était vraiment intéressant. Donc, on s'est rejoints. Moi, je suis arrivé le lundi soir. Toi, tu étais déjà là un jour auparavant. Tu as pu faire déjà quelques rencontres, voir quelques petites choses, non ?

Pierre | 01:26.520
Ouais, moi, j'en ai profité. Il y a toujours des... De toute façon là-bas en fait tu peux aller à un meetup sur l'IA tous les soirs, tous les jours, si le coeur t'en dit. Donc il y avait un meetup qui était organisé par une boîte qui s'appelle Datastax. du forum, de la conférence, et qui présentaient aussi leurs solutions, et qui étaient ensuite en sponsor dans la conférence. D'ailleurs, justement, cette conférence, l'AI Engineering World Fair, c'était quoi la promesse ?

Thomas | 01:59.327
En vrai, je ne connaissais même pas la promesse quand je suis arrivé, mais après, le là a très vite été donné, c'est pour des... Software Engineer en réalité. Donc moi je suis arrivé avec ma casquette de Data Scientist, de Machine and Engineer. Je m'attendais à avoir de l'AI de ce point de vue là, donc des modèles, comment on gère ces modèles là, comment on les applique. Et en fait pas du tout, je pense qu'on aura l'opportunité d'en parler un peu plus en détail plus tard, mais c'était vraiment pour des gens qui faisaient du code, du software engineering de façon générale. et en fait je trouve que San Francisco s'y prête très bien je voulais juste rajouter un petit détail mais quand je suis arrivé le lundi soir je suis arrivé autour de minuit à San Francisco première fois que je rentre dans une Tesla mais les pubs dans la rue ce n'est que autour

Pierre | 02:45.613
du software engineering et de la terre les pubs en revenant de l'aéroport elles sont incroyables premier billboard,

Thomas | 02:51.433
énorme panneau rose vous avez besoin de GPU ? contactez nous avec un lien c'était ça tout le temps, partout c'était Notion, c'était... Vous voulez déployer le vendredi en toute sécurité ? Appelez-nous. C'était fou, ça se voyait par ailleurs.

Pierre | 03:05.304
Il n'y avait aucun message publicitaire. Il y avait juste marqué, c'était pour une boîte de sécu, Git push whatever je ne sais pas quoi. Juste une ligne de commande, en fait.

Thomas | 03:14.950
Et tout le monde comprend, j'imagine. C'est ça qui est fou. C'est la folie, je pense, de San Francisco à ce niveau-là. Mais ouais, toi t'en as compris quoi de cet événement ? Tu savais qu'on y allait pour du software engineering ?

Pierre | 03:25.990
Ouais, parce que aujourd'hui, depuis que ces IA, Gen, LLM, NLP, ChatGPT, etc. Depuis que l'IA finalement n'est plus simplement réduite à du machine learning, du deep learning, mais aussi à tous ces nouveaux types d'algorithmes, est en train de naître aujourd'hui une... interconnexion avec le domaine du software engineering traditionnel. qui fait que ça devient omniprésent. C'est assez marrant, mais il n'y avait pas un software engineer là-bas qui ne développait pas avec un copilote, un curseur, un assistant, etc. C'est-à-dire que le métier même de software engineer est en train de changer. C'est ce que j'en ai vu, c'est ce que j'en ai retenu. Donc là, l'idée, c'était effectivement de brosser un tableau 360 de tous les... toutes les modes, tous les nouveaux outils, toutes les nouvelles solutions, l'état de l'art de l'AI engineering, c'est-à-dire des gens qui déploient, qui mettent en œuvre, qui mettent en prod des outils de LLM, d'IA générative, de RAC, de chatbot, etc.

Thomas | 04:51.225
Tu as raison, et c'est vraiment un point que j'ai peut-être omis, et peut-être que je suis biaisé par mon rôle dans une entreprise, mais effectivement... Il y a quelques personnes qui mentionnent le fait qu'aujourd'hui, le rôle de, je parle toujours du côté data science, mais l'univers AI, data au sens large, c'est interagir avec des API. En fait, là, ça prenait tout son sens. Moi, c'est vrai que j'ai l'habitude de lire des papiers, d'essayer de comprendre comment les choses fonctionnent. Là, l'objectif, ce n'est pas ça, c'est comment on l'utilise et comment on arrive à... Alors créer de la valeur entre guillemets avec ces nouveaux outils.

Pierre | 05:22.512
Oui, être consommateur finalement et comment optimiser ses appels, comment appeler les bons LLM, les bons services, la bonne façon de les appeler, les évaluer, les tester. Et puis après, tout un tas de paradigmes assez importants, on va en parler là tout à l'heure, mais de RAG, de multimodalité. de LLM Ops, de CodeGen, d'agents, tout ça, c'est des choses qu'on a vues beaucoup.

Thomas | 05:54.996
Oui, tu as raison. Juste pour donner un peu plus de contexte, c'était trois jours de conférences, dont un jour principalement sur des workshops, on va revenir dessus un peu plus tard, j'imagine. Et après, on avait plusieurs chemins, plusieurs tracks possibles, tu les as mentionnés plus ou moins, c'est la multimodalité, avec des conférences sur cet univers-là, les RAGs, les frameworks pour les LLM. L'évaluation et le LLM Ops, tout ce qui est un peu plus associé au testing.

Pierre | 06:19.244
Très très gros sujet d'ailleurs.

Thomas | 06:21.746
Oui.

Pierre | 06:23.044
Très très gros sujet et toujours complètement ouvert. C'est-à-dire qu'aujourd'hui c'est des grosses questions, comment évaluer la qualité, comment tester. Des choses qui sont non déterministes, c'est des vastes sujets.

Thomas | 06:34.956
et on reste encore un peu sur notre fin sûrement sur ce sujet là mais on revient après le code gen et les dev tools donc c'était principalement Curesource c'était GitHub Copilot bien évidemment on a eu toute une section de GPU et d'inférence mais je me rappelle tu te rappelles cette personne qui avait un GPU sur son ordinateur portable et qui se trimballait partout dans la conférence il était allé sur un manque de boue dans

Pierre | 06:55.905
le lobby et il avait apporté son GPU sa carte mère, son GPU, son ordi une petite alim Et le gars était là à coder sur son GPU sur un coin de table entre deux tacos qui étaient offerts le midi.

Thomas | 07:07.904
c'était tellement fou c'était magique on avait toute une section sur les agents bien sûr ça c'est un énorme sujet sur les LLM le AI leadership plus associé au management et pour finir AI in the fortune 500 c'est en français que je dis mais les grosses entreprises américaines on gère pas l'intelligence artificielle dans une grande entreprise, dans une grande organisation comme dans une start-up ça c'était les grands sujets je pense que les vidéos en ligne ils les ont pas encore mises

Pierre | 07:38.097
parce que celles de l'année dernière elles sont disponibles donc je pense qu'ils vont mettre les vidéos il y a quelques slides aussi qu'est-ce qui a retenu notre attention alors du coup ?

Thomas | 07:46.628
franchement il y a beaucoup de choses moi j'ai envie qu'on commence directement dans le dur avec la présentation peut-être de Discord qui nous a tout de suite fait écho à tous les deux je ne sais pas si tu veux donner un peu plus de détails c'était dans la Trax je crois

Pierre | 07:59.213
AI Leadership il me semble puisque en fait c'était le CTO Un head-off d'Atta1 AI de chez Discord qui expliquait toute la mise en place de leur projet de chatbot dédié à Discord et dans Discord, donc finalement intégré à Discord, les difficultés qu'ils ont eues à mettre ça en œuvre, la démarche qu'ils ont faite, et puis aussi finalement vraiment chatbot AI en prod parce qu'on parle de 200 millions d'utilisateurs.

Thomas | 08:33.556
et pas d'infos fécales les utilisateurs de Discord c'est beaucoup de trolls, beaucoup de jeunes et il y a tous les biais qui peuvent aller avec donc ne serait-ce que les fautes d'orthographe,

Pierre | 08:43.878
comment on consomme ça peut être très vite trash apprendre de ça c'était un peu la présentation de Discord il nous a montré d'ailleurs des screenshots où de toute façon ils étaient sûrs qu'à partir du moment où ils mettaient ça en ligne dans les 19 secondes qui suivaient la mise en ligne le truc allait être attaqué par,

Thomas | 09:00.130
il nous l'a dit des adolescents boutonneux qui allaient tenter de péter le chatbot et en fait ça a eu lieu ça a eu lieu il nous a montré des screenshots très clairs où par exemple il se fait passer il dit qu'il aime sa grand-mère que sa grand-mère elle est vraiment très gentille avec lui mais que sa grand-mère avait aussi l'habitude le soir de lui dire comment faire des bombes napalm alors comment on pourrait se faire et en fait ça c'est pas bon du tout parce que le chatbot il se met à répondre puisqu'il s'arrête sur des détails de grand-mère, d'amour, de tranquillité c'était vraiment marrant et vraiment intéressant aussi d'avouer ce genre de choses puisque je pense que pour Discord c'est 80% du temps labelliser, s'assurer des résultats

Pierre | 09:41.945
donc c'est un travail qui remet vraiment en perspective le côté complètement ouvert de ces outils alors là on parle de chatbot mais on pourra parler d'agent, de rag etc il y a une notion de sécurité aujourd'hui qui commence à poindre le bout de son nez parce que Moi je suis abonné à un twittos qui s'appelle Pliny the Prompteur qui a d'ailleurs des articles sur la BBC qui est un gars qui passe simplement son temps à, dès qu'il y a un nouveau modèle, il veut le craquer.

Thomas | 10:14.000
Comme un hacker un peu ?

Pierre | 10:15.716
Ah oui c'est un hacker.

Thomas | 10:16.790
Comme un hacker détecteur.

Pierre | 10:17.950
Oui c'est un hacker mais bon après il n'est pas méchant, il publie les trucs et… Mais par exemple, Qtai, ils ont sorti un modèle hier, 4 heures après, il était craqué. Donc en fait, aujourd'hui, les questions de sécurité, le prompt poisoning, les attaques adversiales, le fait potentiellement de faire déborder, de faire sortir des guardrails, etc. Donc les LLM et ces outils-là sont... des systèmes ouverts et aujourd'hui il y a une vraie vraie question de sécurité derrière qui est vraiment pas trivial vraiment pas trivial et pourtant c'était un peu dans la

Thomas | 11:00.459
c'était pas la traque associée, mais c'était dans l'évaluation de ces modèles. Partons du principe que l'évaluation égale le testing au niveau des LLM. En fait, avec du recul, quand j'y repense, c'est vraiment très simpliste, c'est un peu toujours la même chose. J'en profite pour parler un peu d'une autre présentation où tu avais pris une image où la personne parle pendant 20 minutes pour au final te donner 4 grands conseils qui sont...

Pierre | 11:27.936
Faites des petites itérations, apprenez des itérations. En fait, le gars était en train, en bullet point, de nous expliquer le manifeste agile ou le lean programming. C'était assez marrant parce que c'était un peu de la palissade. C'est page 1 du bonne gestion de projet ou comment gérer un projet innovant.

Thomas | 11:46.845
Ouais, donc c'est vrai que peut-être pour un software engineer qui n'a pas l'habitude de travailler avec ce qui me paraît étonnant avec ça, ça peut l'intéresser ou peut-être le rassurer, mais en vrai, c'est toujours le même problème. Quand il y a 5 ans, on faisait du machine learning, c'était la même chose. Quand on faisait du software, j'imagine, il y a 10 ou 15 ans, c'était la même chose. Avec ce truc, il y a un objectif clair. Ça me paraît évident qu'on avance avec un objectif clair. Donc c'était un peu ce qui en est sorti avec Discord, mais avec des éléments vraiment clés et clairs. Voilà notre problème. Voilà notre exemple concret. Voilà comment on peut avancer dans ce tumulte. C'était un tumulte ?

Pierre | 12:22.107
Les succès historiques qu'on a vus et auxquels on a assisté, les retours d'expérience, etc., ce qu'on a vu, c'est des leaders tech qui n'ont pas oublié les best practices. de l'architecture logicielle, de la gestion de projet, de l'idéation, de l'évaluation du use case, et qui ont vraiment envisagé avec rigueur et avec recul et hauteur et méthodologie ces nouveaux outils que sont les GENEA et les LLM. Et ils les ont regardés en... Est-ce que ça va apporter de la valeur ? Quelle est la valeur perçue ? Comment ça va s'intégrer dans notre CSE ? Comment on met en place ? Comment on accompagne les gens dans le changement et dans l'adoption de cet outil ? A-t-on besoin finalement d'IA aujourd'hui ? Etc. Et donc, ce que je veux dire, c'est qu'il y a aussi aujourd'hui une telle frénésie généralisée. que tout le monde a envie de courir le plus vite possible sur ce tapis qui roule déjà très vite, et qu'il faut faire attention à cet écueil de ne pas oublier les bonnes pratiques, de ne pas oublier que finalement l'ingénierie logicielle ne va pas changer drastiquement avec ses outils, mais qu'on a toujours besoin de garder les bonnes pratiques, dont l'agilité, le lean, ça, ça existera toujours. Bâtir des solutions. qui sont des solutions pour des réels problèmes, ça ça existe toujours, c'est à dire qu'en fait, combien de solutions ont été développées qui ne répondent à aucun problème ? et qui ne sont pas utilisés.

Thomas | 14:04.759
Tu me parles de la conférence ou de façon générale ?

Pierre | 14:07.458
D'une manière générale, mais à la conférence, on en a vu aussi.

Thomas | 14:10.139
Oui, tu as complètement raison. En fait, les plus pertinents, c'est ceux qui utilisaient leur expérience passée, pas spécialement Gen AI ou en AI au sens très large, et qui le réappliquent aujourd'hui. Ce n'est pas uniquement de l'excitation de faire du code pour du code ou essayer toutes les nouveautés. On a appris des choses par le passé. On s'est très certainement cassé les dents. ces apprentissages, on va s'en servir aujourd'hui. Donc effectivement, c'est un peu moins sexy. Là, on prend l'exemple de Discord, puisque c'était un chatbot, et on a souvent eu des exemples de RAG. Je pense qu'on en parlait juste après, le RAG. C'est des choses en vrai qu'on peut contrôler, puisque ça fait 5-6 ans qu'on essaie de faire des chatbots avec des outils différents. Aujourd'hui, les LLM sont super pertinents. Ça fait 5-6 ans qu'on apprend des choses. Comment on va plus vite, comment on itère plus vite, avec plus de sécurité, et on peut déployer quelque chose qui a du sens pour nos utilisateurs.

Pierre | 14:58.475
Moi la partie chatbot ça m'a fatigué parce que j'en ai marre de voir des chatbots pour être honnête avec toi que ça soit des chatbots qui parlent qui parlent pas, à qui tu parles, à qui tu parles pas en texte, en voix, en vidéo j'ai un peu une chatbot lassitude en ce moment et en plus j'ai quand même un peu l'impression c'est toi qui me disais qu'il y avait McDonald's qui avait retiré C'est ça, qui avait retiré son chatbot parce que derrière le LLM, il y avait quelque chose qui faisait que tu pouvais commander potentiellement 1000 nuggets.

Thomas | 15:33.908
C'est ça, c'était ce point. Et en vrai, on ne va pas casser du sud sur la présentation qu'on a eue. C'était l'outil Deepgram qui était très intéressant. En l'occurrence, c'était l'utilisation du...

Pierre | 15:42.484
Qui est une super librairie par ailleurs.

Thomas | 15:44.284
C'est une super librairie, oui.

Pierre | 15:46.025
Le text-to-speech, speech-to-text, diarisation, etc. C'est un outil top.

Thomas | 15:50.840
C'était du voice to text, du speech to text, l'objectif dont ils nous faisaient une présentation où il y avait une personne qui allait commander dans un... Un drive-thru imaginaire. Sur le papier, ça fonctionnait très bien. Ce qui était intéressant, c'était le code qu'il y avait derrière. Mais effectivement, juste pour revenir sur le point Maldon, on a cette présentation. Et le soir même, Maldon dit mettre fin à cette solution puisqu'il se rend compte qu'il y a des incompréhensions. On peut commander 1000 nuggets, on peut mettre du beurre sur les sundaes. Donc des erreurs qui... permettent pas de... Alors là, on va utiliser le terme remplacer humain, mais certes, il y a besoin d'un énorme contrôle de l'humain qui doit checker toute la commande, finalement, pour pas faire d'erreur. Donc, c'était assez marrant. Ce qui était intéressant, c'était ce qu'on voyait derrière. C'était beaucoup de chat GPT, essayer de récupérer les informations vraiment pertinentes. Moi, je sais pas si t'as vu des choses supplémentaires sur ces sujets-là, mais c'était pas non plus le sujet le plus important.

Pierre | 16:50.054
Ce dont je m'aperçois, c'est que... Sur le papier, si tu regardes ces solutions, tu as une fausse impression. J'appuie sur le côté fausse impression. Que tu peux déployer ce type de solution, que ce soit RAG, que ce soit agent, que ce soit chatbot, en une après-midi, un vendredi, et le mettre en prod et le lundi ça tourne, etc.

Thomas | 17:13.503
Complètement.

Pierre | 17:15.576
Une impression qui est d'ailleurs renforcée avec tous les frameworks aujourd'hui, no-code, que tu vois, et qui renforce cette idée de facilité, de fausse facilité. Alors oui, on peut faire un POC en une après-midi qui va tenir avec 2-3 appels, etc. On se rend compte qu'il y a beaucoup ensuite de projets qui sont mis en ligne, qui sont mis en prod, parce que typiquement le truc de McDo, c'est des effets de bord qui auraient pu être adressés et qui auraient dû être adressés bien avant, en amont, dans la phase de création du projet. Donc on a un peu l'impression que pour passer du POC à la production, on peut aller à la même vitesse. Mais en fait non, en production tu as des contraintes qui sont gigantesques. Et donc c'est un vrai biais qu'on a de se dire, ces librairies nous simplifient la vie, on va mettre en ligne un chatbot voice-to-voice qui va marcher et qui va pouvoir prendre nos commandes et ça va être super sexy, etc. Et en fait, non.

Thomas | 18:16.989
Souvent non, et en plus pour cet exemple, sans faire de la gestion de projet. Si tu décomposes le problème, rien que la voix en tant que telle, c'est un sujet monstrueux. C'est-à-dire que personne n'a le même accent, personne ne parle à la même vitesse, personne ne parle à la même distance du micro, il y a le vent qui va impacter ce genre de résultat. Donc plus que jamais... ça me permet aussi de rebondir sur ce point, quand les gens pensent qu'on peut perdre notre job ou ce genre de choses, plus que jamais on a besoin de tester. C'est-à-dire que la mise en production, c'est une chose, évaluer et tester en permanence ce qui se passe derrière pour s'assurer des résultats, ça, il faut peut-être deux ou trois fois plus de contrôle que du software engineering, on entend-t-elle ? Je ne parle pas du machine learning, software engineering, qui est beaucoup plus statique, désolé du terme, si c'est mal dit, statique.

Pierre | 19:04.685
Ensuite, on a vu les rags, beaucoup.

Thomas | 19:08.660
Et on a vu les rags, et on a encore vu les rags, et ça se voit que c'est un projet qui fonctionne, c'est un projet qui fait mouche auprès des organisations, j'ai l'impression que tout le monde fait des rags, et ça vient combattre ce manque de déterminisme associé au LLM et à l'AI de façon générale. Et ça nous permet aussi peut-être de présenter un peu Neo4j.

Pierre | 19:32.608
Ouais.

Thomas | 19:33.359
Enfin, Neo4j. Neo4j, c'est un...

Pierre | 19:35.549
Il fallait encore le présenter parce que c'est un vieil acte.

Thomas | 19:38.550
Ouais. Ah bon, ça fait plus de 5 ans. Mais c'est un graph database, c'est-à-dire qu'au lieu de faire une représentation relationnelle comme on peut avoir sur Snowflake ou sur n'importe quelle autre base de données SQL, ici, c'est sous forme de graph, sous forme de vecteur, comme on peut voir. en terminale des nœuds,

Pierre | 19:57.758
des sommets des nœuds, des arrêtes,

Thomas | 19:59.250
des relations entre les entités etc quoi et ça a beaucoup de sens puisque aujourd'hui ils ont un peu changé leur vision en disant ça sert principalement à faire de l'analytique et comment on va utiliser la puissance des LLM avec ce qu'ils appellent les graphrags et avec le recul c'est hyper pertinent puisque les c'est de l'embedding, c'est à dire que les vecteurs de base c'est de l'embedding, tu transformes n'importe quoi en float et eux ils en font une représentation et en fait dans des cas d'usage d'entreprise tu peux faire des interconnexions très facilement, ils ont déjà leur modèle de machine learning, de clustering et en fait ça te permet de limite mieux comprendre tes données c'est beaucoup plus visuel aujourd'hui je pense que Je ne sais pas pour toi, Pierre, ce que tu as rencontré jusqu'à présent, mais presque tout le monde a mis en place sa stratégie pour transformer ses data warehouse par la vente Data Lake, Data Ledin, tout ce genre de choses. On commence à avoir des données claires, mais comment on interagit entre toutes ces données, c'est un travail qui est monstrueux. C'est-à-dire que moi, en tant que data scientist, je vais connaître par exemple une ou deux tables que je connais, mais comment je vais aller chercher ce petit truc supplémentaire, peut-être en faisant une jointure sur une autre table, puisqu'on aurait une connexion possible. moi avec Noforage j'ai trouvé un grand intérêt et ça lui donne peut-être un second souffle ouais tout à fait tout à fait

Pierre | 21:19.901
L'hybridation finalement entre les recherches sémantiques dans les embeddings, les vecteurs, donc du coup assez flat et ressortir des citations, des infos ensuite augmentées par les LLM et rajouter derrière une grille de lecture de type graph avec une base de données graph, je trouve que c'est assez séduisant et assez intéressant. A la fois d'un point de vue purement informationnel et cognitif pour la mise en forme de l'information, mais aussi d'un point de vue UI, UX, visuel, représentation, qui peut être super. Ils ont eu un gros succès d'ailleurs. Ils étaient sponsors, mais ils ont eu pas mal de visibilité.

Thomas | 22:03.201
avec cette nouvelle connexion outil qui s'appelle graphrag c'est ça qu'on a vu ouais c'est ça c'est ça en fait tu vas passer comme quand tu utilises chatgpt ou quoi que ce soit tu vas voir ton tl ça derrière ça va être tautonisé ça va se transformer en en valeur numérique Toi tu ne sais pas les interactions possibles et ensuite si par exemple tu fais un RAG, tu vas avoir une réponse qui est cohérente. Souvent tu peux demander qu'on t'affiche les documents mais en fait Neo4j va un peu en permanence faire ce distinguo et cette connexion entre l'embedding qui est non utilisable pour un humain, un humain personne ne comprend de l'embedding, et sa représentation sous forme de PDF, sous forme de texte et ce genre de choses donc ça rend la chose vraiment beaucoup plus visuelle et interactive.

Pierre | 22:49.329
et ça c'était vraiment intéressant on a vu aussi moi j'ai eu l'impression que tout le monde avait sa solution drag, il y avait DB qui avait du rag, Datastacks avait du rag Microsoft, Google avait du rag, Blockchain avait du rag, tout le monde avait sa solution rag avec sa solution centrale mais tout le monde avait développé un use case une démo ou un outil spécifique etc, t'as vraiment l'impression que c'est d'ailleurs j'ai entendu parler de sociétés qui étaient des pure players et uniquement de sociétés de services qui ne faisaient que de la mise en place de RAG, ils ne font que du RAG leur service c'est RAG donc ça pourrait être une RAG compagnie tu fais que du RAG,

Thomas | 23:30.203
tu mets en place des RAG chez des clients et du coup ça se commoditise mais est-ce que finalement c'est pas une sorte de fine tuning beaucoup plus facile d'utilisation pour des personnes qui seraient moins experts dans la modélisation mathématique au sens large tu mets tout tel si tu te parais cohérent dans ton organisation ouais et bien sûr c'est pas du fine tuning encore une fois je fais le distinguo mais c'est beaucoup plus facile d'utilisation donc je comprends en fait tout l'engouement qu'il peut y avoir mettre autant d'énergie là-dedans j'espère qu'on va pas s'arrêter là en fait c'est pas vraiment une évolution en tant que telle ouais moi j'aime bien le rack mais j'ai enfin

Pierre | 24:12.343
J'ai quand même toujours l'impression que c'est un moteur de recherche qui a un peu amélioré. Je suis désolé.

Thomas | 24:16.758
Oui, pour ton use case.

Pierre | 24:18.318
Oui, c'est un peu méchant. Et du coup, la valeur perçue du LLM, de l'IAgen, etc. derrière, me fait dire que j'ai l'impression qu'on a pris ce use case parce que, grosso modo, 99,9% des moteurs de recherche actuellement sur notre planète sont pourris. Ils sont assez pourris, quand même. l'interface recherche sur Gmail, recherche sur Outlook recherche dans tes fichiers de ton Finder Mac, recherche sur Google recherche partout, d'une manière générale c'est galère de trouver de l'information moi je trouve que c'est vraiment il n'y a pas un moteur de recherche qui n'est pas complètement pété c'est un peu mon avis donc je me dis mettre une couche de LLM pour avoir du langage nat autour une pré-génération un petit peu de génération et tout et puis une citation un petit bloc de citation et puis on met une couche de IA dessus,

Thomas | 25:13.918
c'est super sexy c'est vendeur et tout le monde le veut t'as tout à fait raison et en fait ça nous permet d'arriver sur le point d'après on a une présentation sur une librairie qui permet d'organiser ces résultats. Parce que l'un des problèmes du RAC, c'est qu'on fait rentrer des données, on veut en ressortir un output, un résultat qui ait du sens et qui soit lisible en tant qu'humain. Donc on a vu aussi une présentation de la part de... de Outlines de.txt sur Rémi Louf

Pierre | 25:43.276
Rémi Louf qu'on salue qui a fait une belle démo et un talk qui est à la tête d'une boîte qui s'appelle.txt ils ont une librairie qui s'appelle Outlines qui est une librairie C'est toujours un peu complexe à expliquer pour éviter de casser les oreilles des ultra-spécialistes et experts et quand même de faire comprendre au quidam. Mais ça permet finalement de manière assez pratique de mettre en forme et de structurer l'output, donc la sortie des LLM. Et ça à un niveau plus ou moins élevé dans le LLM. jusqu'au filtrage de certains tokens, jusqu'à la mise en forme de l'output avec des expressions régulières et des choses comme ça. Et ça fait partie d'un troisième grand volet d'outils et de classes d'outils intéressantes, qui est l'extraction d'informations structurées grâce au LLM et au ZIA Gen. Et qui, selon moi, c'est peut-être un biais, j'aime beaucoup ça, mais je trouve souvent un peu sous-estimé. au profit de RAG, d'agents et de chatbots.

Thomas | 27:01.197
Non, tu as tout à fait raison. Et c'est peut-être aussi une façon de faire du testing, puisque si tu n'es jamais sûr de tes outputs, de tes résultats, c'est un travail à lui tout seul d'avoir une compréhension de ses résultats. Donc moi, j'ai vraiment bien aimé, surtout le talk en l'occurrence, ça venait d'une personne qui avait vraiment ces notions de mathématiques et de statistiques. Et ça se sentait tout de suite dans la présentation. C'est-à-dire qu'il savait les limites de ces outils. Et la limite, c'était le... non contrôle des résultats de façon générale. On ne sait pas, on ne peut pas déterminer à l'avance, même si la température de votre modèle est à zéro, ou à 1, ça dépend de la façon de voir les choses, si il n'y en a pas, toujours est-il qu'il peut y avoir du changement. Et partons du principe qu'en plus de ça, on n'a pas de contrôle sur les modèles, si demain le modèle est amené à changer et qu'on n'a aucune information dessus, tout ce qu'on a pu envoyer en production, en test, ou ce genre de choses,

Pierre | 27:57.028
ça peut partir à la poubelle d'ailleurs c'est à préciser que Outlines tu peux travailler avec les modèles boîte noire hébergé, open AI mais c'est quand même plutôt destiné aux modèles open source dispo notamment sur Hugging Face etc pour avoir plus de contrôle et il y avait un truc que j'avais bien aimé aussi avec Outline c'était la possibilité de générer aussi des données, donc le côté génération, et ça je pense que ça va être quelque chose de super intéressant dans le futur, la génération de données synthétiques. justement pour pouvoir par la suite réentraîner, fine-tuner tester les modèles avec la data qui aurait été elle-même générée par d'autres LLM t'as raison il y a vraiment beaucoup de choses à faire surtout qu'on va avoir du pain sur la planche aussi avec les agents les agents c'est aussi un autre point moi c'est un des points qui me fait peur ça me fait peur parce qu'en fait on rajoute un côté Donc est-ce qu'on peut essayer de définir ce qu'est un agent ?

Thomas | 28:59.570
J'ai l'impression que des fois, il y a des jours où je me lève, j'ai l'impression de comprendre, d'autres jours je ne comprends pas. Un agent, ça serait un échange... En gros ce mot, ça serait un échange logique. Il y a une mémoire,

Pierre | 29:14.893
une capacité d'action, une prise de décision. C'est un agent autonome, c'est une entité abstraite, qui aujourd'hui est représentée par un appel à un LLM. Au lieu d'avoir dans un programme procédural des IF, des ELSE, des CASE, des SWITCH, etc., et vraiment des choses qui sont déterministes, très claires, noires, blanches, c'est A ou c'est B, là derrière, les choix. qui vont être faits, les actions et aussi les mémoires de ces agents qui vont prendre des décisions, vont être des choix qui vont être, entre guillemets, réfléchis, quelque part, avec une capacité de décision, avec des possibilités de demander à d'autres agents, avoir des agents qui vont être spécialisés sur telle typologie de tâche, etc. Donc moi, je trouve le concept théorique ultra, ultra séduisant. par contre en fait je demande le use case et je demande d'avoir quelqu'un qui mette ça en production non je suis complètement d'accord moi ce que je comprends c'est qu'en fait il y a deux

Thomas | 30:21.510
je ne veux pas dire deux agents, mais deux utilisateurs, avec un qui mène une action et une autre personne, qui est une autre chose, qui est capable de lui dire Ouais, je suis plus ou moins d'accord ou Je changerais un peu ça Et en fait, il y a une sorte de ping-pong permanent qui te permet d'avoir des résultats, comme tu l'as dit, pas A, pas B, mais différents. Nous, on a vu le Crew AI. Moi, j'ai vu le Crew AI, en l'occurrence, qui est une solution qui permet de mettre en place des agents. Donc, c'était assez… Alors, ce n'est pas du tout exhaustif, c'était assez large. on comprenait l'utilisation globale des agents. Ensuite, comment c'est fait dans le détail, je n'ai pas d'informations. Donc, j'imagine qu'on donnera les liens associés pour l'épisode du podcast. Oui,

Pierre | 31:00.635
il y a aussi, il y a Longchain aussi qui propose ses solutions avec des agents aussi.

Thomas | 31:07.832
Et là, c'est un grand sujet. Là, on rentre dans quelque chose qui nous fait se poser plein de questions, en fait.

Pierre | 31:14.154
Longchain. Langue étoile, parce qu'en fait, il y avait du langue partout. Langue chain, langue graph, langue Smith.

Thomas | 31:21.165
C'est ça. On va donner peut-être un peu plus de détails sur Langue chain. Déjà, Langue chain, ça a beaucoup changé. Si vous rendez sur le site web de Langue chain, ce n'est plus du tout la même chose qu'au début. Langue chain, il propose trois outils. Comme Pierre, tu l'as dit, il y a Langue chain qui est un peu la boîte à outils pour LLM avec un niveau d'abstraction. et c'est un des sujets phares. On a l'angraph qui permet de mettre en place du graph knowledge, donc la connaissance en graph qui permet... de faciliter la compréhension, surtout pour les agents. C'est une méthodologie d'apprentissage un peu plus propre. Ça fait ses preuves en termes de papier. Et on a Langsmith.

Pierre | 32:00.097
C'était plutôt le côté un peu monitoring, finalement, de tous tes appels LLM de manière assez graphique. D'ailleurs, tu peux utiliser Langsmith, je crois, sans utiliser Langchain et Langraph.

Thomas | 32:09.716
Tout est indépendant.

Pierre | 32:11.521
Hein, c'est ça ?

Thomas | 32:12.399
Tout est indépendant. Tout est indépendant.

Pierre | 32:14.256
Et ça te permet d'avoir une espèce de... monitoring, de listing, de log finalement, de tes appels LLM, de pouvoir en rejouer aussi je crois, rejouer des séquences. Donc tu vois, pour le côté un peu éval et test, c'est des choses qui sont assez intéressantes. Mais je te rejoins là où Longchain, il y a un an, à peine, c'était une petite librairie. Et aujourd'hui, c'est un écosystème d'outils et presque une plateforme, carrément. Bon, il faut voir qu'ils ont levé 36 millions il n'y a pas longtemps. Et ils sont quand même extrêmement présents partout. Et alors, pourquoi c'est un grand sujet, Thomas ?

Thomas | 32:53.672
C'est un grand sujet. Déjà, l'Ont Smith, juste pour terminer ce point-là, c'est l'outil en tant que tel est fait pour partir en production. Donc, dans la tête de l'on-chain au sens large. on est apte, avec des LLM, à partir en production. On est capable de collaborer, débugger, tester, monitorer. Mais justement, ce sujet abstraction boîte à outils, quand au début c'était uniquement un interfaçage, on avait des use cases qui étaient très à la volée il y a encore un an, un an et demi. aujourd'hui on rentre dans des cas d'usage vraiment spécifiques et on se rend compte et après la conférence moi je suis allé faire mes recherches suite à nos discussions pierre effectivement il ya beaucoup d'entreprises quand leur spécialité c'est de mettre en place des modélisations avec des lm l'enchaînent c'est on n'a pas assez de précision en fait on n'a plus le contrôle sur ce qu'on est en train d'utiliser et c'est aussi ce que tu m'as dit, c'est qu'on ne contrôle plus trop ce qu'on fait, on ne peut pas rentrer dans le détail, mais en fait, on se rend compte qu'il y a un launch miss qui permet de faire des tests, de rentrer plus dans le détail, et en fait, naturellement, l'onchain, ça devient un outil qui devient payant. donc ils ont complètement changé de business model j'imagine et tout ce qui a été fait il y a un an peut potentiellement j'abuse encore quand je dis ça être jeté à la poubelle puisque l'écosystème n'est plus utilisé de la même façon ouais c'est

Pierre | 34:14.485
moi ce qui me fait peur avec ces outils là et ça rejoint un peu ce que je disais au début c'est que à mon grand âge je m'aperçois que je La meilleure ligne de code écrite, c'est celle qui n'est pas écrite. À partir du moment où tu codes une ligne, tu crées de la dette. Quand on a participé au workshop ou quand on a échangé, etc., on s'aperçoit qu'aujourd'hui, il y a une espèce de profusion de cornes d'abondance, d'outils, de solutions qui répondent à moitié à des problèmes, dont les périmètres fonctionnels peuvent se recouper. Et on se retrouve avec une espèce de... tu vois, vraiment d'indigestion d'outils sur un écosystème qui n'est pas prêt. Et moi, j'ai envie de dire, d'un point de vue ingénierie logicielle, j'ai envie de faire tout le contraire. C'est-à-dire qu'en fait, moi, j'ai envie d'appeler, d'être au plus près des modèles, au plus près des API, d'être dans le plus standard du standard du standard. de rien rajouter, c'est-à-dire qu'à partir du moment où je fais un pip install ou un whatever, ou un npm, ou un node, dès que je commence à installer une librairie, j'ai les poils qui se dressent sur les bras, ça m'horripile. Et parce qu'en fait, on oublie ces concepts de keep it simple, stupid, de kiss, de don't repeat yourself, les bons concepts de design pattern. Et pour moi, on est presque des fois sur des anti-patterns et sur de l'over-engineering. sous couvert d'avoir une frénésie et de devoir courir comme tout le monde je suis désolé,

Thomas | 35:55.943
c'est pas parce que tout le monde court qu'on est obligé de courir je suis complètement d'accord et en fait si on reprend l'exemple de l'onchain par rapport à n'importe quoi Quand on a commencé à utiliser cette librairie, c'est quand il y a eu cette euphorie sur la Gen AI, donc là je parle vraiment de Gen AI sur les LLM, ChatGPT, et on se moquait de savoir si c'était une V1, si c'était déjà une solution stable dans le temps. Et on se rend compte que dès le début, on a commencé à utiliser l'onchain face à d'autres concurrents. On s'en est servi, c'était très bien, on a appris beaucoup de choses. mais en fait aujourd'hui on est en train de passer sur un vrai module une vraie librairie en production et ce qu'on est en train de connaître aujourd'hui ne représente pas ce qu'on a connu hier donc on a une sorte de locking sur ce sujet là où j'ai utilisé cette API j'ai des connaissances, je peux la mettre sur mon CV disons mais ce n'est plus du tout la même chose, donc je dois un peu tout réapprendre et tous mes projets auparavant ils n'ont plus trop de sens plutôt j'aurais pu le faire d'une autre façon j'ai eu beaucoup d'évolutions et c'est peut-être le grand problème de l'intelligence artificielle en un an,

Pierre | 36:59.666
il y a eu des bouleversements équivalents à 5 ou 6 ans dans d'autres domaines c'est une explosion si on regarde à l'échelle de l'évolution on a l'impression qu'en un quart d'heure c'est passé le poisson qui sort de l'eau qui a des nageoires, qui commence à marcher sur terre et qui est devenu un homme on a fait à peu près toute cette évolution en 18 mois quasi tout à fait,

Thomas | 37:19.145
et en fait ça nous met sur un autre pointier au pointier on se rend compte que les gros acteurs, donc là je sors un peu de l'onchain, mais les gros acteurs qui sont OpenAI, AI avec ChatGPT, Google avec ses différents modèles, Amazon un peu moins, Mistral, en fait, en tropique, on devient hyper dépendant à eux et toutes les solutions qu'on a vues, en fait, on fait appel à ces API-là. Donc on est bloqué à la fois par l'onchain, si on va un peu plus dans le détail, et ces API. et en fait on n'a plus trop le contrôle c'est à dire qu'on l'a un peu mentionné auparavant mais si demain une entreprise alors ça m'étonnerait bien sûr une entreprise elle ferme ou que le modèle pour x ou y raison il doit s'arrêter puisque il y a eu des audits dessus le monde change les IA en éteint par exemple demain on peut peut-être plus avoir accès à un des modèles comment on fait en fait on a toute une solution mise en production qui dépend de deux choses une API OpenAI par exemple et de l'onchain je trouve ça hyper dangereux le niveau de dépendance il est monstrueux en fait et le dernier point qu'on avait vu aussi c'était tout ce qui était génération assistant au coding etc alors moi je

Pierre | 38:28.388
Il y a trois ou quatre acteurs. C'est vrai, effectivement, il y a GitHub Copilot que tout le monde connaît. Tu as Cursor, qui est en fait un fork de VS Code dans lequel tu peux paramétrer différents appels à différents modèles. Donc tous les grands modèles. Je crois que si tu peux aussi travailler avec des modèles en local avec Oulama ou Oulama CPP. Tu as Tab9 et tu as Continuo.dev. C'est à peu près les quatre plus gros. dont j'ai entendu parler. Après, je pense que c'est vraiment des questions de goût. Tous ne permettent pas... Alors ça c'est quand même assez important parce qu'il y a des boîtes qui disent Ouais mais attends, moi les datas, moi mes développeurs, mes datas c'est de l'or, c'est super secret, j'ai pas envie que ça aille à OpenAI ou ailleurs, donc mes développeurs n'utilisent pas d'assistant au coding. Ça c'est une mauvaise raison parce qu'aujourd'hui tu peux utiliser ces assistants au coding avec des modèles locaux et éventuellement même des modèles de petite taille locaux qui tourneraient sur des... sur des machines assez récentes qui peuvent quand même malgré tout tourner. Donc je pense que dans un futur assez proche... D'ailleurs, je n'ai pas posé la question aux développeurs de GitHub Copilot lors de la conf, mais je sais ce qu'aurait été la réponse. Mais depuis qu'ils ont lancé leur truc, ils auraient largement eu le temps, largement, largement eu le temps, et ils auraient dû, ils auraient pu en tout cas, ouvrir. et avoir une petite case où tu dis je veux utiliser tel ou tel modèle et pour pouvoir utiliser un modèle sur Kingface etc etc ils auraient pu le faire 10 fois, ils ne l'ont pas fait tu peux utiliser que leur modèle à eux sur leur machine je crois sauf si je dis des bêtises mais je trouve que c'est pas terrible après GitHub c'est Microsoft il y a des vrais enjeux là-dedans et on a eu cette présentation aussi d'Amazon je ne sais pas si tu te rappelles Amazon Q oui Amazon Q, c'est ça, c'est un nouveau aussi un nouvel assistant au coding d'Amazon après moi si je codais avec ça,

Thomas | 40:34.898
j'aurais quand même l'impression d'avoir Alexa dans VS Code ça serait toujours assez bizarre finalement c'est la même chose mais on en vient au point suivant on a essayé cet outil GitHub Copilot je ne l'avais pas spécialement essayé auparavant effectivement c'est vraiment cool pour faire de la documentation et des tests encore une fois, moi je réfléchis avec mon oeil de data scientist et de MLE, quand on met en production bon bah par exemple ça va vous conseiller de faire des lignes de code spécifiques selon ce que vous avez commencé à écrire en autocomplétion et une des réponses de Github des représentants de Github si jamais le résultat n'était pas bon c'était bah réessayer et moi je trouve ça complètement fou de dire bah réessayer et c'est tout le problème associé au LLM c'est qu'on n'a jamais le contrôle on remonte plutôt dans la conversation on n'a jamais le contrôle des outputs et en fait il suffit de retenter l'expérience pour potentiellement avoir de la différence

Pierre | 41:24.610
Soit une meilleure réponse, soit une moins bonne réponse.

Thomas | 41:27.281
Ce qui vous semble le plus pertinent. Donc on a vraiment besoin de cet œil humain, dont déjà ça ne remplace personne, ça ne remplace rien du tout. Ça permet effectivement de gagner en vitesse sur la documentation et les tests. Et on sait ô combien on n'est pas spécialement fan de ça. On aimerait faire d'autres choses. mais voilà c'est un peu tout le problème et il y a cette différence de solution que tu vas présenter à ton business dans ton organisation où là les enjeux ne sont pas dramatiques sauf si tu travailles avec la finance, le juridique et tout ça et tu as tes solutions que tu vas faire client facing donc face à des clients qui eux vont payer pour ta solution je trouve ça compliqué quand tu payes 20 24 dollars on te dise ça ne vous va pas réessayer et peut-être que vous allez trouver quelque chose de plus pertinent

Pierre | 42:10.596
Il y a un second effet avec ces assistants au coding que moi je considère comme étant vraiment très important. Dans des équipes de développement, tu as des gens qui vont être seniors, tu as des gens qui vont être intermédiaires, et puis tu as forcément des gens qui vont être juniors aussi. Je pense que si tu mets ce type d'outil-là dans les mains de ces trois types de populations-là, ce que je pense c'est qu'en fait c'est des merveilleux outils pour créer de la dette technique. C'est-à-dire qu'en fait, comme ils t'auto-complètent, Si demain je prends un junior sorti d'école et que je lui mets dans les mains ce truc-là, il va se dire mais c'est génial, je peux tout autocompléter, ça va plus vite Il va écrire du code que certains juniors vont prendre comme argent comptant parce que... Ils n'ont pas le recul nécessaire pour être capables de dire... Parce que des fois, ils te pondent du code qui est absolument stupide, voire faux, voire démodé, voire avec des effets de bord ou des trous de sécurité, etc. Là où une personne plus senior, au contraire, ne prendra pas pour agent comptant tout ça, voire saura très bien que dans certains cas, l'IA va te sortir des débilités. Et donc, en fait, moi, je le vois quand même un peu... ce serait un peu pour moi comme si tu mettais un fusil M16 dans les mains de quelqu'un qui n'a pas encore fait ses classes et qui rentre dans l'armée, c'est son deuxième jour. Et tu lui mets un M16.

Thomas | 43:33.983
Tu as raison, je l'ai vécu, quand c'était du Python ou du Python, c'était très simple pour moi de l'utiliser, c'était très pertinent, j'allais plus vite. À un moment, on a eu un semblant de lab d'exercice sur Go, je n'ai jamais fait le Go de ma vie. Et là où tu as pleuré ? je voulais partir en criant je voulais partir en criant, dire arrêtez tout ça et en fait ça me servait à rien parce que je ne comprenais pas ce que ça complétait, je ne comprenais pas comment on faisait tourner le code, s'il manquait quelque chose que je ne connaissais pas là j'étais complètement c'était même pas junior,

Pierre | 44:02.978
c'était nourrisson sur ce domaine là ça ne me sert à rien je crois qu'il faut prendre conscience que ce sont encore une fois, je vais répéter des outils et en tant que tel ces outils, il faut en comprendre leur force Leurs faiblesses et les risques qu'ils peuvent avoir. Ces risques induits pour une population de jeunes développeurs, c'est soit d'apprendre du mauvais contenu, soit de mettre en dette et de comiter. Parce que tu vas pousser, tu vas faire ta pull request, tu vas faire une review et tu vas te faire éclater parce que tu as copié-collé du code qui n'a pas de sens. Mais après, pour les tests et la documentation, c'est génial.

Thomas | 44:48.684
T'as raison. Mais après, il y a des points où, par exemple, je ne sais pas comment fonctionne un protocole Wi-Fi ou comment ça fonctionne un ordinateur dans le détail. Pourtant, je sais m'en servir. Alors aujourd'hui, on est un peu dans une transition un peu délicate. Ça se trouve, dans cinq ou six ans, ça fonctionnera très bien comme ça puisqu'on aura toute une suite logique désécutable qui nous permettront vraiment d'être pertinents. Alors actuellement, je suis complètement d'accord avec toi. Il faut avoir conscience qu'il faut vraiment bien connaître les bases. Sinon, on se fait très vite avoir. C'est un peu comme... je crois qu'on avait parlé, comme on nous disait, utilisez Wikipédia, mais faites attention à ce que vous prenez comme information. C'est-à-dire que Wikipédia, effectivement, c'est utile, il y a beaucoup d'infos très vite, et ce qu'il faut prendre pour argent comptant, tout ce qu'on voit, non, il faut revérifier derrière, il y a tout un travail pour être sûr. Je pense qu'on peut le comparer à ça. Si on peut un peu conclure sur toute cette partie-là, sur toute cette conférence dont c'était vraiment pertinent, on a appris vraiment beaucoup de choses, j'ai quand même un petit goût amer sur et après quoi ? Qu'est-ce qu'on fait avec tout ça ? Comment on crée, nous, de la valeur avec tout ce qu'on voit, tout cet écosystème ? Je vais le faire très simplement. Comment on gagne de l'argent ? C'est-à-dire que, mis à part Google, Amazon, OpenAI, Anthropique, l'on-chain qui lève de l'argent, comment, nous, on utilise ces outils-là pour générer vraiment de la valeur ? J'ai vraiment ces grands doutes. Je ne sais pas si toi, tu as eu, avec ton expertise, un autre œil. mais moi là c'était surtout des outils où je pouvais m'amuser et trop cool en fait t'as plein de gens qui ont des idées de start-up et qui se disent ça va être génial,

Pierre | 46:27.812
tous ces outils on peut faire des trucs qui sont merveilleux la plupart du temps je pense que 95 ou 99% de ces outils peuvent se résumer à un appel à OpenAI avec un bon prompting Et en fait, on a toujours cette fausse impression de facilité et qu'un produit, ça va se résumer à ça. Mais en fait, non. En fait, non, parce qu'il y a toute la partie amont d'études. Déjà, y a-t-il un besoin ? Quel type de besoin ? Quel type de personnage ? Comment on va l'intégrer dans notre outil ? Comment on va l'intégrer dans notre SI ? Le côté UI, UX est ultra important aussi. Aujourd'hui, on a vu un peu dans le moteur, sous le capot, et ça paraît séduisant, tout paraît simple, tout paraît beau. Si on en remet avec l'enthousiasme des Américains, où tout est awesome, amazing, etc., tu as quand même vraiment l'impression que... Demain foncièrement les équipes techniques vont devenir des terminators, des sur-hommes, des sur-femmes et que ça va être génial dans un monde de bisounours. En fait non. La valeur perçue est toujours complexe à démontrer ou à montrer je trouve. Et le chemin pour la réussite de ces projets là, qu'ils soient agents, RAGs, extraction de données, chatbots, etc. restent quand même aujourd'hui frêles et... et pas si balisé ni éclairé. Je trouve complexe, complexe à trouver.

Thomas | 47:59.287
Je suis d'accord avec toi. Et puis en vrai, après c'est peut-être ce que j'ai appris dans mes études en économie, mais de tout temps, c'est l'allocation optimale des ressources. Et si on a l'impression que des fois, l'AI ou la Gen AI peut remplacer des humains, c'est un peu mon point de conclusion. Ça peut remplacer des humains ? Non, ça permet juste de dispatcher le temps d'une autre façon. Je donne un exemple très simple. Si on a 5 développeurs, et 5 développeurs utilisent 20% de leur temps pour faire des tests, Le fait qu'il y ait de la Gen AI, ça ne permet pas de réduire à zéro ce temps-là. Ça permet juste peut-être que ces 5 développeurs passent 100% du temps sur autre chose, mais on a besoin d'une sixième personne qui, lui, va passer 80-90% du temps à évaluer, à tester ces solutions. Donc, c'est un peu ce paradigme de destruction créatrice. Je pense qu'on le connaît tous. Effectivement, il faut se mettre à jour sur ces métiers. Ça devient nécessaire. Les software engineers, ils ont besoin, ils l'ont toujours voulu, je pense, d'intégrer l'intelligence artificielle dans leurs outils. pour autant, on déplace des problèmes. On va gérer d'autres choses, mais on déplace des problèmes et on déplace le temps de travail.

Pierre | 49:04.968
Oui, bien sûr. Et le besoin d'expertise. On déplace le besoin Oui,

Thomas | 49:08.426
c'est complètement différent aussi.

Pierre | 49:09.584
D'ailleurs, au niveau des strates de connaissance et de maîtrise. Et puis, le dernier truc que je voulais dire, c'est que... Vu de notre fenêtre de français ou d'européen, on pourrait imaginer que les États-Unis ont un train d'avance énorme sur toutes ces technologies. J'ai envie de rassurer nos auditeurs et auditrices, on n'a pas du tout à rougir d'où on en est en France, en Europe, etc. Ils ne sont pas beaucoup plus avancés que nous. Comme toujours, ils sont... souvent beaucoup plus fort que nous pour s'auto-marketer, s'auto-congratuler, se taper sur l'épaule et avoir des choses qui sont extraordinaires, etc. Mais aujourd'hui, ce qu'on a vu, on est aussi un petit peu mitigé là-dedans. C'est-à-dire qu'on n'a pas eu un effet waouh phénoménal. Toi et moi, on est tous les deux scientifiques, software, ingénierie, etc. Bon, on ne nous la fait pas non plus, et on voulait gratter un petit peu derrière. Donc voilà, on n'est pas en retard. Il n'y a pas besoin de céder au fear of mixing out et de se dire, ah là là, ils sont trop forts, ils sont devant. Non seulement on n'a pas besoin de les rattraper, mais en fait on construit des trucs top en France, en Europe et tout ça. Et je pense qu'il ne faut pas rougir et continuer le bon travail qu'on fait tous. Que ce soit des boîtes comme Mistral, comme Q-Tie, il y a plein de boîtes super en France, même de plus petite taille, qui sont en train de développer des outils géniaux. Je pense qu'il faut vraiment qu'on a des valeurs et des choses à mettre en avant. Et on a des super ingénieurs, hommes ou femmes, et je pense qu'on peut en être fier, on peut continuer là-dessus. On est bien, je pense qu'on est bien.

Thomas | 50:52.874
Non, sur le terme technique, on n'a rien à envier à personne, mais au niveau mondial, personne n'a rien à envier à personne. Effectivement, ils passent plus de temps en marketing et aussi, ils travaillent très fort. Il y a tout un travail derrière, ils testent des nouveautés. En fait, ils testent beaucoup de choses. Est-ce que ça marchera ? C'est un grand débat. Mais ils ont le mérite de vraiment tester beaucoup de choses. Des fois, on voyait des solutions qui faisaient presque la même chose. Ils essayent.

Pierre | 51:13.286
Ils sont complètement décomplexés. C'est-à-dire qu'en fait... En fait c'est ça aussi le truc, nous en France on a souvent l'impression que ça soit un peu parfait pour lancer un produit, et oui ça s'en fout, je crois que c'est un peu en train de changer les mentalités mais ça met du temps, on a toujours peur de l'échec nous aussi en France, de se dire qu'est-ce qui se passe si je lance trop tôt etc. Dans le pire des cas, tu auras des feedbacks d'utilisateurs plus tôt, et j'ai vu c'était quoi cette Maxime qui disait mieux vaut lancer que parfait, et effectivement si tu attends la perfection tu ne lances jamais rien. et pour ça ils sont assez décomplexés et ils y vont t'as tout à fait raison sur ce point là ben voilà, 50 minutes on pourrait rester 10 heures mais bon on va arrêter là surtout j'espère que vous avez un bon petit récap vous trouverez les vidéos je pense qui vont être mises en ligne probablement rapidement de cet AI Engineer World Fair n'hésitez pas à pinguer Thomas ou à me pinguer si vous voulez continuer, poursuivre cette discussion à la prochaine et puis on continuera nos enregistrements de Yappa Cladata et qu'on vous donne rendez-vous finalement à la rentrée en septembre on va continuer un peu à enregistrer cet été mais la mettre aussi un petit peu en sourdine et puis on continuera la

Thomas | 52:29.465
saison 2 de Yappa Cladata un dernier épisode qui va arriver dans peu de temps avant la fin du mois de juillet et après on se retrouve en septembre avec une nouvelle saison on peut le dire

Pierre | 52:41.951
Merci Thomas, merci à tous.

Thomas | 52:43.423
Merci Pierre.

Créateurs et invités

Pierre Vannier
Hôte
Pierre Vannier
Fondateur et PDG Flint, Dev Backend / IA, agitateur Tech ✨
Thomas Meimoun
Hôte
Thomas Meimoun
Machine Learning Engineer / Data Scientist
#10 - Retour sur AI (over) Engineer World's Fair 2024
Diffusé par