IA de l'actu (Avril 2025)
Pierre Vannier (00:00.97)
Bienvenue sur IApas que la data, l'épisode où on parle d'IA, on parle de data avec d'habitude des invités mais aujourd'hui c'est comme on a essayé de le faire, un épisode où on sera que tous les deux donc avec Thomas Memoun qui est, et je tiens à la féliciter d'ailleurs parce qu'il est passé team lead
senior data scientist dans son entreprise. Moi je suis Pierre Vanier, suis PDG, fondateur de la société Flint, société de conseil en data, IA, on fait des podcasts, on fait des meet-up, vous me voyez des fois en conférence, vous me voyez aussi des fois à montrer ma tête, passer ma tête et expliquer la tech à la télévision. Très content de t'avoir Thomas aujourd'hui en pleine forme.
un peu du matin.
Thomas (00:53.08)
du côté de Montréal. Mais salut Pierre, on a pas mal de choses à raconter sur le mois d'avril je crois.
Pierre Vannier (00:58.86)
Oui c'est ça, c'est le mois d'avril, j'ai l'impression que j'avais envie de salut Thomas, comment ça va depuis l'année dernière ? Parce qu'en l'espace-temps, l'espace-temps c'est un peu ça en en ce moment.
Thomas (01:07.531)
Il s'est passé.
Thomas (01:11.22)
C'est toujours ça dans l'intelligence artificielle. on va commencer tranquillement en revoyant peut-être un petit peu les modèles, si ça te va. Il y en a eu pas mal.
Pierre Vannier (01:17.45)
Ouais, carrément. fait, l'agenda de notre podcast va y avoir trois parties. Une grosse partie, on va parler des modèles. Ensuite, on va parler d'un sujet autour des agents, MCP et du protocole agent to agent de Google. Et on terminera avec des sujets, j'espère qu'on aura le temps en tout cas, avec des sujets plus prospectifs et sûrs.
les changements que peuvent faire l'IA sur les entreprises. Donc on reviendra notamment aux États-Unis sur deux annonces de très très grosses boîtes qui sont intéressantes à scruter, regarder. Mais effectivement Thomas, on va parler des modèles, en tout cas de ceux qui ont attiré notre attention, parce que si on devait tous les faire, on ferait une saison entière sur les modèles du mois d'avril, je pense.
Qu'as-y ?
Thomas (02:16.748)
C'est un métier, c'est un métier à part entière, je pense maintenant d'essayer tous les modèles qui existent.
Pierre Vannier (02:20.942)
Pour être entièrement franc, et pourtant c'est mon métier et je fais énormément de veilles, mais j'avoue que même avec toute la veille que je fais, j'ai du mal. Et on en parlait juste avant Thomas, toi et moi, ce mois d'avril, a aussi des taffes à côté où on doit produire des trucs et il a été tellement riche, en fait, il a des nouveautés tous les jours.
Thomas (02:45.688)
Il a des nouveautés tout le temps et puis après c'est ma conviction, depuis un petit moment on a atteint un palier d'utilité, c'est à dire qu'aujourd'hui on peut aller chercher des nouveaux modèles qui sont peut-être meilleurs mais pour une utilisation quotidienne ou qu'on en fait. Est-ce que j'ai besoin de mettre autant d'énergie à aller chercher les dernières évolutions ? Franchement je commence vraiment à avoir des doutes donc je préfère réduire un peu ma charge d'horaire par semaine.
et utiliser ce que je sais utiliser, ça me va très bien pour le moment donc je sais pas si c'est pareil pour toi mais bon.
Pierre Vannier (03:16.974)
Carrément. Ouais, alors moi je... Bon déjà je suis pathologiquement un techno geek donc j'aime effectivement beaucoup beaucoup beaucoup passer mon temps sur X, sur les différentes sources d'infos etc. parce que j'aime vraiment voir et être aux avant-postes de...
d'être spectateur, acteur, témoin de cette transformation. Donc en parlant des modèles, qu'est-ce qu'on a vu qui était super intéressant ? Google, pour ne pas le nommer. Gemini 2.5 Flash, qui est sorti. Alors Google, sont depuis quelques mois et c'est assez marrant parce qu'en l'année dernière, ils étaient complètement à la ramasse.
modèles GEMINI étaient vraiment pas bons et aujourd'hui chaque nouvelle mouture de modèles est meilleure que la précédente et se classe vraiment dans le top 2 ou 3 des modèles donc leur version 2.5 flash ils ont fait un... tu peux peut-être nous en parler un petit peu Thomas
Thomas (04:34.516)
En vrai, j'ai pas grand chose à dire encore sur Flash 2.5, je suis plutôt d'accord avec toi, le modèle est meilleur. Maintenant je commence même à avoir du mal à trouver les vrais comparatifs, c'est à dire que Flash 2.5, c'est quoi ? C'est l'équivalent de O3 mini ?
Pierre Vannier (04:50.598)
Alors c'est plutôt dans l'équivalent de... En fait c'est vrai que c'est difficile parce que déjà ils ont chacun leur naming qui est plus ou moins bon d'ailleurs. On a souvent parlé du naming d'OpenAI qui était des fois un peu vraiment bizarre. Mais effectivement, Gemini 2.5 Flash serait probablement à mettre au niveau de 4 mini. En fait ce qui est assez intéressant, ce que je trouve...
les études que j'ai pu en voir, c'est que Google se positionne plus sur avoir des modèles de très bonne qualité, en fait un rapport qualité prix, un rapport performance prix qui est très très intéressant pour te donner un ordre d'idée et parce qu'en fait on va aussi parler d'Ocat mini d'OpenAI et en fait ils sont sortis à peu près au même même moment
Et en termes de prix par token, Gemini 2.5 Flash est 10 fois moins cher. C'est à la fois un très très bon modèle, mais surtout beaucoup moins cher que le reste. Et il le compare effectivement au 4 Mini, à Sony 3.7 d'Anthropic. Et il a des tarifs qui sont totalement très très intéressants. Ils sont plus sur le rapport qualité prix.
finalement, j'ai envie de dire, si on peut dire comme ça, plutôt que d'avoir le meilleur du meilleur du meilleur du meilleur modèle qui est peut-être un petit peu plus la démarche comprise open and high en tropique et puis on va le voir aussi les chinois qui poussent très très fort
Thomas (06:42.456)
Ouais mais moi j'ai quand un petit problème vis à vis de ça c'est qu'aujourd'hui il y a tellement de modèles disponibles que je pense qu'on a tous un peu en tête les pages où ils font les pricers, où ils te permettent de comparer leurs modèles donc dans un premier temps ils te mettent les prix puis après ils te mettent les métriques sur les leaderboards et ce genre de choses. Quand tu prends un G-Mini 2.5 flash il va se comparer une fois 2.0 flash puis à OCAT mini puis Sony 3.7 mais pour moi Sony 3.7 n'a
la même utilisation. Grot 3 beta c'est encore compliqué, déjà c'est une bêta et puis Deep Six R1 il est aussi utilisé. Je trouve qu'on compare un peu des choux et des carottes.
Pierre Vannier (07:26.254)
Je pense que c'est aussi leur but de brouiller les cartes, je pense un petit peu tous. A la fois dans les pages de pricing c'est très compliqué de s'y retrouver et si tu croises et si tu fais la matrice entre le tableau de pricing et les benchmarks qui eux aussi t'a à boire et à manger au niveau des résultats de benchmarks, des benchmarks, tu regardes quel benchmark ils mettent, quel modèle ils mettent.
En fait, tu te retrouves effectivement avec un gros cafarnaum. Ce qu'il d'intéressant quand on peut essayer de noter pour nos auditeurs, ce qu'il a d'intéressant, c'est qu'il y a une partie raisonnement, puisque c'est donc un modèle sur lequel il y a du raisonnement. Et ce qu'il a d'intéressant, c'est qu'on peut ou pas activer ou désactiver le raisonnement. Et ça, c'est un peu une nouveauté qu'on va voir sur tous les autres modèles dont on va parler.
C'est assez intéressant à deux égards, c'est que parfois pour des requêtes très complexes on va vouloir conserver cette partie raisonnement qui va faire qu'en fait par tout un tas de moyens le modèle va grosso modo plus réfléchir pour sortir ses réponses mais il a aussi tout un tas de requêtes simples pour laquelle on n'a pas forcément besoin de raisonnement. Je le prends des fois, nous qui développons des softwares, des fois on a besoin
de raisonnement très poussé dans la création de logiciels et parfois on a juste besoin qu'il fasse ce qu'on lui demande sans raisonnement, quasi. Et ça c'est intéressant. Et du coup tu peux l'activer ou le désactiver mais tu peux aussi travailler sur le budget que tu alloues à la partie raisonnement.
Thomas (09:10.008)
D'accord, moi je voyais plus des propositions de valeurs dans la rapidité des réponses, c'est dire si tu n'as pas besoin de raisonnements, on te répond presque à la volée et si tu as besoin d'un raisonnement, tu es prêt à accepter une petite latence pour avoir.
Pierre Vannier (09:20.718)
Alors il y a un peu des deux, c'est à qu'en à partir du moment où tu vas, si tu actives le raisonnement, tu as plus de tokens, tu dépenses plus de tokens et c'est aussi plus long, donc c'est plus coûteux et c'est aussi plus long. C'est pour ça qu'en fait en fonction des typologies de requêtes utilisateurs entrantes, tu vas plutôt vouloir activer, désactiver ou allouer un certain budget à la partie raisonnement du modèle. Donc ça je trouve c'est super intéressant et je crois que du coup...
Donc moi j'utilise beaucoup Gimini, pas forcément cette version 2.5 Flash mais la version non Flash que je trouve extrêmement puissante et puis il aussi un... ouais, la pro, ouais. À la fois pour le code mais à la fois pour les raisonnements d'inférence sur des documents complexes, sur de la rédaction. Moi aujourd'hui je trouve que ça fait vraiment... c'est probablement le meilleur modèle aujourd'hui.
Thomas (09:54.488)
...
Thomas (09:59.453)
la pro ok
Pierre Vannier (10:18.03)
...
Thomas (10:18.508)
Ok, j'ai vraiment la sensation que ça reste le mal aimé Google, pour tout ce que ça représente derrière. C'est encore un modèle qui a du mal à être utilisé.
Pierre Vannier (10:27.214)
En ce qui concerne le développement, y a beaucoup de développeurs qui sont passés de Sony 3.7 qui était encore à notre dernier point d'actu, c'était encore le modèle qui était sous les feux de la rampe et aujourd'hui on est plus effectivement sur 2.5 Pro qui est vraiment très bon et qui se bat aussi avec O3 d'OpenAI.
Thomas (10:57.784)
Bon on va reparler de Google juste après avec les agents ou agents. Est-ce qu'on irait pas chez Alibaba, enfin Quen, rapidement ? Allez.
Pierre Vannier (11:01.358)
Carrément.
Pierre Vannier (11:06.07)
C'est marrant parce que je vais juste faire un parallèle, Alibaba a sorti Kuen 3 qui est le successeur de Kuen 2.5. qui est assez intéressant c'est que ces sorties de modèles chinois, open source, open weight pour la plupart, très puissants, on peut faire une analogie,
Il y a quasiment une bijection entre la guerre commerciale que se livrent les États-Unis et la Chine vis-à-vis des droits de douane, etc. et la guerre des modèles LLM et de l'IA. C'est-à-dire que OpenAI a sorti un O3, Google a sorti un Gemini 2.5 Flash, et bing ! fait, réponse du berger à la bergère, QN3 qui sort.
Thomas (12:00.024)
Ouais et puis il plein de sujets intéressants puisque je crois qu'OpenRiver aussi ouvrir un modèle pour plus de transparence mais pour être bien clair sur Coen 3 je crois que 6 modèles qui sont sortis sur Coen 3 il y en a deux qui sont open weight et quatre qui sont un peu plus opaque et on peut peut-être se concentrer
Pierre Vannier (12:04.254)
Oui. Tout à fait.
Pierre Vannier (12:16.266)
Oui, tout à fait. Je crois que c'est les gros. Donc déjà, c'est des modèles qui sont... En fait, il y en a différents, mais il y en a qui sont plutôt mixtures of expert. Ça va de 0,6 milliards de paramètres à 235 milliards. Donc 235B. Et effectivement, c'est des modèles de raisonnement hybride. Donc raisonnement hybride, on en revient à ce qu'on disait tout à l'heure avec...
c'est à qu'en fait il y a la possibilité d'alterner entre un mode thinking, donc raisonnement, et un mode non thinking, non raisonnement, pour les réponses plus expéditives. Il a été entraîné, il a un support sur 119 langues et dialectes et il est très impressionnant. Alors moi je l'ai essayé ce matin sur mon... donc j'ai téléchargé la version 30 milliards 30B
Je crois qu'elle était quantisée à 8 bits, ce qui fait que ça fait à peu près 30 GB de modèles sur mon MacBook Pro, qui est un M4 Max avec 64 GB de RAM. Et j'ai pu le faire tourner avec la librairie qu'on appelle MLXLM, qui est en fait la librairie qui permet d'utiliser toute la couche dédiée au machine learning sur les processeurs Apple Silicon.
et j'ai été très impressionné à la fois pour la rapidité parce que j'étais sur plus de 1000 tokens secondes en réponse et j'ai fait deux tests de code, lui ai dit tiens voici donc c'était un code qui avait été entre guillemets vibe codé par d'autres LLM Gemini et je lui dit tiens propose moi des optimisations etc.
Pierre Vannier (14:10.242)
un code HTML et un code un petit peu plus puissant avec du Python, avec du multiprocessing, avec des choses un petit peu plus complexes, j'ai pas été... j'ai pas été soufflé, j'ai pas été bluffé. C'est à dire qu'en fait, je lui demandé des améliorations et en fait les améliorations étaient plus dans mon code, étaient plus dans le domaine de la cosmétique que des vrais, vrais, vrais game changers d'amélioration. Par contre, je lui ai filé un document business...
assez complexe, assez avancé et je lui demandé de me trouver des trous dans la raquette, des gaps et de challenger le document. Et là par contre j'ai été beaucoup plus impressionné par la capacité analytique en Ce qui est très intéressant c'est que tu vois dans les réponses du modèle, tu vois toute la partie thinking avant et ensuite et d'ailleurs en fait pour les auditeurs qui nous écoutent, on a souvent sur ces modèles de raisonnement toute la partie thinking et du raisonnement
qui est au moins aussi intéressante à regarder que la partie des outputs et du résultat final. Parce qu'en fait on voit le LLM finalement, c'est les chain of thought et le chemin logique de raisonnement qui s'applique et qui est souvent super intéressant et plein de bonnes choses.
Thomas (15:13.208)
Tout à fait d'accord.
Thomas (15:26.528)
il est surtout plein de bonnes pour nous, parce que ça nous permet de voir comment on se fait comprendre de notre interlocuteur et donc à plus forte mesure d'améliorer ce qu'on Donc je suis assez d'accord. Mais ça, c'est ce qu'on retrouve aussi sur Chagy Pity, par exemple, ou DeepSeat quand tu vas sur leur interface web. Ouais, tout à fait.
Pierre Vannier (15:32.223)
Exactement.
Pierre Vannier (15:41.336)
La partie thinking qu'on retrouve maintenant sur la plupart des modèles des gros modèles modernes j'ai envie de dire. Donc tu aussi effectivement la partie multimédia, images, vidéo, audio. voilà aujourd'hui on arrive sur des modèles extrêmement puissants.
Je ne pas si on parle d'AGI ou d'SI ou d'intelligence, de suprainintelligence, etc. Mais on arrive vraiment sur des choses qui sont très très puissantes et qui permettent pour qu'ils se les utilisent de faire beaucoup de choses intéressantes.
Thomas (16:26.84)
Et puis juste pour donner du contexte, qu'UN, le 235 milliards, c'est des millions de paramètres, il vient concurrencer principalement DeepSight R1, Gemini Pro justement, après O1, mais bon je ne sais pas dans quelle mesure on peut vraiment le comparer. Ça c'est un modèle ouvert et ensuite vous avez la mixture d'Experts dont on a parlé de 30 milliards qui lui aussi est une architecture ouverte, enfin des poids ouverts pardon.
Pierre Vannier (16:31.968)
What? What?
Pierre Vannier (16:38.094)
Ouais.
Thomas (16:54.0)
les autres modèles sont fermés. Moi ce qui m'intéresse c'est de savoir, parce que moi je suis très intéressé par les petits modèles, 0.6 milliards, c'est vraiment peu. sur presque toutes les machines on peut s'en servir. Et moi ce qui m'intéresse c'est vraiment la portabilité, l'utilisation même si c'est un peu plus bête disons. Par contre ce modèle là ils ont pas donné les poids, il y a un peu moins d'explications.
Pierre Vannier (17:02.126)
Bon,
Pierre Vannier (17:09.452)
Oui oui oui, quasiment, ouais. Ouais, tout à fait.
Pierre Vannier (17:20.46)
Donc en fait quoi, ils n'ont pas donné les poids sur les tout petits modèles et pas donné les poids sur les très très gros en fait, c'est ça ? C'est ce genre de truc. non, il a pas plus gros, non, non, il n'y a pas plus gros. Ok.
Thomas (17:26.184)
je sais pas s'il a encore plus gros que 235 milliards pour le non il a pas plus de gros donc non eux ils ont donné les poids justement donc ça c'est plutôt cool mais après DeepSeat les donne je crois si je pas de bêtises je sais plus je crois qu'ils les donnent DeepSeat les poids enfin je sais plus du tout donc ça c'est une très bonne chose mais les tout petits modèles qu'on pourrait mettre dans des téléphones ou ce genre de choses on n'a pas trop d'infos en parlant de petits modèles là je commence à être perdu si ça te vend peut parler de open-edge,
Pierre Vannier (17:39.913)
Ouais.
Pierre Vannier (17:54.862)
Ouais, je voulais juste dire que j'avais vu ça passer mais je trouve que c'est intéressant parce que je les connais. y a Koyeb qui est une boîte française qui fait de l'infrastructure serverless etc. Ils sont à station F et je les connais, c'est des gars super sympas et je viens de voir qu'ils ont mis disponible le déploiement de QN3 235 sur leur infrastructure donc je trouve que c'est cool.
Thomas (17:56.159)
En à moi.
Thomas (18:22.697)
Ok.
Pierre Vannier (18:23.406)
C'est cool parce que voilà on entend toujours les grosses plateformes, les américains, Koyeb, K-O-Y-E-B, vous pouvez aller le voir ils sont sympas et leur plateforme elle marche super bien donc je leur dis coucou. Voilà, bah ouais carrément.
Thomas (18:38.188)
et c'est vraiment des bonnes alternatives utiles pour pouvoir essayer des modèles très facilement.
Pierre Vannier (18:43.222)
et on peut choisir d'héberger son infra sur des serveurs en France, en Europe, en Allemagne, etc. Donc, ça aussi, je trouve que c'est vraiment cool. Donc, ils ont fait cet effort-là parce qu'en fait, le modèle, y a une semaine, le QN3, et il est déjà disponible sur cette plateforme. allez voir aussi les hébergeurs et les providers d'infra français qui valent le coup. Je pense que c'est cool. Effectivement, OpenAI.
Euuuuh... Ils ont sorti...
Thomas (19:13.546)
Beaucoup de modèles ? Trop.
J'avoue que là ils m'ont perdu, là ils m'ont perdu. À partir du moment où ils ont parlé de Nano, me dit bon, je peux pas, pas, vais... Toi tu as plus d'infos
Pierre Vannier (19:26.017)
Ouais.
honnêtement j'ai tourné la tête je pense dix jours et quand je suis retourné voir la liste de tous les modèles j'ai fait il s'est passé un truc quoi c'est pas possible donc il y a une effectivement une explosion du nombre de modèles dans les choses vraiment assez importantes il a O3 qui aujourd'hui je crois leur plus gros modèle leur plus puissant modèle
Thomas (19:40.568)
Ouais.
Pierre Vannier (19:58.894)
Ce que j'ai trouvé vraiment sidérant et je pense que ça fera... Il y a Simon Willison qui un gars qui poste très souvent, il fait des tests et des benchmarks de tous les modèles 5 minutes après qu'il soit sorti, peu près, ne sais pas comment il fait. Peut-être il les a en avant première, je n'en sais rien. Mais en fait, j'ai eu la confirmation par une personne qui a aussi testé O3 d'OpenAI, qui a des capacités absolument extraordinaires de geoguessing.
Donc le geoguessing, tu sais ce que c'est Thomas, tu prends une image, tu en fais le week-end.
Thomas (20:31.806)
Bien sûr, enfin, ouais. Le soir aussi.
Pierre Vannier (20:37.11)
tu prends une image, une photo plutôt et donc il y a des gens qui sont très très forts et qui sont exceptionnellement forts, des humains pour faire ça mais en fait là on va parler de LLM et en fait O3 est exceptionnellement bluffant sur le geoguessing et vous pourrez aller voir, on le mettra dans les ressources mais la page de Simon Willison où il a pris juste une photo avec on voit une petite colline, une voiture avec une plaque d'immétriculation mais illisible au fond
et en fait il demande à O3 et on voit tout le raisonnement d'O3 qu'il peut faire. Donc c'est ça qui est intéressant, c'est qu'en fait ce modèle il peut appeler plein d'outils, donc tous les outils d'interpréteurs de code, de chercher sur le web etc. peut les utiliser et il peut les utiliser au sein de son raisonnement. D'ailleurs comme Quen aussi qui est très fort pour le tool calling donc l'appel d'outils pendant la phase de raisonnement et même aussi
potentiellement de MCP. C'est à qu'en fait on pourrait, dans la phase de raisonnement de Quen, appeler des MCP, etc. Donc en fait on arrive vraiment à des phases de raisonnement qui peuvent être extrêmement puissantes. Et donc du coup, pour en revenir à O3, O3 a deviné à 2 km près l'endroit où était pris la photo, sans indice marquant, et ça fait un peu froid dans le dos. Ça fait quand même un peu froid dans le dos.
Thomas (22:03.146)
Ok, moi je trouve que ça fera un bon détective à la limite mais... C'est bluffant, c'est bluffant après ce que ça fait froid dans le dos, j'en sais rien. J'ai plus d'avis je crois, j'ai perdu le goût à donner.
Pierre Vannier (22:07.36)
C'est bluffant, je trouve c'est bluffant moi.
Pierre Vannier (22:14.67)
potentiellement toutes les photos d'internet tu peux te dire que tu peux vraiment savoir
Thomas (22:18.654)
ouais, ça t'étonne ? En vrai, est-ce que ça t'étonne que toute internet ait été scrapée pour... En plus on le voit, je sais pas si on en parlera du sujet de Chrome, du rachat de Chrome et tout ça mais...
Pierre Vannier (22:24.308)
Non, ça ne m'étonne pas. Il y a le modèle thinking, O3, notamment avec les images, peut interpréter. On le voit dans son raisonnement, zoome sur une image, il extrait des caractères, il fait tout un tas de traitements de la photo pour en arriver sa réponse. C'est vraiment super bluffant.
Thomas (22:43.736)
OK.
Ok.
juste pour rappel qu'est qu'ils ont sorti ce mois ci donc le mois dernier on a fait il ya pas il de l'actu de mars on parlait des photos types ghibli et les starter packs ce entre le moment où on a sorti cet épisode et aujourd'hui il ya eu 4 gpt 4.1 4 gpt 4.1 nano 4 gpt 4.1 mini donc ça c'est des modèles plus fait pour le code on pourra revenir dessus il est sorti 4.5 pardon il ya eu O3 O4 mini
Pierre Vannier (22:57.582)
Au revoir.
Pierre Vannier (23:06.542)
Il y a eu du 4.5 il me semble aussi.
Thomas (23:19.07)
jpt image one ça fait quoi ça fait trois, sept modèles au moins sept modèles plus de nouvelles features bon courage pour tous suivre
Pierre Vannier (23:28.91)
Ouais, très clairement. D'ailleurs, je ne pas si on voulait en parler de ces modèles d'images. qu'on a eu toute cette partie gibblification de la planète. Après, y a eu la starter packisation de la planète. Tout le monde a eu son starter pack. Est-ce que tu as un starter pack Thomas ? Non.
Thomas (23:40.256)
Ouais je suis plus intéressé par ça.
Thomas (23:51.116)
Ouais. Non, non, j'ai jamais fait ça. Je m'en sentais pas plus mal parce que je sais pas si t'as suivi un peu sur internet où le s'il te plaît, ça coûterait cher en eau. Les starts de la consommation, enfin la création d'images, ça coûterait cher en eau. Ça a été un grand sujet aussi ce mois-ci vis-à-vis de Punei. Je sais pas si t'as suivi ça.
Pierre Vannier (24:08.302)
J'ai fait mon starter pack et je pense bien que pour Noël 2025 ça va être l'un des jouets les plus vendus, on m'a dit. Non mais par contre tu sais ce qu'ils ont fait, il y a une boîte super maligne, vois comme quoi on n'arrête pas le progrès, qui fait que tu peux commander ton starter pack en figurine en fait, en vraie figurine en jouet quoi.
Thomas (24:11.616)
C'est le train.
Thomas (24:15.917)
écoute au moins c'est représentatif de la personne donc c'est plutôt cool mais
Thomas (24:32.472)
Bon bah j'espère qu'ils ne pas aux Etats-Unis, ce qu'ils risquent de produire en Chine et puis ça leur coûtera un peu cher en ce moment. Donc attention, attention au business model. ouais.
Pierre Vannier (24:37.166)
starter pack à 500 dollars. mais les ces modèles d'image donc du coup en fait GPT Image One parce que quand Chad GPT les versions de création d'image la surpuissante est sorti le mois dernier quand on en parlait c'était pas encore accessible en API.
Thomas (24:58.584)
exactement et fort de son succès fort de son succès tu peux peut-être rappeler les chiffres de combien il eu d'utilisateurs, il y eu d'images de création. Ouais la première semaine
Pierre Vannier (24:59.818)
Et donc là maintenant... Hein ?
Pierre Vannier (25:05.55)
700 millions, c'est ça ? 700 millions la première semaine. L'équivalent de deux tranches de centrales nucléaires EPR modernes.
Thomas (25:13.908)
C'est plus heureux.
Thomas (25:19.192)
Ouais c'est ça et puis en fait tu te rends compte que les gens ils s'amusent puisque il y a eu 130 millions d'utilisateurs uniques de souvenirs et donc 700 millions ça fait presque 6 photos par personne donc il y a un message fort moi je trouve 130 millions de personnes c'est deux fois la France. Si on remet ça à des chiffres pour se rendre compte et tout ça c'est stratosphérique par contre.
Pierre Vannier (25:41.132)
Oui mais tu vois moi je faisais un article dans un journal récemment sur ça et je trouve que certes il faut se préoccuper du coût environnemental etc. Mais comme toute technologie et progrès technologique il est forcément utilisé au départ d'une manière qui est largement pas... Parce qu'en fait tu as vu ce qui s'est passé c'est qu'il y eu 700 millions d'images dans les premières semaines et en fait très très vite ça s'est quand même taré.
Donc les gens ont testé des choses, mais ça permet aussi une appropriation de ces technologies par la masse et par l'opinion publique. Ça veut dire qu'en fait dans la courbe d'adoption des produits, on...
Thomas (26:11.448)
Bien sûr, bien sûr.
Pierre Vannier (26:27.028)
on avance, tu as cette espèce de gossienne, courbe marketing d'adoption des produits, tu as vraiment les early adopters, ensuite les late adopters et après tu passes sur la majorité, donc on commence à se retrouver avec une pénétration de toutes ces technologies qui est beaucoup plus grand public, notamment par l'appréhension du grand public de ces technologies au travers de choses des fois ludiques, de jeux et de choses comme ça. Et je pense que tu vois, les premiers tracteurs à mon avis,
les paysans qui les utilisaient, pense qu'ils faisaient peut-être des cercles ou des bidouilles dans leurs champs plutôt que faire des lignes et vraiment les utiliser ce pour quoi ils avaient été faits.
Thomas (27:06.032)
Non, t'as complètement raison, là je me suis mal exprimé, c'était plus pour parler de la courbe d'adoption que c'était deux fois la France en une semaine.
Pierre Vannier (27:10.734)
Mais tu as raison, c'est Thomas Pesquet qui avait envoyé son petit starter pack et qui disait vous vous rendez compte etc. Et après de l'autre côté on peut se poser la question de savoir combien pollue les fusées et toute l'industrie de l'aérospatiale. donc en fait à ce moment là on s'aperçoit que voilà et puis mon téléphone et puis le micro et puis l'ordinateur etc. Donc c'est vrai que...
Thomas (27:31.064)
sans fin.
Thomas (27:36.364)
Ouais ouais, je suis d'accord avec toi. puis j'ai toujours un problème c'est qu'il faudrait pas s'arrêter à l'utilisation quand on fait notre quête. Ce qui compte c'est l'entraînement qui est beaucoup plus gourmand. Mais bon c'est un autre sujet et là on en sait rien en fait de combien... Je n'ose même pas imaginer combien de modèles sont entraînés chez OpenAI avant d'en sortir un. Tous les tests, enfin bon...
Pierre Vannier (27:45.358)
Oui.
Pierre Vannier (27:49.621)
Non.
Thomas (27:57.828)
faire un épisode là dessus je pense mais pour rappeler donc GPT Image One qu'est que ça fait dans les grandes lignes donc c'est un text to image vous faites du texte ça sort une image c'est classé top 1 au leaderboard donc je crois que c'est DeanFace qui en propose un aussi donc les gens notent deux concurrents donc deux photos on dit la quelle est la meilleure et puis c'est plutôt bon si c'est en anglais quand c'est dans une autre langue c'est un peu moins bon et ce qui est intéressant par contre c'est le filigrane
Pierre Vannier (27:58.894)
Tout à fait.
Thomas (28:27.084)
Donc il y a un petit filigrane qui est presque imperceptible. c'est très difficile. Je l'ai lu, il faut que je regarde ça plus en détail. Donc ça éviterait en fait des mauvaises utilisations business, techniquement ou watermark.
Pierre Vannier (28:29.711)
d'accord.
Pierre Vannier (28:35.812)
ouais parce que ça ça m'intéresse ça ça m'intéresse Donc ils ont water, ce qu'on appelle water marqué les images mais ça c'est super intéressant La première chose que je vais faire, j'ai essayé de le casser C'est la première chose que... Mais je pense qu'il est... Mais il est... C'est peu craquable ce genre de truc
Thomas (28:50.156)
mais normalement il est minime comme tout, donc...
Mais ça soulève un point intéressant et je ne pas qu'on en parlera aujourd'hui mais au delà de la Watt du filigrane en tant que tel, c'est qu'il existe une solution pour valider ce qui est fait par l'IA et ce qui ne l'est pas. Mais ça c'est un sujet qui devient intéressant au delà du côté marketing, créer des images pour des...
Pierre Vannier (29:12.974)
Oui mais on est d'accord que ça marche pas. Enfin à mon sens ça marche pas. Moi on parle de Watermark depuis que les copies numériques existent. a parlé de Watermark quand il y eu des MP3, a parlé de Watermark quand il eu du streaming, on a parlé de Watermark à chaque fois qu'il y a eu une capacité à dupliquer du contenu peu importe lequel.
Thomas (29:16.926)
ça marche pas... il faut...
Thomas (29:34.208)
Oui mais là on génère. C'est pas pareil. Là tu me parles de duplication, là on génère. Et générer c'est pas dupliqué pour moi. Quand tu génères une image, tu sais pas si c'est vrai, si c'est la réalité, si c'est faux. Les deepfakes. Si on arrive à certifier qu'une génération, parce qu'on parle de gen.ai, qu'une génération est produite par une machine et pas par un humain ou...
Pierre Vannier (29:56.576)
Je ne pas comment techniquement c'est possible. Très honnêtement, ne vois pas comment techniquement c'est possible. C'est à dire qu'en fait, de la même manière que le hacker a toujours de toute façon largement plus de temps que celui qui est censé le défendre, c'est à dire qu'en fait, peu importe, il y aura un filigrane, il aura un algorithme, parce qu'en fait, c'est forcément un algorithme derrière et il y a forcément un algorithme, c'est cassable. Peu importe, un code, c'est cassable. C'est pour ça que je doute qu'on réussisse et c'est pour ça que ça pose une question qui est super.
Thomas (30:15.544)
T'as raison.
Pierre Vannier (30:25.87)
dangereuse de l'authentification des sources et des images et du contenu créé par la Gen.Eye qui à mon sens aujourd'hui je voyais encore un exemple d'un gars qui faisait de la génération automatique de vidéos où il changeait sa tête et il la passait à Robert Donne et Junior à Elon Musk etc avec Python 3.10 et une machine classique et le résultat était stupéfiant stupéfiant de qualité
Donc ça veut dire qu'en fait, à partir du moment où nos auditeurs nous écoutent, il faut être en capacité de remettre en question absolument tout ce qu'on entend, tout ce qu'on lit, tout ce qu'on voit. Tout peut... Hein ?
Thomas (31:04.408)
casse dans l'oeuf Pierre, tu me casses dans l'oeuf. Moi je suis topiste, moi j'y ai cru tu vois, je me suis dit c'est l'avenir.
Pierre Vannier (31:08.43)
Ah non ça marchera pas, ça marchera pas, ça marchera pas, je pense que ça marchera pas, je veux bien qu'ils... si jamais ils ont une... je pense que ça marchera pas. bon, après écoutez. Par contre moi je l'ai essayé, j'ai pété image, j'ai pété image one, il y a aussi des choses intéressantes, c'est que tu peux générer des images, peux éditer des images, tu peux mettre des images en référence, comme on l'a vu, mais là je te parle du côté API, donc tu passes grosso modo des...
Thomas (31:20.724)
A tout à...
Pierre Vannier (31:38.57)
une ou plusieurs images dans une liste d'images, tu lui dis dans ton prompt, voilà je t'en passe une ou deux trois, fais moi ceci, fais moi cela, copie la première, etc. et tu le donnes tout tes... et ensuite il ressort, t'as différentes résolutions, t'as différentes qualités au niveau de l'image, par contre, soit c'est moi qui prompte mal, mais j'ai pas réussi à avoir des résultats avec GPT Image One en utilisant l'API.
de la même qualité que les images que j'ai pu avoir avec ChatGPT 4O quand on utilisait et qu'on transformait nos images Ghibli, etc. Je ne sais pas si GPT ImageOne est le modèle qu'ils utilisent derrière en interne sur ChatGPT. Je crois que c'est ce qu'ils mettent en avant, mais finalement, à voir la qualité des images qui ressortent, ne pas bien sûr. Je ne pas bien sûr. Je pas été bluffé.
Thomas (32:15.288)
Ok.
Thomas (32:24.824)
POSPA.
Thomas (32:31.896)
ça reste quand un grand sujet tu vois l'utilisation de leur API puisque Sora c'est un problème aujourd'hui ils peuvent pas sortir Sora en API, il y a des limites. L'API a une consommation qui est beaucoup plus forte que quand c'est un humain donc je pense qu'il y a des limitations dont ils ne veulent pas parler pour le moment. Je te propose qu'on aille de l'avant sur d'autres su...
Pierre Vannier (32:52.238)
Juste un dernier truc, ce que j'avais pas aimé dans GPT Image, ce que j'ai pas réussi à bien faire, et ce qu'ils mettent pas dans leur press release quand ils lançaient leur truc, ils mettaient qu'en le générateur était très fort pour générer du texte dans les photos ou dans les images, et en fait moi j'ai des textes tout pourris, tout pourris, et pourtant je lui mets dans le prompt le texte exact que je veux. Et je te montre ouais les lettres, enfin c'est de l'égyptien, c'est des hiéroglyphes, en fait juste ça va pas quoi.
Thomas (33:11.266)
Ok.
Thomas (33:15.116)
Ouais, je comprends.
Pierre Vannier (33:20.214)
Enfin voilà, bon bref on passe, je suis pas content mais...
Thomas (33:23.916)
T'es quand satisfait, t'es pas content mais t'es quand satisfait. Allez OK.
Pierre Vannier (33:26.132)
Oui, que c'est bien, mais je m'attendais à pouvoir générer tous les schémas que j'ai dans la tête avec des bonnes écritures, etc. Et en fait, j'en suis toujours à utiliser Mermed pour faire des diagrammes et j'en peux plus.
Thomas (33:40.888)
mais regarde le chemin parcouru en deux ans et demi. Bon, y avait DeepScik Prover V2 qui est aussi sorti, c'est pour les théorèmes mathématiques, on va pas s'arrêter là-dessus. C'est vrai ?
Pierre Vannier (33:44.206)
Je suis un impatient. Qu'est-ce que tu que je te dise ?
Pierre Vannier (33:52.512)
mais moi j'ai adoré quand même. Ouais, ouais, ouais, j'ai vraiment adoré. J'ai adoré... Si, si, si, si, j'ai adoré. J'ai adoré parce que... Bon, nous on fait que coder, moi je code, etc. Mais l'autre pendant 13 % des LLM, c'est effectivement les prouver et le côté mathématique.
Thomas (33:57.24)
Au revoir, je ne m'attendais pas.
Pierre Vannier (34:12.398)
Et je vous invite pour ceux qui sont intéressés à vraiment lire sur GitHub la sortie de DeepSycProver V2, les papiers de recherche qu'il a autour parce que c'est subjuguant d'intelligence dans la mesure où il découpe en fait, il y a plusieurs heuristiques pour pouvoir prouver des théorèmes, la façon dont ils ont généré la data
En fait, ils ont utilisé leur propre modèle, je crois que c'est du coup R1, R3, R3. Ouais, en fait, ils ont utilisé leur propre modèle pour aller lire, découper en petites, en sous théorème, en sous tâche tout un tas de théorème déjà mathématiques. Donc ils ont en fait utilisé leur propre modèle pour entraîner et créer, ils ont créé aussi de la donnée synthétique.
Thomas (34:45.054)
V3. L'architecture de DeepSeal V3 a été utilisée.
Pierre Vannier (35:07.15)
et tu des capacités d'arbres pour pouvoir faire des démonstrations. Je crois que as deux grosses heuristiques qui se séparent, la démonstration dans sa totalité, dans sa globalité, qui est assez complexe, et sinon la génération via des arbres où tu fais remonter des sous-conclusions, de sous-problématiques du problématique global, et tu fais ça comme dans un arbre pour arriver au final à la...
à la démonstration finale et les résultats, les mathématiciens disent que les résultats obtenus avec ce DeepSciK Prover V2 sont vraiment vraiment bluffants quoi, vraiment bluffants.
Thomas (35:48.796)
Je m'attendais pas qu'on puisse parler de ça avec... enfin je m'attendais pas. Ok. Bon bah écoutez, a deux modèles qui sont sortis. Un modèle à 671 milliards, donc trois fois plus que le quen, et un autre à 7 milliards qui est un peu plus optimisé disons, donc qui permet de prouver des théorèmes mathématiques et dont les tâches elles sont peut-être... en fait l'objectif c'est d'utiliser pour des tâches un peu plus...
Pierre Vannier (35:50.384)
moi j'adore ! moi j'adore !
Pierre Vannier (36:03.693)
Ouais.
Thomas (36:13.272)
des problèmes mathématiques, sans vraie réponse où il faut vraiment chercher à travers le temps.
Pierre Vannier (36:19.072)
Ouais, ce que je crois derrière c'est que ça fait aussi avancer les prouveurs d'une certaine manière. C'est à dire que aujourd'hui ce qui est problématique avec les IA c'est le côté non déterministe, le côté probabiliste et la difficulté qu'on a à refaire deux fois le même résultat etc. Et donc du coup l'explicabilité, la transparence, l'observabilité, tous ces problèmes grosso modo en fait, ce que ça veut dire, c'est des mots compliqués mais ça veut dire
personne ne comprend rien à qui se passe dans le moteur des LLM, à peu près, dans une certaine mesure, en fait d'avancer sur ces typologies de problématiques là, de créer des LLM et des modèles qui sont spécialisés justement dans des preuves, parce que les mathématiques sont des langages formels beaucoup moins ambigu dans leur grammaire que le langage naturel etc. ça va permettre d'avancer aussi sur toutes ces autres
sous ces autres problématiques là dont notamment le problème connexe qui est la génération de code qui aussi finalement si on arrive à prouver que du code marche ou ne marche pas par justement des usages de modèles qui sont beaucoup plus formels beaucoup plus rigoureux je pense ça va beaucoup aider donc en tout cas c'est passionnant c'est vraiment un domaine qui est vraiment passionnant
Thomas (37:39.576)
ça l'est vraiment. Et c'est dommage que ça fait peut-être un peu moins de bruit que les autres modèles.
Pierre Vannier (37:44.032)
Ouais parce que les maths... là tu rajoutes des couches de trucs indigestes, les maths sur des LLM.
Thomas (37:51.646)
Ouais ouais, t'as raison. Écoute, on a plein d'autres sujets. Sur quoi on va là ?
Pierre Vannier (37:56.686)
On voulait parler des agents, on disait que 2025, t'imagines, on disait au début de 2025, ça va être les agents, ça va être l'année des agents, etc. Eh bien, on ne pas trompé parce que chaque semaine, il a un nouveau truc sur les agents.
Thomas (37:59.64)
par des agents.
Thomas (38:07.448)
Merci.
En vrai là ça a commencé peut-être depuis avant avril, crois fin mars, donc on donne un peu plus de contexte peut-être sur Google.
Pierre Vannier (38:15.31)
Ouais ouais ouais ouais ouais. Moi ouais ouais ouais. Ouais ouais ouais. En fait, ce qui se passe, c'est que là on va s'intéresser à Google, une fois n'est pas coutume. Google qui sont vraiment... j'ai aucune action Google, je ne les connais pas. Voilà. Mais il a des trucs qui... En fait, ils ont réussi à faire ce que peu de très très très grosses boîtes... Enfin, rappelle-toi, je n'ai rien contre Métar.
Mais tu vois dans cet épisode on parle pas de Lama 4. Et plus personne parle de Lama 4. qu'en fait ça a été... Ouais ? Cette semaine ?
Thomas (38:48.488)
Non mais ils ont fait des choses. Ils ont sorti des choses cette semaine. Ouais, y a toutes METAL, sont en train de sortir un truc côté réseau social qui est un peu ambitieux encore une fois, ils prennent leurs risques mais ouais, Google est... Ouais mais METAL, on va rentrer là-dedans. Non, je pense qu'on en parlera de moi prochain.
Pierre Vannier (39:01.644)
bah oui, OpenAI aussi veut lancer un réseau social. Qu'est-ce que c'est ce...
Non, on ne pas rentrer là-dedans. Donc on veut parler de MCP, rappel, Modèle Contexte Protocol, protocol qui a été sorti par Anthropic en novembre 2024, il a six mois, qui a fait vraiment l'effet, qui s'est vraiment développé comme une traînée de poudre depuis trois mois vraiment. Donc grosso modo, ça permet de donner...
plus qu'un cerveau, un large language model, ça lui donne des bras, des mains, des outils, un couteau suisse, etc. Ça permet d'augmenter et de connecter quelque part les LLM avec le monde extérieur et avec tout un tas d'outils. Voilà, avec tout un tas. C'est ça, ?
Thomas (39:50.007)
C'est une interface pour les LLM. Les LLM vont comprendre ce qu'ils ont en phase 2 de façon générique, un peu protocolaire.
Pierre Vannier (39:57.57)
et pouvoir prendre des trucs, pouvoir prendre des outils, des outils, savoir quel outil utiliser dans la liste d'outils que leur propose le MCP Server. qu'en fait c'est ça. Donc grosso modo, par exemple, si vous avez votre LLM, votre chat GPT, etc. Par définition, il n'est pas équipé, ou Cloud, votre IA, elle pas équipée pour aller lire vos mails par exemple. Bon, en fait là il y a la possibilité de développer un MCP Server qui va être une jointure
entre l'LLM et le serveur de mail et qui grosso modo va vous donner tout un tas de primitifs pour lire, supprimer, ajouter, écrire un mail, etc. Donc ça équipe le LLM. Et donc du coup, après la sortie de ce MCP, très récemment, c'est Google qui a sorti A to A, agent to agent.
Thomas (40:44.788)
Exact. Et en fait ce qui s'est passé c'est que Google s'annonce comme un supporter, un supporter pardon, supporter, d'Anthropic où ça vient s'ajouter comme une couche supplémentaire OMCP. dans les faits c'est plutôt très intéressant mais quand on lit un peu plus ce qu'est le A2A, le Agent to Agent, on se demande dans quelle mesure
l'un ne va pas manger l'autre. Est-ce que tu peux expliquer ce que c'est peut-être le protocole de Google ou...
Pierre Vannier (41:17.582)
Alors ce qui est intéressant aussi c'est qu'entre temps le protocole MCP qui a sorti en tropique, ils l'ont open sourcé ce protocole et depuis il a été repris par OpenAI. Ça c'est un gros élément pour MCP pour la survie de ce protocole parce que si OpenAI a dit voilà MCP c'est un protocole qui est bon, qui fait du sens pour nous donc nos futurs outils
respecteront ou tout cas implémenteront toute ou partie de ce protocole. Donc ça c'était cool et Google aussi.
Thomas (41:50.392)
T'as raison et Google hein ! Et Google, tout de suite ils sont mis avec Gmail, Google Drive, ils ont pas perdu une seconde, ils ont mis des serveurs mcp pour ces outils là.
Pierre Vannier (41:58.446)
Mais effectivement, protocole agent to agent, en fait, je pense qu'il à peu près 90 % des gens qui déjà ne comprenaient absolument rien à ce qu'était que le MCP. Donc en plus, maintenant on sort un nouveau protocole qui est agent to agent. Grosso modo...
si je veux bien l'expliquer c'est que le MCP il est vraiment côté LLM et le protocole A2A, Agent to Agent c'est vraiment un protocole d'intercommunication et de connexion entre des agents ensemble pas forcément MCP donc finalement je vais prendre un exemple de ce que pourrait être donc MCP je vous l'ai pris tout à l'heure par exemple vous êtes dans Cloud Desktop par exemple
vous avez envie de vos documents sur votre Google Drive ou sur votre fichier, ou même sur votre fichier sur votre ordinateur, ça va appeler un serveur MCP pour que le LLM puisse se connecter à ce serveur là et ils disent, ben tiens, lis tel ou tel fichier. Ça, c'est le MCP. Et la partie agent to agent, on va se retrouver avec des problématiques qui vont être probablement peut-être plus complexes. Par exemple, l'assistance à un voyage multiserviste.
tu demandes voilà je veux planifier mon voyage d'affaires pour berlin donc tu vas avoir une suite d'actions qui peuvent potentiellement d'ailleurs en fait impliquer des mcp mais qui vont peut-être faire impliquer plusieurs agents qui vont travailler ensemble donc ça situait une couche un petit peu différente mais il est vrai que c'est d'ailleurs sur le blog de de coyeb ils en ont parlé récemment il fait un article là dessus on est en droit de se poser la question de savoir si
Est-ce que l'un va pas... C'est compliqué d'avoir des protocoles qui sont si proches en terme de scope et de périmètre fonctionnel de se retrouver peut-être avec l'un qui mange l'autre ou l'un qui est plus utilisé qu'autre. Pourquoi ? Parce que tu auras peut-être une architecture qui sera plus simple, des fois aussi tout simplement du meilleur marketing et des gens qui sont meilleurs à marketer le protocole lui-même.
Pierre Vannier (44:15.214)
Et ça, on sait pas trop comment ça va faire. Moi je l'ai pas encore testé, parce que moi j'en étais toujours au MCP. J'ai pas eu le temps de le tester mais j'en ai entendu du bien.
Thomas (44:29.496)
mais tu vois même moi les MCP ça fait six mois que ça existe je vois ce qu'on peut faire avec je ne vois pas encore l'utilité profonde c'est à qu'aujourd'hui c'est un grand débat encore tu mais il a tellement de choses disponibles à faire à essayer tout ça que les MCP ouais c'est trop cool d'un point de vue développement est-ce qu'il a un vrai gain une utilité un vrai business à faire pour le moment je vois
Pierre Vannier (44:53.838)
C'est intéressant ce que tu dis parce qu'en fait, et j'en ai parlé plusieurs fois cette semaine avec les différents échanges que j'ai pu avoir avec des clients, des prospects, des partenaires autour de l'IA, etc. On sent qu'il y a... L'accélération est telle que le gap devient vraiment un grand canyon entre ce que tu peux voir sur les réseaux...
des pseudo-influenceurs ou influenceurs ou des early adopters qui te font des démos, des prototypes et des choses complètement hors sol qui fonctionnent uniquement aux conditions normales de température et de pression. Si jamais il fait un degré de plus, ça ne plus. Sur des problématiques qui sont souvent des problématiques que tu ne retrouves jamais en production ou dans la vraie vie. Et donc ça, c'est le premier point. Et de l'autre côté, la vraie réalité à la fois des gens, la vraie réalité des entreprises.
toi et moi on peut en parler, a certaines boîtes déjà tu leur parles data ils sont sous le bureau en train de se protéger donc si tu veux, agent to agent, MCP, les entreprises à mon avis elles sont le gros, l'énorme majorité 99 % des entreprises mondiales sont complètement à la ramasse par rapport à tout ça
complètement, je veux dire, de ces mêmes, hors sujet. Mais ce qui va nous donner d'ailleurs une bonne transition pour le sujet d'après.
Thomas (46:19.288)
Ouais.
Ouais je suis complètement d'accord. Une bonne transition pour sujet d'après et puis je voudrais juste ouvrir une brèche et après on pourra parler d'autres choses. Tu vois moi j'avais imaginé que les MCP ça pouvait être utile pour les bases de données. Tu connais ton agent, ton LLM a une base de données mais quelle entreprise irait prendre le risque de passer par quelque chose de non déterministe, d'un peu stochastique pour aller jouer avec une base de données. Imagine il une erreur, imagine il un truc qu'on n'a pas contrôlé. Tu vois ?
Pierre Vannier (46:52.014)
Alors, c'est un gros sujet, il faut comprendre que c'est un risque. j'avais un de mes collaborateurs qui avait fait un chiffrage pour un projet sur lequel on est, etc. Il a relu à deux fois le tableau que le LLM lui a envoyé en lui disant, mais tu es sûr de tes calculs ? Et en fait, c'était un très très gros LLM, mais qui avait fait des erreurs de calcul simple.
Donc les choses les plus simples sont parfois des fois compliquées pour les LLM mais comme... ! Et ça reste non déterministe et fait toute la question est savoir en fait quel degré de confiance on peut mettre dans ces outils là et du coup ça pose la question du degré de criticité des opérations qu'on leur fait faire.
Thomas (47:22.584)
Et problème chainé ?
Pierre Vannier (47:46.318)
Voilà, effectivement, j'en sais rien, tu bases toute ta stratégie 2026 d'un grand compte sur, imagine, pas, tu es chez telle grosse boîte du CAC 40 et le top exécutif balance toutes ses slides pour son point stratégique et en fait, il a une erreur énorme que le LLM fait mais bon, au fur et mesure, comme tu les utilises de plus en plus, tu fais de plus en plus confiance, tu remets de moins en moins en question.
et tu peux te retrouver avec un truc qui une énormité et potentiellement c'est ce qui s'était passé avec cette personne qui avait voulu assurer sa propre défense dans un procès et en fait il avait demandé un LLM de A Z, le LLM avait sorti des juristes prudence qui n'existaient pas et le juge s'en était aperçu. a dit mais c'est quoi ce délire ? Donc ouais.
Thomas (48:36.696)
Voilà, ça touche la philosophie, mais ça touche surtout le business. Quand plein d'entreprises ont préparé toutes leurs data stratégies pour mettre en place des databases, tout ce genre de choses, des plateformes. C'est ça. Je trouve ça dommage de mettre tout ça un peu à la poubelle et se concentrer plus sur les LLM. Je pense qu'il a des liens partout. Je pense qu'on diverge un petit peu, mais c'était un message. Mais je convaincu que les MCP seront utiles un jour. C'est con, c'est évident. On passe sur Shopify.
Pierre Vannier (48:46.759)
Data quality, etc.
Pierre Vannier (49:03.022)
On passe sur un sujet très chaud mais très intéressant. Là on va parler de deux patrons d'entreprises américaines. Je ne sais pas si on peut encore les appeler start-up parce que maintenant ce sont quand même des très très grosses boîtes. La première c'est Duolingo qui est spécialisé dans l'apprentissage des langues et la deuxième c'est Shopify.
Thomas (49:05.864)
Chou !
Thomas (49:22.933)
C'est fini ça !
Pierre Vannier (49:31.822)
Et ces deux PDG, ces deux CIO ont fait passer des notes, des mémos ou des emails à toute leur entreprise, respectivement. Il s'appelle Luis Von Hahn et s'appelle Tobias Ludke, le PDG de Shopify. Et grosso modo, c'est des lettres et des mémos qui indiquent que toute l'entreprise doit se transformer pour devenir AI centrique, finalement.
Thomas (50:02.146)
exactement, et ils ont préféré les partager, je crois c'était sur Twitter les deux, les notes plutôt qu'en fait il y a des mauvaises interprétations, je trouve ça très honnête après ça a pas dû être accepté par tout le monde mais je trouve ça très honnête et l'objectif en fait c'est de dire, j'extrapole vraiment beaucoup mais c'est si vous voulez une nouvelle personne dans votre équipe il faut nous prouver que l'IA ne peut pas le faire et pas l'inverse.
Pierre Vannier (50:04.782)
Ouais c'est ça.
Thomas (50:27.58)
Donc je trouve qu'il a un message qui est très fort, c'est Shopify qui a débuté en début de mois dernier, donc en avril. Et puis il Duolingo qui est apparu là il vraiment pas longtemps. Et pour moi, le message est encore plus fort. Ils disent que l'utilisation de l'intelligence artificielle fera partie de toutes les revues annuelles et donc d'une certaine façon, peu importe votre rôle, voilà. Et je trouve que ça, c'est un message qui est très fort puisque ça veut dire que peu importe qui vous êtes, vous devez savoir comprendre.
Pierre Vannier (50:32.098)
Ouais c'est ça.
Pierre Vannier (50:44.91)
Tu l'objectives, tu le mets dans ta politique arrache.
Thomas (50:56.886)
et plus forte mesure utiliser cette nouvelle technologie, au même titre que l'internet en fait.
Donc je trouve ça hyper intéressant et en fait moi je suis allé chercher un peu plus loin je sais pas si t'es au courant du site Layoff for your information. Et effectivement en fait moi j'étais je voulais faire. Oui bien sûr pardon.
Pierre Vannier (51:09.902)
Merci.
C'est un site qui, tu peux dire peut-être pour nos auditeurs, layoff.fyi, qui recense l'ensemble de toutes les layoffs et les séries de layoffs, donc de réduction d'effectifs, principalement en Amérique du Nord aux Etats-Unis.
Thomas (51:36.292)
Et c'est un gros point parce que souvent on a discuté toi et moi du fait que tu avais une certaine inquiétude face à l'intelligence artificielle, le vibe coding, le remplacement, enfin pas la surproductivité mais le fait qu'on soit plus productif donc on a besoin de moins de personnes et toi en tant que chef d'entreprise t'es vraiment sensible à ce genre de choses. Et je voulais faire un post lindy dans toute transparence l'année dernière et dire bah effectivement on a beaucoup de layoffs et en fait en 2024 on a eu peu de layoffs par rapport à...
2022 et 2023. C'est à dire que l'impact de Covid a été plus fort. contre, en 2025, chiffres commencent... Depuis le dernier trimestre 2024 et 2025, les chiffres commencent à être impressionnants. C'est à dire qu'il a peu d'entreprises qui font des gros layoffs. Toutes font des layoffs, mais aujourd'hui, est en 2025. On est le début mai.
Pierre Vannier (52:23.05)
mais toutes font des laits off.
Thomas (52:32.92)
il y a à peu près 50 000 personnes qui ont été renvoyées de boites tech, de 112 boites tech en 2025 donc je prends les chiffres du site, j'invente rien mais en face il y a eu 60 000 personnes qui ont été virées avec le nouveau gouvernement américain donc ouais exactement donc c'est un sujet mais j'ai encore du mal à voir l'impact de l'intelligence artificielle dans une sorte de grand remplacement tu vois dans une sorte de...
Pierre Vannier (52:41.612)
Mmh mmh
Pierre Vannier (52:49.386)
Oui, par le DOJ.
Pierre Vannier (53:01.934)
C'est une vaste question. oui, j'ai un fait. Moi, c'est une question qui ne me laisse pas dormir depuis plus de 24 mois. outre le fait de pouvoir voir l'effet que va avoir et à l'intelligence artificielle sur les layoffs, ce qui est aussi important de rappeler, c'est que toutes les nouvelles entreprises qui se créent,
Thomas (53:04.056)
T'as un avis toi là dessus ou...? Ok.
Pierre Vannier (53:30.676)
se créent avec beaucoup moins de personnes pour atteindre le même niveau de création de valeur. Je m'explique. C'est à dire qu'en fait aujourd'hui, tu arrives à des boîtes et je vais prendre, c'est des exemples que je prends, mais il y en a de plus en plus. Alors certes, elles sont américaines, quoique Loveable, c'est en Suède. Mais Cursor, Windsurf, dont il serait peut-être question qu'Openeer rachète Windsurf. Mais toutes ces entreprises, start-up qui ont été créées post-chat GPT qui sont ultra tech.
aujourd'hui ces entreprises pour la même ou voir plus de création de valeur embauchent moins de personnes. Donc tu as en fait un double effet à la fois du lay-off sur les entreprises existantes mais d'une baisse de nombre d'ouvertures de poste pour les nouvelles entreprises. C'est à si demain moi je crée une entreprise tech ou tu crées une entreprise tech tu vas penser tes softwares et tes services AI centriques
tu vas embaucher des AI engineers, vas embaucher des AI marketeurs, des vibe marketeurs, des vibe engineers et tu vas embaucher des gens qui vont penser AI first comme ce que préconisent ces deux CEOs dans la transformation de leur entreprise mais tu vas embaucher beaucoup moins de personnes. C'est une évidence et donc je pense que ça, va transformer fondamentalement nos sociétés.
et fondamentalement le marché du travail de manière globale et de manière très forte dans les 36 mois qui vont arriver. Le problème c'est qu'on n'est pas prêt du tout pour ça, notamment pour l'après-IA, c'est-à-dire qu'il a des gens qui vont être capables de se former, capables pour différentes raisons d'avoir accès à du upskilling, du reskilling, donc monter en compétence ou transformer son set de compétences, ces savoir-faire.
Mais tu as aussi tout un tas de gens qui ne vont pas pouvoir pour des raisons qui le sont, qui leur sont propres, pour des raisons... Que fera-t-on ? Et que prépare-t-on comme société en termes de quels vont être les nouveaux emplois, aujourd'hui j'en vois, j'ai du mal à en voir, créés par l'IA et qui ne sont pas automatisables par l'IA en fait.
Thomas (55:50.104)
Je comprends, après tu vois, c'est une discussion là vraiment, mais ça crée aussi plus d'entreprises. Pour moi, il a un boom. Je trouve que là, on se retrouve avec les mêmes problèmes. Je ne l'ai pas vécu, mais la bulle internet où on met le dot com partout et donc on met AI partout. Et à plus forte mesure, on est en train de se poser les questions si les calculs des entreprises ne sont pas complètement faussés avec les ARR. Tu as parlé de l'ovable, ça m'a fait penser tout de suite.
les ventures capitales sont en train de se plaindre et de se dire en fait les ARR ça veut rien dire puisque quand on fait une récurrence en fait il n'est pas basé sur une année complète ils viennent se baser sur des subscriptions enfin des adhésions des adhésions et en fait elles sont non valables dans l'année c'est à dire que en fait tu vas prendre ton abonnement pendant deux trois mois tu vas tester puis tu vas t'arrêter
Pierre Vannier (56:23.086)
le revenu annuel récurrent.
Pierre Vannier (56:32.174)
Des abonnements.
Pierre Vannier (56:39.822)
à
bien sûr.
Thomas (56:42.744)
Donc moi je pense qu'on est juste dans une mauvaise passe. Effectivement, on n'a plus l'habitude que les mauvaises passes durent longtemps. Rien que le Covid, financièrement ça n'a été très compliqué. On le subit aujourd'hui. Mais je sais pas, moi je pense que ça a du positif quand même.
Pierre Vannier (56:59.054)
Après ce qui est assez intéressant sur ces deux patrons qui font leur coming out de l'IA, déjà je trouve que c'est assez malin parce que je pense qu'il a aussi une grosse part de com externe, grosse grosse part, sais pas, peut-être 70 %
Thomas (57:15.116)
Ouais.
Pierre Vannier (57:18.046)
aujourd'hui un grand patron de boîte qui s'exprime sur des changements importants, structurels dans son entreprise etc. Et après j'ose espérer en tout cas que les moyens en interne de ces entreprises ont été mis à disposition aussi des salariés, des employés pour pouvoir se transformer et avoir accès à tout ça, je le pense, je l'imagine. Moi j'ai une toute petite boîte, il a quelques salariés mais...
mais on fait régulièrement des formations pour se maintenir à jour. Tout le monde a des comptes sur plusieurs IA, tout le monde utilise IA au quotidien, etc. Mais c'est vrai que dans mes... Au même titre que quand on posait la question dans les entreprises de recrutement, vous maîtrisez Excel, Word, etc. On va peut-être probablement tester les capacités des gens à prompter quels IA ils utilisent au quotidien et pourquoi et comment.
comment ils verraient utiliser l'IA ou quels IA dans leur métier. Et je pense que là du coup, c'est aussi une vraie sonnette d'alarme pour les gens qui ne s'y intéressent C'est-à-dire que les gens qui vont embaucher vont être de plus en plus regardants par rapport aux sets de compétences de leurs futurs recrues sur ces technologies-là.
Thomas (58:39.0)
je pense que tu as raison et je pense que nous dans notre niche on s'en rend peut-être pas assez compte ça je suis plutôt d'accord je vois le retourner parce qu'on n'irait pas tranquillement vers la conclusion il y avait plein de sujets dont on aurait aimé parler beaucoup trop encore une fois mais je te laisse le mot de la fin Pierre j'ai pas de doute
Pierre Vannier (58:45.422)
Carrément.
Pierre Vannier (58:53.97)
Le mois prochain on en aura encore une pèleté de nouveaux modèles, O5, O5 mini, DeepSync V4, j'en sais rien. Bon en tout cas merci beaucoup, êtes toujours de plus en plus nombreux à nous écouter. On a franchi des épaules la barre des 10 000 écoutes donc on est super contents.
espère et on essaye de travailler, vous informer, et moi, du mieux qu'on peut, des choses qui nous intéressent, qui nous surprennent, qui nous arrêtent, qui nous agacent aussi des fois. Et en tout cas, merci beaucoup. Si vous aimez le podcast, n'hésitez surtout pas le partager autour de vous. S'il y a des choses qui vous plaisent pas, pouvez nous le dire, on est accessible aussi. Et si vous aimez, petite étoile, ça nous aide aussi beaucoup sur votre plateforme préférée. Voilà.
Thomas (59:44.48)
Et puis on se retrouve dans deux semaines encore une fois pour un nouvel Non, je ne veux pas envie de name-dropper, mais j'ai envie de dire qu'on va continuer dans le son et la voix. C'est franchement un sujet qu'on voit rarement en AI. C'est tout. Voilà, après on fait ce qu'on veut avec, mais on va... Non merci.
Pierre Vannier (59:46.188)
On se retrouve dans deux semaines. Tu veux name dropper ?
Pierre Vannier (59:53.944)
donc tu délivres des indices, c'est ça.
face en ASMR. Donc la semaine prochaine, non pas, c'est dans deux semaines, dans deux semaines c'est ça ? Ouais dans deux semaines, on enregistrera effectivement et il sera aussi question de son, de voix et évidemment d'IA et de data. Merci à tous, merci Thomas.
Thomas (01:00:06.742)
dans deux semaines je pense que ça sera dans deux semaines
