IA de l’actu (fév 2025)

Absolument ! Voici le transcript modifié avec les timings recalculés (25 secondes de moins) :

Pierre Vannier (00:00.974)
Bonjour à tous, mi-janvier nous avons publié un épisode récapitulatif 2024 et Vision 2025. Il a reçu un franc succès auprès de vous alors on se tente à un nouvel exercice. A vous de nous dire en commentaire ou par message LinkedIn si ça vous plaît. Je suis Pierre Vanier, CEO de Flint, une ESN spécialisée tech data IA. Et moi-même je suis AI engineer et un vrai passionné d'IA qui continue à développer, à casser des choses aussi. Je suis toujours bien évidemment accompagné de Thomas Memoun qui est Data Scientist Senior. Salut Thomas !

Thomas (00:31.004)
Salut Pierre, ça y tu t'annonces enfin en tant que AI engineer, je pense que c'est honnête. C'est honnête.

Pierre Vannier (00:33.965)
Exactement.

Exactement, j'assume, j'assume. Et aujourd'hui, va souhaiter un peu, Thomas et moi, revenir un peu ensemble sur les actualités de ces dernières semaines qui ont vraiment paru être des mois presque, ça va tellement vite. Et surtout sur toutes les informations que j'ai pu recueillir, parce que j'ai deux voyages, même trois voyages, deux voyages aux États-Unis et un voyage à Paris avec des conférences et beaucoup de rencontres autour de l'IA et des startups. Et on voulait vous en parler et un petit peu échanger et débunker un peu toutes les actes

avec Thomas.

Thomas (01:07.338)
Ouais je pense que tu as fait vraiment beaucoup de choses ce mois-ci donc je pense qu'on peut commencer... Je me rappelle plus de la temporalité mais tu as commencé avec le San Francisco, c'est ça ?

Pierre Vannier (01:16.262)
Il y a un mois, suis allé une bonne dizaine de jours à San Francisco. L'idée c'était de rencontrer à nouveau l'écosystème IA, l'écosystème tech à San Francisco, que je commence à pas mal connaître et avoir pas mal de contacts là-bas. En fait, qui est important...

juste pour que les gens comprennent un peu la démarche, c'est que à la fois, bon, ça m'intéresse, donc ça, c'est déjà cool, c'est ma boîte, ça m'intéresse et je m'amuse dans ce que je fais, donc ça, c'est bien. Mais je pense que surtout, ce qui est important, c'est que l'innovation se fait quand même beaucoup là-bas, sur la côte ouest, sur la côte est aux États-Unis, en tout cas, en termes de tech et d'IA, c'est vraiment l'endroit où ça se passe et où beaucoup d'innovations se passent. Et moi, ce qui m'intéresse, c'est de pouvoir être au plus proche de ces innovations aux États-Unis.

ensuite être capable de les ramener soit sous la forme de podcasts, d'autres conférences, meet-up et la partager à l'écosystème français qui aurait dû sinon probablement attendre plusieurs mois avant que ces nouveautés arrivent. voilà, je vais récupérer des choses que j'essaie de ramener en France le plus vite possible pour qu'on ait toutes ces innovations et qu'on en parle et qu'on les fasse notre aussi, qu'on s'en empart.

Thomas (02:32.594)
Et quand tu vas là pendant 10 jours à San Francisco, il y a des événements où tu fais des rencontres, tu vas chercher des personnes une à une, des entreprises.

Pierre Vannier (02:40.133)
Ouais, c'est une bonne question. Alors généralement j'essaye d'y aller quand il a des gros événements. Là j'y étais allé, il n'y avait pas particulièrement un gros événement mais ce qui est assez marrant, la petite anecdote, c'est qu'à San Francisco potentiellement tous les soirs tu peux aller à un meet-up sur de la tech mais même sur de l'IA.

tu as absolument tous les soirs un ou deux événements dans des startups, dans des grosses boîtes autour... Quand je dis des événements c'est des meet-up, il y en a vraiment systématiquement tous les soirs. Donc j'ai envie de dire, peu importe s'il y a des gros événements ou pas, as toujours des choses qui se passent là-bas. Et d'ailleurs, moi quand j'y vais je fais quand attention à mon rythme parce que tu pourrais passer 10 ou 12 heures en fait à parler d'IA.

tous les jours tous les jours tous les jours samedi dimanche y compris c'est d'ailleurs une différence substantielle de rythme entre les états unis et la france et bon moi je suis un montpellier donc tu imagines que la différence est encore plus forte en terme de rythme mais même quand tu vas à paris il y a beaucoup d'activités ça bouge bien mais c'est quand même moins intense qu'aux états unis c'est quand même moins intense qu'aux états unis

Thomas (03:54.184)
Oui, surtout sans Francisco, pense que c'est vraiment fait pour la tête. Et j'avais une autre question vis-à-vis de ça. Aujourd'hui, c'est principalement du software, de l'intelligence artificielle, où justement c'est un peu des deux. C'est-à-dire qu'on met de l'AI tout le temps.

Pierre Vannier (04:05.86)
C'est ouais alors en fait c'est justement, c'est une très très bonne question et on pourrait croire, moi mon background initial c'est plutôt software engineering, c'est du software, c'est de l'ingénierie logicielle etc. Mais ce qui intéressant c'est qu'on est dans une tournure, tu le disais toi au dernier, à notre dernier podcast, on est dans un changement de paradigme très important où le software engineering est tellement bouleversé par les arrivées et l'arrivée de l'IA

qu'on est presque sur un changement radical. Je vais te prendre un exemple, je pense que la métaphore n'est pas trop mal. On est sur un moyen de locomotion, était sur de la calèche et de la diligence et du chariot avec des chevaux. Et en fait, l'arrivée de l'IA, pour moi, ça me fait un peu penser à, invente le moteur à explosion et en fait, on met des roues et on se passe des chevaux et on va commencer. Donc c'est tellement... Ce que je dire par là, c'est que...

l'IA va redéfinir très probablement de manière profonde l'ingénierie logicielle, le software engineering. Donc en fait si tu veux aujourd'hui en tout cas aux Etats-Unis, de ce que j'en ai vu, tu peux presque plus parler software engineering sans parler d'IA.

d'une manière ou d'une autre, que ce soit avec des agents, ce soit avec des LLM, que ce soit par l'AI engineering. Donc c'est pour ça qu'on a inventé ce terme d'AI engineering. C'est des ingénieurs software, des software engineers qui bossent autour avec et qui développent des solutions avec à base d'IA en fait. Et aujourd'hui, aujourd'hui, il a presque que ça. C'est pour ça que maintenant le distinguo se fait plus trop finalement. Et tu parles d'AI engineering. Là où en France, c'est encore, il a encore des entreprises,

Il encore des gens qui sont un peu écartés de l'IA et font que du software. Je ne sais pas si ça répond à ta question mais c'est un peu...

Thomas (06:02.43)
Si si, si si pas mal et tu mentionnes un point qui est important, pense que ce week-end, le week-end dernier, j'ai découvert mon moment, mois où j'ai été bluffé par intelligence artificielle, c'est-à-dire, ça un moment où je suis dessus, j'ai découvert Loveable, donc c'est une plateforme que tout le monde en parle, mais moi j'utilise pas trop ce genre d'outils initialement, je me suis dit, il que j'essaye et j'ai été bluffé, j'ai fait un prompt de 3-4 lignes et il te sort un premier mock-up en code.

Pierre Vannier (06:11.404)
raconte !

ouais.

Thomas (06:30.538)
5 minutes. C'est bluffant, c'est sidérant et j'ai peut-être été pendant une fraction de seconde inquiété plus que ébarri après je me suis dit mais en fait tes prototypes, ça change complètement le jeu en fait tout va vite

Pierre Vannier (06:43.738)
Alors ce qui est de très intéressant notamment par rapport à Loweable, y a deux points super intéressants, c'est que 1. C'est une boîte européenne. Donc tout ne se fait pas aux États-Unis. C'est une boîte suédoise. Et il a une chose qui est aussi tout à fait hallucinante que c'est la boîte qui a connu la plus grosse croissance. En fait chaque semaine il a un petit peu ça. C'est à dire qu'en fait il a un mois la boîte qui avait connu la plus grosse croissance c'était Cursor.

Thomas (06:56.554)
...

Pierre Vannier (07:11.206)
avec de 0 à 100 millions d'utilisateurs en l'espace de 12 ou 18 mois. Et aujourd'hui, Loveable, c'est plusieurs dizaines de millions de... Ouais, c'est ça, 17 millions d'ARR. ARR, c'est annual recurring revenue. Ça veut dire le chiffre d'affaires récurrent. Donc 17 millions d'ARR pour une boîte qui a quelques mois. Donc c'est juste...

C'est complètement hallucinant et puis dans leur boîte ils sont 15, 20, pas plus quoi.

Thomas (07:42.698)
ils sont vraiment très peu et ce qui est vraiment très fort et j'y ai repensé encore ce matin donc c'est assez fou c'est que tu vois par exemple Curse 4 c'est principalement fait pour les ingénieurs les coders c'est pour une niche et là ça prend une dimension produit c'est à dire que n'importe qui va taper ces deux trois lignes pour rappel Loveable c'est vous faites du prompt et on vous sort je sais pas ouais je vais dire un mockup mais peut-être une autre définition Pierre pour Loveable ouais

Pierre Vannier (07:52.4)
Ouais, tout à fait.

Pierre Vannier (08:06.246)
Un MVP, un prototype, déjà un trait centré sur l'interface utilisateur. Une web app, un site web, etc.

Thomas (08:14.762)
T'as le site web et puis de l'autre côté tu as le code avec la structure dans un d'entre folders, enfin tout est vraiment très très carré et je me suis dit en fait là tu as une vision très très produit c'est à dire que n'importe qui, un PO, un PM, il a une envie, je veux un dashboard, j'aimerais une application qui monitor, je sais pas c'est un exemple tout bête puisque je fais du machine learning mais je veux avoir un visuel et tu l'as. Avec le code tu vois, c'est statique mais c'est bluffant.

Pierre Vannier (08:24.634)
Oui. Oui. Tout à fait.

Pierre Vannier (08:38.982)
Bye.

Oui, tout à fait. ça, a pas mal de gens qui reviennent là-dessus. C'est-à-dire qu'en fait, les barrières à l'entrée, nous en tant qu'ingénieurs logiciels, les barrières à l'entrée pour coder, développer, etc. c'était compliqué et c'était peu accessible aux communs des mortels. Et en fait, ces nouvelles plateformes, donc Lovable, qui est dans la même catégorie de plateforme que Bolt,

que Replicit, sont des plateformes online sur lesquelles tu développes un peu de manière, un peu dans des containers finalement, des interfaces, des sites web, des webapps. Et ce n'est pas exactement les mêmes paradigmes que Cursor ou que Winsurf. Mais du coup, ça abaisse énormément les barrières à l'entrée, les difficultés d'accès à ces outils et finalement à produire du software, parce que tu produis du software. Ce qui fait que...

on peut imaginer que les PIO, PM, Product Owner, Product Manager, etc. deviennent les rois du pétrole parce qu'en fait ils ont rompu cette barrière où il fallait qu'ils tapent sur l'épaule d'un dev ou de plusieurs devs pour développer une solution mais peut-être ils vont pouvoir eux-mêmes produire leur MVP, leur minimum viable product, leur prototype, etc. Donc c'est vrai que c'est assez révolutionnaire pour ça. C'est assez révolutionnaire.

Thomas (09:58.346)
Et tout à fait, de l'autre côté en fait, c'est aussi, j'espère, j'ose espérer que ça rendra les discussions plus claires entre le produit et la tech. Et c'est un point important parce que souvent on ne se comprend pas, ils veulent quelque chose. Nous, des fois, on comprend difficilement et là, tu peux tout de suite montrer un visuel. Voilà ce que je veux. Surtout maintenant, peux le, alors je ne me rappelle plus du terme, tu peux l'associer à Fidma. Oui, c'est Fidma, j'allais dire figuré, avec Fidma. c'est très très puissant. Bon voilà, je voulais vous raconter un peu ce moment du week-end.

Pierre Vannier (10:06.0)
Ouais carrément.

Pierre Vannier (10:15.75)
Bye.

Pierre Vannier (10:22.662)
Mais, mais, mais...

Thomas (10:28.3)
Ok, très cool pour son fan, toi t'en as retenu des choses ou pas ? La nouveauté ?

Pierre Vannier (10:32.102)
Ouais, bah moi j'ai rencontré à la fois des grosses boîtes et des startups et pas mal de meet-up sur l'IA. J'ai rencontré Netflix, LinkedIn en grosses boîtes et plusieurs startups. En fait, pour résumer, il y a vraiment une... Ils sont absolument tous...

en ordre de bataille est tourné vers l'IA de manière très volontaire.

En fait, c'est assez marrant mais les Etats-Unis, parfois ils peuvent te donner l'impression qu'ils bossent comme des tarés mais en fait ils bossent pas beaucoup.

J'ai jamais vu autant de gens sortir à 5h 5h30 qu'aux Etats-Unis dans la Silicon Valley, débaucher à 5h 5h30. Alors qu'en fait ici, veux dire, quand tu sors à 5h30 ou 6h du boulot en France, tu as l'impression que tu es un peu un tire-au-flanc. Enfin, je trouve. Mais par contre, là, vraiment ce que j'ai ressenti, c'est qu'ils sont ultra, ultra concernés par ces nouvelles techno et ils ont le mort entre les dents. Et j'ai vraiment senti...

il faut pas qu'on passe à côté de cette vague là, elle est énorme, et il faut vraiment qu'on fasse tout pour qu'on soit vraiment avant ou devant tout le monde et qu'on continue à être un peu dans une espèce de suprématie sur ces technos là. Et ensuite j'ai pu discuter avec ces grosses boîtes comme LinkedIn ou Netflix, qui l'aborde de manière un petit peu différente, ce qui est assez logique.

Pierre Vannier (12:11.914)
Ils travaillent avec les assistants au coding comme Cursor, GitHub, Copilot, etc. ils sont tous là-dessus. Mais aujourd'hui ils sont quand plus sur des technos d'IA traditionnels. vois, même je pense à Netflix, ça va être de la recommandation, ça va être de la classification, ça va être des choses. Mais peut-être moins dans les solutions d'IA générative telles qu'on le voit de GenerAid.

Donc j'ai quand même plus l'impression que les grosses boîtes qu'on entend, les très très grosses boîtes, elles sont peut-être un peu moins agiles sur ces nouvelles techno IA, GEN et AI que les petites start-up. Et c'est peut-être ça qui risque de rebattre les cartes d'ailleurs. C'est à que je pense qu'il n'est pas impossible que les très très grosses boîtes avec des vieux codes bases, des...

des grosses légacies et des softwares qui ont une vraie dette technique, puissent se faire potentiellement chahuter par des nouveaux entrants. vois, type Loveable, ils sont 15, ils m'ont une solution, elles arrivent à 20 millions de chiffres d'affaires en l'espace de quelques mois. Et je pense que ça peut rebattre foncièrement le paysage.

Thomas (13:26.566)
Après l'objectif n'est pas le même, c'est-à-dire que Netflix ils vendent un catalogue de vidéos alors que eux Loveable en l'occurrence ou Cursor ils vendent une solution d'intelligence artificielle. Mais j'avais une autre question vis-à-vis de ça, je n'ai pas très bien compris. Quand tu as un Netflix par exemple, est-ce qu'il te montre là où ils veulent aller avec l'intelligence artificielle, voilà ce que ça leur permettrait d'atteindre, où ils ont déjà des prototypages ou des premiers produits boostés à l'intelligence artificielle ?

Pierre Vannier (13:53.9)
Alors, déjà ce qu'il faut savoir c'est qu'en fait je trouve qu'il a de moins en moins de gens qui te montrent des choses. C'est à dire qu'en fait ça devient tellement stratégique. Alors moi j'ai des potes qui bossent là bas donc je peux discuter etc. Il y a des choses que je peux pas dire en on mais plutôt en off. Donc si tu veux ils ont des choses, ils préparent des choses mais quand t'as montré des choses ou faire des règles et des partages en fait l'enjeu est tellement gros.

Thomas (14:01.916)
ouais, c'est bon.

Pierre Vannier (14:23.597)
que quand ils partagent des choses, soit c'est déjà ultra préparé, c'est des gros lancements en fanfare comme on voit souvent et comme on reviendra dans le podcast aussi là avec les différents lancements qu'il y a eu mais généralement ils partagent pas des masses. Après ce que j'ai je me suis rendu compte qu'il y avait des vrais use case auxquels on pensait pas forcément

pour l'IA générative, tu vois là c'était une grosse boîte qui me disait, nous on est en migration permanente, vois en fait ils ont tellement de codes qu'en l'entreprise en elle-même migre en permanence de frameworks, de langages, font des montées de versions, des updates, etc. Et quelqu'un me disait, un engineering director me disait, bah tiens l'IA générative là pourrait beaucoup nous aider pour nous accompagner dans la migration, dans les processus de migration en ce sens où

c'est souvent très très coûteux, très complexe pour des ingénieurs, mais l'IA génératif peut pas mal aider là-dessus, parce qu'ils ont le code entrant, ont ce que va changer l'immigration et les choses qui peuvent être cassantes et du coup peuvent être accompagnées avec la GenEI.

Thomas (15:30.122)
Ok, je vois. Ok, ça c'est intéressant. Bon, on va pas trop rester sur San Francisco, t'as fait encore pas mal de belles choses. Est-ce qu'on pourrait aller vers New York ? Non, peut-être s'il y a eu Paris. Alors attends. C'est Paris en premier ? Allez.

Pierre Vannier (15:39.044)
Alors j'ai fait San Francisco, ensuite je suis allé à Paris, Paris en premier, le World Summit, le sommet mondial de l'IA organisé par le gouvernement français, du coup sur quasi une semaine début février.

grandes fanfares, gros événements, très médiatiques, très politiques, avec une première journée au Grand Palais où il y avait tous les gros patrons de boîte, y avait tous les politiques évidemment et des internationaux qui venaient. Et c'était pour montrer que, grosso modo, la France prenait le leadership du développement de l'IA et voulait s'emparer

de tout ça, notamment avec des grosses annonces de financement, 100 milliards qui viennent en partie de fonds étrangers avec une volonté affichée de se rapprocher de l'Inde. vraiment beaucoup d'annonces, on est fort en France en fait, je reprends souvent ça, mais on est même assez fort en France pour des effets d'annonces.

Et après en fait ce qu'il faut voir c'est comment sur le papier les annonces se traduisent en termes d'action. Et ensuite le deuxième jour, a eu une journée à guichet fermé mais même plus que ça parce qu'il y avait je crois qu'il y avait deux fois plus de monde que ce qui s'attendait à station F dans le centre de Paris où c'était une journée plutôt dédiée rencontre, business, networking, conférences et co-organisé avec station F, Numéum,

qui est syndicat, l'ex syndicat Syntec, France Digitale et la BPI. Donc beaucoup de monde, pas du tout la même ambiance qu'aux Etats-Unis, beaucoup plus...

Pierre Vannier (17:46.662)
Moi j'ai trouvé beaucoup plus politique. Un peu un politique fait kit, il lui met kit. à dire il faut vraiment montrer qu'on est là, bomber le torse.

parler, hurler, crier et pour se faire entendre dans cette espèce de grosse guerre mondiale de l'IA aujourd'hui puisque c'est un peu ça entre les Américains, la Chine et l'Europe et puis la France au milieu avec Mistral avec quelques belles boîtes mais voulant montrer qu'on existe, qu'on est là aussi.

quelque part et qu'on pèse dans le game tu vois tu vois je prends l'expérience de l'expression de jeune un peu mais c'est un peu ça que j'ai ressenti

Thomas (18:27.402)
je te prends.

Thomas (18:33.13)
C'était ma première question. De base, c'était politique mais tu as répondu indirectement. Moi, j'ai quand des avis, même d'un point de vue très extérieur, d'Amérique du Nord. Moi, je trouve ça intéressant d'un point de vue politique, gouvernemental. Encore une fois, ça manque de clarté, puisqu'on annonce 109 milliards d'euros, je ne crois pas de dollars. Ce qui change, ce qui est différent. En France, mais les fonds viennent de l'étranger. Ce n'est pas encore très clair et ça a été mentionné. Ça peut potentiellement provenir des États-Unis et du Canada.

Pierre Vannier (18:36.39)
complètement.

Pierre Vannier (18:51.405)
C'est ça.

Pierre Vannier (18:56.422)
Ouais.

Thomas (19:03.484)
ce qui pour moi est d'une certaine façon antinomite puisque en fait les états unis et le canada c'est des entreprises privées puisque ta stargate du point de vue j'allais dire fédéral mais des états unis alors que c'est ouais

Pierre Vannier (19:13.926)
Il y a de l'argent aussi des pays du golf, des miras aussi, et pays du golf. Mais c'est de l'argent privé, pays du golf, étranger en fait. Et en plus le truc c'est c'est aussi potentiellement pour construire des data centers et on sait très bien qu'en fait les data centers une fois qu'ils sont construits, tu veux...

Thomas (19:22.26)
mais rien n'est clair encore.

Pierre Vannier (19:33.286)
c'est pas trop générateur d'emploi et de l'autre côté ce que tu fais tourner sur les data centers ça sera très probablement du Azure, du AWS ou de je sais pas quel autre truc américain tu vois ce que je veux dire donc

Thomas (19:45.542)
Et tu m'avais dit par message si je me trompe combien ils vont déployer META en terme de dollars sur les data center.

Pierre Vannier (19:49.926)
Ils font un data center, ils ont prévu 2 milliards aux États-Unis.

Thomas (19:53.226)
de milliards. Donc ça c'est juste une entreprise et t'as Apple qui a annoncé la semaine dernière, sans Stargate tout seul ils annoncent 500 milliards de dollars. Pour Apple. Je pense qu'il y a beaucoup d'informations dans très peu de choses.

Pierre Vannier (20:01.926)
Ok.

Thomas (20:09.994)
trop difficile d'aller concurrencer aujourd'hui. Il faut un État pour aller concurrencer des entreprises privées. Et une entreprise privée en quatre ans, elle annonce 500 milliards pour ses emplois, pour ses usines et pour se recentrer sur son territoire, les États-Unis. Donc à voir comment les choses vont avancer, je...

Pierre Vannier (20:28.322)
Le truc sur lequel ils ont joué en France c'est qu'on a l'électricité avec l'expression de Macron, plug baby plug, à la place de drill baby drill, de Trump en fait, on a de l'électricité décarbonée en nombre et pas trop cher et assez accessible donc on joue là-dessus.

Mais c'est compliqué et puis on le voit c'est compliqué pour des boîtes comme Mistral par exemple malgré sa taille qui en France peut être gros en Europe aussi mais finalement à l'échelle de mastodontes comme Open AI, Anthropik et tous les très très gros, ça pèse vraiment pas grand chose. Donc le combat est quand même difficile, c'est un peu David contre Goliath.

Thomas (21:19.274)
T'as raison mais j'ai adoré le côté annonce de Mistral avec le chat qui est tout à fait honorable d'un très bon modèle, un très bel outil et l'annonce avec Free ou si je me trompe pas si vous êtes abonné Free

Pierre Vannier (21:31.662)
Pour les abonnés free, ils peuvent avoir un abonnement le chat en même temps.

Thomas (21:37.286)
Pendant un an, pro, enfin pro je ne connais plus les termes, désolé, mais c'est un bon tour, c'est bien joué je trouve. Mais voilà de l'autre côté on a effectivement de l'électricité mais je crois qu'on a un parc qui est quand très vieillissant et ça va poser des problèmes, dans des problèmes et c'est un sujet mais ok. T'en étais satisfait ou tu es un peu sur ta faim ?

Pierre Vannier (22:00.774)
En fait ce qui est compliqué c'est que ces grosses conférences

Thomas (22:03.164)
Ok, on change de question si tu veux.

Pierre Vannier (22:12.07)
qui sont quand même là pour se montrer, être vus et politiques, etc. Je trouve que ça n'apporte pas grand chose. J'imagine que c'est probablement nécessaire pour pouvoir se montrer et faire de l'audience et faire du battage. Mais ce n'est pas moi en tout cas ma tasse de thé vraiment parce que je trouve qu'en terme de substance, ça manque un petit peu. Mais bon, chacun trouve son compte.

Et après, suis retourné aux États-Unis, cette fois non plus sur la côte ouest mais sur la côte est à New York. là c'était pour une conférence qui s'appelle AI Engineer Summit, qui était le même organisateur que la conférence qu'on avait suivie l'année dernière, toi et moi, Thomas, mais sur un format différent, sur quatre jours et très...

beaucoup plus technique, beaucoup moins de... Tu vois la différence de la conf de l'année dernière où tu avais quand même ce genre de talk ou de conférences qui peuvent être un petit peu des présentations de solutions des gens qui viennent présenter et du coup, tu te retrouves avec quelque chose qui est assez partisan.

Voilà, utilisez ma solution, ça va vous aider, ça va vous faire des miracles. Là, t'as vraiment une volonté de la part des organisateurs de faire des conférences, pas de conférences produites pour montrer ou mettre en avant des produits et que des conférences sur du retour d'expérience. La thématique c'était les agents et c'était génial parce qu'à la fois les speakers étaient de très haut niveau

La confété rythmée en 3-4 jours où il y avait une journée plutôt AI leadership pour les CTO, les VIP et voir ça de manière un petit peu haute mais c'était déjà assez technique et puis au fur et mesure c'est descendu en termes de technique jusqu'au samedi où le dernier jour c'était vraiment des workshops donc des ateliers où tu prenais ton ordi là on a eu une démonstration d'anthropique sur les MCP on va peut-être en parler donc vraiment une super super conférence de très très

Pierre Vannier (24:30.761)
niveau là pour le coup j'ai vraiment apprécié beaucoup parce que t'es dans le faire du coup et je trouve que c'est plus substantiel quoi

Thomas (24:41.938)
Ok, c'est intéressant quand tu allais à cette conférence, c'était sur les agents ou c'était un point qui était primordial dans la présentation puisque quand on est allé à San Francisco, tu avais plusieurs parcours et les agents étaient au même titre que n'importe quel autre parcours. Donc on en parlait pas autant.

Pierre Vannier (24:51.061)
Non. Ouais.

Pierre Vannier (24:57.632)
Ouais, ouais, ouais, Non, cela c'était vraiment dédié à agents. D'ailleurs, le titre de la conf, c'était Agents at Work. les agents au travail. il y avait vraiment des thématiques autour de... on en est où avec les agents ? Quel type de framework ? Pour quels usages ?

Thomas (25:04.563)
Ok.

Pierre Vannier (25:27.686)
des questions difficiles par rapport à l'observabilité, par rapport à l'évaluation, c'est-à-dire la capacité. Parce qu'après c'est bien d'avoir un système agentique avec des agents qu'on lance, mais après il faut quand même pouvoir orchestrer.

observer avec des systèmes de feedback, de retour, de savoir ce que font les agents, etc. s'ils ne partent pas en vrille ou s'ils dérivent pas, et le côté évaluation, c'est-à-dire être capable de dire oui ou non mes agents ils répondent à la problématique que je demande et avec un certain niveau de qualité. Donc tous ces problèmes d'observabilité, d'éval, d'évaluation, d'orchestration.

qui sont des problèmes fondamentaux, là où l'année dernière on était moins avancés et en fait tout le monde parlait de framework agents alors qu'en fait c'était des boucles Yves qui tournaient avec deux trois experts à droite à gauche, un crew et I qui a un framework et du coup là on s'est vraiment posé les questions plus bas niveau ce qui montre que la thématique des agents a un peu plus de maturité

Thomas (26:19.326)
Oui, tout à fait.

Pierre Vannier (26:34.372)
Ce qui ne veut pas dire, et c'est aussi ce que je vais conclure là-dessus, c'est que pour le moment, ça n'est pas prêt à être mis en prod. Il n'y a aucun framework agentique.

qui a mon sens, le niveau de passer la mise en prod et de la mise en prod et d'être customer facing et d'avancer etc. On est sur des choses qui sont prometteuses, qui commencent à devenir de plus en plus matures, de moins en moins tendres, de plus en plus production ready, mais on n'est pas encore là. Je pense que ça arrivera peut-être parce que ça va très vite et tout le monde s'est jeté dans cette course-là, mais pour l'instant c'est loin d'être le cas.

Thomas (27:14.644)
Ok, puisque moi, il n'y a plus trop de doute, les agents, faut les connaître, il que ça fasse partie de nos cordes. Moi, je pensais justement, le métier de data scientist, quand on fait du MLE et ce genre de choses, il était voué à changer avec les agents, puisqu'on va remettre avec des agents un aspect un peu probabiliste, mathématique, vois, il n'y a pas de certitude à 100%. Donc là, tu vois, je me disais, la data science peut être utile. Quand...

tout le AI engineering était en train de changer, beaucoup plus du software, beaucoup plus d'API et ce genre de choses et que les data scientists, ce genre de métier était un peu mis de côté. Je me dis que justement, notre compréhension plus mathématique, les probabilités, genre de choses statistiques, elles pourraient devenir utiles dans cet environnement beaucoup plus, je ne pas, on va dire, incertain. Tu vois, c'est à qu'on ne n'a jamais le contrôle sur le résultat final. Et je pense que c'est ça que vous avez vu finalement pendant la conférence à neuf heures, c'est que tu ne contrôles jamais.

Pierre Vannier (28:07.43)
Ouais... Ouais.

Thomas (28:09.846)
même si tu fais ton contexte disons, ce que ton utilisateur va mettre tu peux pas savoir et tu peux pas savoir si tes agents vont jouer entre eux

Pierre Vannier (28:18.534)
Ouais, justement on a fait une conférence et on partagera sûrement dans la transcription ça mais un des workshops que moi j'ai trouvé vraiment le plus passionnant c'est ce qu'on appelle, c'est un gars qui est venu vous parler de Flow Engineering, c'est encore autre chose. Et en fait le Flow Engineering c'est pour des gens qui vont développer des systèmes à base d'agents IA.

Thomas (28:37.94)
Ouais, ok.

Pierre Vannier (28:46.392)
d'être capable de bien comprendre les workflows et les enchaînements et et surtout finalement aussi les cas critiques, mais d'être capable d'avoir une vision macro de l'enchaînement et des scénarios et des workflows des agents.

C'est pour ça qu'ils appellent ça Flow Engineering, comme Workflow Engineering, parce qu'en fait tu te retrouves un petit peu à un plombier à envisager des scénarios de quel agent, etc. Ils nous disaient de nous mettre dans les pieds de l'agent, de vraiment réfléchir comme un agent. Donc tu avais un côté assez intéressant.

Thomas (29:02.94)
Ouais, ok.

Pierre Vannier (29:11.392)
d'être capable de bien comprendre les workflows et les enchaînements et et surtout finalement aussi les cas critiques, mais d'être capable d'avoir une vision macro de l'enchaînement et des scénarios et des workflows des agents.

C'est pour ça qu'ils appellent ça Flow Engineering, comme Workflow Engineering, parce qu'en fait tu te retrouves un petit peu à un plombier à envisager des scénarios de quel agent, etc. Ils nous disaient de nous mettre dans les pieds de l'agent, de vraiment réfléchir comme un agent. Donc tu avais un côté assez intéressant.

Et le deuxième workshop que j'avais beaucoup aimé par rapport aux agents, c'est le workshop d'Anthropix sur MCP. MCP qui veut dire Modèle Contexte Protocol. Donc peut-être on peut en parler aussi.

Thomas (30:07.25)
On peut en parler ? Ca a été annoncé en novembre 2024 par Anthropiq. C'était présentation qu'ils avaient fait où ils prenaient le contrôle d'un ordinateur. C'est pas ce genre de chose dont tu veux parler.

Pierre Vannier (30:22.346)
Ouais en fait il l'avait... en fait c'est assez marrant parce qu'il personne qui n'a rien compris. y a personne qui comprenait ce que c'était que MCP. Je voyais encore des gens tweeter il y a une dizaine, une quinzaine de jours. au fait en fait genre c'est quoi MCP, ça sert à quoi. Donc il y a pas mal de gens qui... Parce qu'en fait ils l'ont sorti en tropique. Je pense d'une mauvaise façon ils ont sorti MCP et au même moment ils ont sorti un autre outil qui s'appelle Computer Use. Qui est justement pour prendre en fait...

pour prendre le contrôle de ton ordinateur ou de ton navigateur et pouvoir faire des choses avec l'IA, des screenshots, naviguer, etc. Mais en fait, c'est deux choses complètement séparées, différentes, mais dans la tête des gens, on en arrive un peu à ça aussi. C'est-à-dire qu'en fait, il y a tellement un surplus d'informations qu'on a du mal à suivre, on a du mal à comprendre à quoi servent les choses.

Thomas (31:12.988)
Ok, est-ce que tu peux nous dire un peu plus en détail, puisque pour moi c'est au même titre que Land Graph, Small Agenda, Hudge Infaith ou Yamaha Index. Donc peut-être que moi j'ai pas encore saisi la différence.

Pierre Vannier (31:27.682)
Alors, le MCP, littéralement l'acronyme de Models Context Protocol, en fait ce qui se passe c'est que tu peux, avant ce qu'on pouvait faire c'était donner des outils avec du function calling, on pouvait donner des tools au LLM en leur disant, tiens tu vas utiliser tel ou tel outil etc. En fait le MCP c'est finalement une espèce de

standardisation de cette notion d'outils en ce sens que tu vas pouvoir être par exemple dans cloud je prends cloud parce que c'est Anthropic qui est sorti mais tu vas pouvoir être dans cloud desktop l'application et tu vas pouvoir rajouter des outils je vais prendre un exemple moi j'ai créé un il n'y a pas longtemps un mcp qui est fait une interface avec les outils d'apple de mon mac grosso modo je pouvais demander à cloud

desktop donc quand t'es dans le chat tu lui dis bah tiens trouve moi le numéro de Thomas et envoie lui un sms et dis lui salut Thomas et en fait là le LLM détecte qu'il a un outil à disposition donc c'est un programme

que tu écris. Un outil à disposition, donc un programme que tu écris suivant le protocole MCP, il a des entrées, des sorties, tu sais, un espèce de contrat et en fait il honore ce contrat et de l'autre côté en fait tous les LLM qui sont MCP ready, ont la capacité justement de lister ces outils et de travailler avec ces outils en entrée-sortie. Donc en fait du coup le LLM commence à se rendre compte qu'il a un outil à disposition qui est rechercher un numéro de téléphone dans un carnet d'adresse et un autre outil ensuite qui est envoyer un SMS avec tel outil.

Et en fait, coup, tu vois le LLM dans son raisonnement dire, je vois que j'ai tel outil MCP à disposition, je l'appelle, il va trouver ton numéro, donc il prend Thomas Memoon en entrée, il fait une recherche et il renvoie le numéro de téléphone, qu'il le passe à un second MCP, qui lui va envoyer un SMS avec ton numéro de téléphone avec salut Thomas. Donc là, j'ai pris un exemple avec les outils qu'on appelle, là, ils sont exposés d'un point de vue informatique, un peu comme une API.

Pierre Vannier (33:37.23)
où tu exposes des endpoints qui sont finalement des points d'entrée sur lesquels ensuite tu vas avec différentes méthodes et différents paramètres dire au serveur d'effectuer des actions et avoir un retour, de la même manière avec le MCP tu vas avoir la même chose et tu peux exploser un certain nombre d'outils. Et ce qui est vraiment très intéressant c'est que quelque part la notion d'API était très bien

n'adapter pour le web, REST, le web, les communications entre serveurs mais vraiment orientés web, HTTP, mais pour la notion de LLM ou d'agents qui doivent discuter entre eux et collaborer, la notion de serveurs et de clients MCP et de petits outils est beaucoup plus pertinente et c'est pour ça qu'il y a aujourd'hui un engouement autour de cette techno et que beaucoup de gens, c'était le workshop le plus suivi à New York, il y avait 200 personnes dans la salle.

Donc c'était vraiment très très gros. Et là il pense même faire une espèce de repository, donc une espèce d'app store pour les MCP servers. Tu as déjà sur GitHub un certain nombre de serveurs MTP qui ont été sortis par Google. Tu as un serveur MTP par exemple pour Google Calendar. C'est à dire qu'en fait depuis Claude je peux dire, bah tiens donne moi, trouve moi trois créneaux disponibles la semaine prochaine d'une heure. Il va regarder dans mon calendrier.

et en fait il va appeler un mcp server qui va être liste-moi, renvoie-moi des chronos disponibles et il le repasse au LLM un peu comme un rag qui le LLM en langage naturel te réinterprète et te donne les informations. Je sais pas si c'est clair, je pense que c'est pas trop haut.

Thomas (35:18.45)
Pour moi c'est clair, c'est un agent, tu lui traites des outils mais je pense que as un niveau d'abstraction propre à Anthropik. Est-ce que c'est quelque chose que tu payes en plus ?

Pierre Vannier (35:31.502)
Non, non, entièrement gratuit. Tu as des SDK, tu as des toolkits qui te permettent en TypeScript ou en Python de développer tes serveurs. Et après, fait, si tu te conformes au protocole MCP qui est libre, ils ont fait une RFC, donc une Request for Comment. Donc c'est un peu comme, tu vois, HTTP ou email ou SMTP, tous ces grands protocoles, Anthropic a...

à proposer un RFC pour que la communauté internationale s'empare de ce protocole et disent oui, non, ça nous intéresse, mais tiens, on pourrait faire des modifs, etc. Donc un peu comme HTTP ou même HTML, tu HTML5, par exemple, c'est une RFC, c'est international, c'est reconnu, ça devient un standard. Enthropeek a voulu faire la même chose et c'est aussi en ça que c'est intéressant, c'est qu'ils ont démarré par une espèce de standard de fait et là ils sont en train de le porter en open source et en standard international. Mais du coup, si tous les autres providers de LLM reprivent

aussi une architecture comme ça, ça va permettre une interconnection des différents types d'agents au niveau protocolaire et au niveau échange d'informations. Donc ce qui est vraiment aujourd'hui quelque chose de super important.

Thomas (36:36.178)
Oui tout à fait. Et donc en fait tu as un semblant de template à suivre pour les mcp c'est ça ? Pas du tout. Ok je comprends. Oui puisque effectivement si...

Pierre Vannier (36:42.11)
Exactement. Il faut imaginer que les outils que tu exposes c'est des méthodes ou des fonctions et tu vois mcp-tool et tu définis le nom de la méthode, ce qu'elle prend en entrée en paramètres, une petite définition de ce qu'elle fait et ce qu'elle te renvoie en sortie.

Thomas (37:01.094)
Ok je comprends, et ça permet d'uniformiser puisque quand tu utilises Small Agents ou quand tu utilises Landgrave, c'est plus propre à leur librairie. Ok c'est hyper clair.

Pierre Vannier (37:08.745)
Exactement.

parce qu'en fait ce qui est vraiment important c'est que tu peux avoir des agents dans tous les sens ou des frémoires qui marchent super bien mais s'ils échangent de l'information via un protocole qui est tous exotique, chacun le sien et qui est pas certain et qui est au final en fait on fera rien. Donc je trouve que le fait d'avoir une espèce d'entente où on va vers une entente, vers un protocole de communication qui tienne la route et que tout le monde s'entende sur on parle le même langage avec les mêmes

tiens tu m'envoies ça en entrée, je te renvoie ça en sortie etc. On a un contrat. en fait pour les gens qui ont un petit peu d'âge comme moi ça fait un peu penser à ce qu'on appelait avant SOAP qui étaient les protocoles d'appels distant de fonction ou ce qu'on appelait les remote procédures call les RPC en Java où finalement tu avais un programme local qui appelait une fonction distante avec un contrat qui devait être rempli par la ressource distante et te renvoyer un résultat. Donc là c'est pareil sauf que c'est adapté aux LLM et aux agents.

Thomas (38:12.178)
Ça va prendre un peu de temps avant que ça soit démocratisé.

Pierre Vannier (38:17.934)
Pour l'instant, ça sort du labo et c'est vraiment super frais. Mais il y vraiment des choses qui sont faisables et qui sont super intéressantes. Tu pourrais imaginer quand tu es développeur d'avoir un MCP server, un petit outil, tu lui dis « tiens, donne-moi les...

les cinq derniers bugs de notre système, de notre appli et puis donne-moi les dernières réalisations des trois développeurs, les pull requests, machins etc. fais moi un tableau synthétique. Et te renvoie ça directement dans ton cursor, dans ton win-surf, dans ton éditeur de texte. Donc je pense que ça peut être vraiment super cool.

Thomas (39:06.299)
C'était des API boostés pour l'IA. Est-ce que ce ne pas le moment de continuer à parler d'Anthropic et des sorties de la semaine dernière ?

Pierre Vannier (39:07.822)
Ouais c'est c'est ça, exactement.

Pierre Vannier (39:14.894)
Ouais, tu veux dire de Claude 3.7 ? Ouais.

Thomas (39:17.938)
Entre autres, avec leur nouveau modèle qui est sorti, ils ont aussi fait l'annonce de... Mince, j'ai un trouble de m'en... Claude Cod ? Euh... Claude Cod ? Donc Claude qui est, bah... Qui est leur agent. Leur agent de Codin, finalement.

Pierre Vannier (39:24.97)
Ouais, ouais, Claude Codd, tout à fait.

Ouais, alors je l'ai testé juste aujourd'hui là, parce que je me suis aperçu que j'avais une invitation pour le tester. J'ai pas encore de retour mais effectivement en fait tu te retrouves avec un...

une interface comme un terminal où il a accès à ton code en local et tu peux lui poser des questions, etc. Donc vraiment comme un copilote de GitHub ou un cursor ou un windsurf, etc. et lui poser des questions et qui rédige. Alors, est-ce que ça veut dire qu'Anthropic est en train de vouloir grappiller et s'attaquer à ce marché des éditeurs de code augmenté et assisté ? Pourquoi pas ? Je trouve que ça ne pas bête parce que c'est quand même un gros marché.

Thomas (40:13.906)
En fait, je pense que c'est une volonté d'anthropie, ça vient peut-être d'un biais, mais on a toujours dit que Claude Sonnet, c'était un top modèle pour faire du code. Ils ont sorti leur étude le mois dernier avec toutes les données anonymisées qui disaient, il y a peut-être, je ne me rappelle plus des chiffres, 3 % de développeurs de software engineer aux États-Unis, ça représente 30 % des promptes, le code. Et à partir de là, ont dit, fort de cette expérience, en fait...

Cloud Code serait une bonne solution pour accompagner les développeurs puisque potentiellement on a le meilleur modèle. Moi ce je trouve très intéressant c'est qu'il y a une petite vidéo je crois de 2-3 minutes où ils en font un exemple et en fait ils prennent un repo de GitHub plus ou moins et ils demandent à Cloud Code d'aller analyser le code. Et là tu peux discuter avec lui donc c'est un peu une documentation des temps des modernes où tu peux très simplement savoir à quoi sert quoi.

Et moi j'y vois des vraies vertus là-dedans, on peut se l'admettre, on code presque tout le temps maintenant avec un outil d'intelligence artificielle pour nous faire gagner du temps pour les boilerplate mais un peu le code sans business simple. Donc ça peut vraiment nous faire gagner un temps qui est monstrueux.

Pierre Vannier (41:28.27)
Après, je demande à voir la différenciation de Cloud Code par rapport à Cursor. J'utilise beaucoup Cursor mais quels sont les avantages qui mettent en avant et la différenciation parce qu'aujourd'hui ils font un peu tous pareil.

Et d'ailleurs tu parlais de Claude Code qui est sorti au même moment que Claude Sonnet 3.7 qui est la supérieure et la plus récente, avant on avait 3.5 et qui était déjà effectivement le modèle le plus performant pour faire du code.

Thomas (41:58.546)
Exact.

Thomas (42:11.964)
Ouais tout à fait, tout à fait. Là ils ont sorti 3.7 qui est l'évolution de 3.5 et qui est disponible gratuitement. La seule différence c'est que t'as le modèle de raisonnement, j'ai plus le en terme, modèle extend, je sais plus, c'est ça. Il est disponible pour la partie payante.

Pierre Vannier (42:23.189)
Ouais, ouais, c'est ça. Thinking, ouais ouais.

Thomas (42:30.994)
Et là ce qui est vraiment intéressant par contre c'est que, et ça il s'entargue, c'est de dire on a fait un modèle pour quelques millions de dollars. Les montants sont dingues mais pour quelques millions de dollars ils ont fait évoluer le modèle et grâce à ça en fait leur API pour le 3.7 elle est au même prix que 3.5. Donc tu as le même modèle, enfin un meilleur modèle au même prix.

Pierre Vannier (42:50.062)
Quoi ? Quoi

Pierre Vannier (42:54.03)
Alors moi, il est sorti il n'y a pas très longtemps.

J'ai vu du bon comme du moins bon en fait, c'est assez... notamment sur Twitter, dans la communauté des devs, etc. J'ai vu des gens complètement dit tir en bique, j'ai vu des gens me dire, ouais, enfin, entre 3.5 et 3.7, j'ai pas trop vu la différence. Ce que je remarque aussi, d'une manière générale, c'est que j'ai l'impression que les innovations aujourd'hui et les annonces vont tellement vite

Thomas (43:04.498)
Ok.

Pierre Vannier (43:28.654)
que je pense que les gens se sentent obligés d'avoir un avis sur tout sans même avoir eu le ou le recul nécessaire pour avoir un avis. que j'ai à dire par là, c'est que ça va tellement vite... Je prends un exemple. Moi, GPT 4.5, je n'ai même pas eu le temps de Tu vois, il est sorti la semaine dernière ou il a 10 jours ou la semaine dernière, je crois. En fait, on n'a pas le temps de tester les nouveaux modèles.

Thomas (43:47.026)
Ouais ouais en bêta la semaine dernière.

Pierre Vannier (43:51.95)
et ça va tellement vite que c'est un petit peu ça le souci, c'est que personne n'a le temps de suivre ces évolutions.

Thomas (44:03.666)
J'ai l'impression que 3.5 n'existe plus sur les API, même quand tu utilises l'interface web, n'est plus utilisable, c'est directement 3.7. Donc en fait, ils proposent juste le nouveau modèle et peut-être que pour eux, fait, finalement, ça leur coûte moins cher. C'est peut-être une réflexion qui est bête, si le modèle a été plus cher à créer, l'inférence est moins chère.

on se rapproche juste d'un modèle plus petit, moins coûteux, qu'il ait coûté de l'argent à produire ce modèle 3.7, c'est juste peut-être plus utile pour tout monde. L'objectif n'est pas, et c'est pour ça que ça s'appelle sûrement 3.7 et pas 4, j'imagine, qu'il n'a pas pour objectif de révolutionner comme un GPT 4.5 ou le modèle Orion pourrait peut-être le faire.

d'après les annonces de la semaine dernière. Mais ce qui est sûr, c'est que c'est un modèle amélioré qui peut être réduit un peu les hallucinations. voilà, l'objectif, c'est pas d'aller tester, voir si 3.5, 3.7 est meilleur, c'est juste de dire bon, bah voilà, vous avez un modèle à disposition et on fait un peu mieux.

Pierre Vannier (44:59.406)
Ouais.

Pierre Vannier (45:11.621)
Là où je trouve que ça devient un petit peu compliqué, c'est qu'on a l'impression de ressentir quand même pas un plateau dans la puissance des modèles et dans leur développement, leur « intelligence », etc. Mais dans notre capacité, nous, être humains, à pouvoir dire « oui, il est réellement foncièrement meilleur », oui, il une grosse avancée », etc. Pourquoi ? Parce que les modèles sont déjà tellement...

tellement puissant qu'aujourd'hui c'est difficile de se dire c'est quoi le cran d'après. Si le cran d'après c'est AGI, ESI, intelligence artificielle générale etc. Oui d'accord mais en fait ça veut dire quoi ? Parce qu'on est déjà à un niveau de puissance. veux dire par là c'est qu'il a des gens qui codent leur propre logiciel en quelques heures.

Aujourd'hui on en est à ça, des gens qui ne sont pas ingénieurs informatiques et qui arrivent à coder des apps de A à Z tout seuls. aujourd'hui on en est à ça. En fait l'étape d'après en termes de plus de puissance et d'intelligence c'est quoi ? C'est un peu ça tu vois ce que je dire.

Thomas (46:23.066)
et ça ouvre la discussion peut-être pour GPT 4.5 Orion ou justement quand ils ont sorti le System Card donc le System Card c'est pas le mode d'emploi mais ouais c'est une étape un peu nécessaire pour pouvoir être mis en production de façon sécurisée disons on va faire ça avec des benchmarks, des validations, montrer qu'on fait mieux c'est ça

Pierre Vannier (46:30.946)
C'est la carte d'identité du modèle, ? C'est ça ?

Pierre Vannier (46:42.9)
pour l'alignement, la sécurité, le truc te dise pas comment construire une petite bombe atomique, etc.

Thomas (46:47.942)
Et en fait dans ce papier, crois que c'est une trentaine de pages, initialement ils disaient on ne dépasse pas la frontière de l'intelligence artificielle et là ils ont enlevé cette ligne, donc je ne pas ce que ça veut dire, je ne pas du ce que ça veut dire mais ils auraient passé une étape. Mais l'étape elle a un prix, on peut peut-être revenir sur ce point là aussi, c'est le prix.

Pierre Vannier (47:02.36)
Alors du coup, je crois que GPT 4.5 a coûté énormément à entraîner, énormément de puissance de calcul et je crois qu'il n'est pas complètement terminé d'ailleurs de stabiliser dans le fine tuning et dans le post training etc. C'est un...

Thomas (47:21.554)
Il le mentionne quand tu vas sur un système card, ils disent on n'a pas le niveau de sécurité encore nécessaire, c'est pour ça qu'on demande de le faire bêta tester.

Pierre Vannier (47:31.246)
Et c'est la dernière version des GPT après les 4O, etc. Mais une architecture qui est malgré tout complètement différente de tout ce qui est O1, O3, etc. qui sont plus orientées sur des reasoning model tandis que celui-ci est vraiment un plus classique mais qui a demandé une énergie et un nombre de totalement incroyables pour être entraîné en fait.

Thomas (47:58.884)
C'est ça et ça va au contraire d'Anthropy qui fait un modèle plus optimisé.

Pierre Vannier (48:05.006)
Et au contraire de Deep Sea, qui ont fait des modèles, entre guillemets, plus petits.

Thomas (48:12.486)
restreint. On va utiliser le terme plus restreint parce que ça t'intéresse. On parle quand même de millions à chaque fois, parle de millions de dollars ce qui est pas possible. autres et là par contre oui on est sur énormément de computes qui a un prix donc est-ce que tu te rappelles des prix ou pas ?

Pierre Vannier (48:19.882)
et 2 milliards de paramètres.

Pierre Vannier (48:29.9)
Alors moi j'ai vu qu'on était environ sur 75 dollars le million de Ouais, ce qui est juste gigantesque en fait. Enfin moi je me demande même qui pourrait mettre une telle somme.

Thomas (48:34.874)
input.

Thomas (48:40.901)
Exactement.

Thomas (48:44.722)
En fait c'est ça le point, c'est que ton entrée elle a 75 dollars pour le million de tokens, 150 dollars pour le million de tokens, j'avais en sortie, ouais, et en fait j'ai les prix c'est que actuellement pour 4 O on est à 2.5 dollars en entrée et on a 10 dollars en sortie, c'est à dire qu'on fait

Pierre Vannier (48:51.892)
En sortie ? Ouais c'est ça.

Pierre Vannier (49:02.612)
Donc il est vraiment 30 fois plus cher quasi.

Thomas (49:06.514)
30 fois plus cher en entrée, 15 fois plus cher en sortie et on a surtout, il est utilisable par les utilisateurs GEPRO, enfin le modèle à 200 $ Donc là on casse un peu les frontières, on en avait vachement discuté toi et moi, on est en train de casser un truc où c'est pas accessible à tout le monde Quand on s'est battu en 2023-2024, ils ont réduit le prix des modèles

Pierre Vannier (49:16.51)
plus pro etc. Ouais pro, c'est ça.

Thomas (49:33.138)
on est en train de toucher quelque chose ou on est en train de faire exploser un prix et comment on tester un mode enfin ça revient un peu à ce que tu as dit auparavant comment on teste un modèle de cette qualité ça a un prix en fait de comparer ton modèle 4O à ton modèle 4.5 quand il va sortir les gens ne sont pas spécialement prêts à tester à pouvoir comparer ils ont pas spécialement de benchmark si ce n'est les system cards ou les tests proposés par les modèles provider

Donc on rentre dans quelque chose qui est quand même assez étonnant. Et quand on parlait en début d'année d'un truc disruptif, pense qu'on touche encore quelque chose de très sensible.

Pierre Vannier (50:04.846)
What ?

Pierre Vannier (50:10.254)
Je me demande pourquoi ils continuent sur ce chemin de l'extrême, toute puissance, d'énormes modèles, etc. Il y a sûrement une raison, je suis probablement trop Béossien et pas assez cultivé pour cette stratégie là et comprendre leur stratégie, mais pourquoi ils partent pas plutôt sur des modèles peut-être...

plus restreint, plus frugaux, plus spécialisé. Parce que là a l'impression d'avoir des modèles où il faut qu'ils soient bons à la fois pour te rédiger du contenu et d'ailleurs 4.5 à ce qui paraît est exceptionnellement bon pour prendre des tons de voix, pour avoir une qualité de contenu, pour être etc etc bien meilleur que les autres et de l'autre côté il faut qu'il sache coder aussi bien qu'un software engineer senior et en fait je trouve que le

le grand écart est si grand que c'est avoir un thermomix qui est capable de des cocktails mais aussi la vidange de ta voiture, tu vois, et je trouve que c'est...

C'est un peu étrange et tu l'as dit, on se retrouve avec des... Du coup, ça permet de reboucler avec ce qu'on te disait au début, c'est-à-dire qu'on se retrouve avec des boîtes énormes qui veulent faire des data centers à plusieurs milliards, dizaines de milliards, centaines de milliards. La question de l'énergie derrière est loin d'être triviale. Et il a un mur aussi au niveau de l'énergie et il aussi la question de la data derrière.

Thomas (51:46.514)
Il y a ça entre autres et puis moi je me dis tout de suite pourquoi on s'embête à faire des agents. Si à la fin tu as un modèle qui est capable de tout faire et tu lui fais confiance à 100%, qu'est l'intérêt de faire des agents. Le Crew AI par exemple, qu'il vende c'est le fait d'avoir plein de petits agents qui sont hyper optimisés, hyper utiles dans une tâche bien précise. Et ça c'est complètement cohérent. Et même aujourd'hui on est en train de parler de en plus de robotique, donc on arrive à intégrer de l'intelligence artificielle dans la robotique.

Pierre Vannier (52:13.472)
avec le edge computing etc et tu as besoin de choses qui sont plus petites quand même.

Thomas (52:17.348)
Bah tout à fait, c'est que même Nvidia là qui présente son Jetson je crois c'était ça, bah si t'as ton plus gros modèle au monde tu pourras jamais l'intégrer. je sais pas, peut-être l'objectif c'est de l'égo, il y toujours une question d'égo dans l'innovation ou peut-être atteindre un point où on peut pas aller plus haut pour commencer à optimiser.

Pierre Vannier (52:20.716)
Ouais c'est

Pierre Vannier (52:36.138)
La suprématie, atteindre la suprématie avant tout le monde.

Thomas (52:40.554)
C'est toujours peu la même question finalement. Mais bon, il y a pas mal d'autres sujets qu'on a pas eu le temps je pense de voir pendant presque une heure. Là, ça fait une heure qu'on parle.

Pierre Vannier (52:50.542)
Ouais, il y a tellement de trucs, y a les modèles vidéo qui sont en train d'exploser, y a les modèles text to speech, speech to text qui sont en train aussi d'exploser notamment avec MLX, la possibilité de faire tourner en local des modèles sur ton Mac, des modèles vraiment de très très bonne qualité. Il continue aussi à y avoir DeepSea qui les Chinois qui sortent de plus en plus de choses, des modèles de storage très intéressants, ils ont aussi publié en open source tous leurs revenus.

a priori, leurs revenus, est leur marge, combien ils gagnent, leurs coûts, etc. on pourrait passer quatre heures à... Le truc c'est qu'il faudrait presque faire ça tous les trois jours, il y a tellement de nouveautés que ça va très très vite.

Thomas (53:21.486)
ouais?

Thomas (53:37.65)
Et puis l'avantage, c'est qu'on est presque sûr que le mois prochain on continuera à parler d'eux donc il y aura toujours des choses à dire, ça c'est évident.

Pierre Vannier (53:43.918)
carrément.

Thomas (53:47.122)
Bah écoute, merci pour cette heure, a été vachement cool. Bravo pour tout ce que tu as fait aussi ce mois-ci, puisque aller aux États-Unis deux fois, plus aller à Paris, surtout pour un Montpellier 1, on dit Montpellier 1, c'est ça ? Aller à Paris, doit être un peu difficile de temps en temps.

Pierre Vannier (53:57.592)
c'est

Non non, ça va bien, ça va bien. Je vais pas me plaindre. Je vais pas me plaindre.

Thomas (54:04.152)
Bon et puis on se retrouve sinon ce mois-ci avec un nouvel épisode sur un objet, on peut le dire, un objet très très cool. voilà, écoute, merci beaucoup Pierre. Et puis on se retrouve plus tard.

Pierre Vannier (54:14.71)
Merci à toi Thomas, merci à vous tous de nous écouter et dites-nous si ce format récap' de l'actu vous plaît et puis si ça vous plaît on en fera un rendez-vous, un rendez-vous régulier qui viendra entrecouper nos rendez-vous avec nos invités. À bientôt ! Salut !

Thomas (54:32.69)
Salut !

Créateurs et invités

Pierre Vannier
Hôte
Pierre Vannier
Fondateur et PDG Flint, Dev Backend / IA, agitateur Tech ✨
Thomas Meimoun
Hôte
Thomas Meimoun
Machine Learning Engineer / Data Scientist
IA de l’actu (fév 2025)
Diffusé par