IA de l'actu (sept 2025)
Speaker 1 (00:13.678)
Bonjour à tous et bienvenue dans ce nouvel épisode de Y'a pas de la data. Donc aujourd'hui on va vous parler du mois de septembre, ce qui s'est passé pendant un mois, il a encore eu beaucoup de choses à vous raconter. Je suis toujours avec Pierre Vanier, CEO de Flint. Salut Pierre !
Thomas ! Salut à tous ! J'ai énormément de choses à dire. Peut-être la première chose c'est que j'ai participé à la première édition.
de la conférence AI Engineer qui s'est déroulée à Paris la semaine dernière. Donc c'était mardi et mercredi à Station F. Donc pour rappel, AI Engineer, c'est une conférence qui a été lancée il y a deux, trois ans par un Américain qui s'appelle Swix. En fait, Swix était un trader à la base.
Et quand il a vu l'IA arriver, a... D'ailleurs un peu comme Thomas finalement, ça me fait rigoler, mais un peu comme Thomas parce que Thomas il était dans... Thomas t'étais dans l'économie, t'étais dans le quant trading aussi. Donc en fait, Swix, il s'est rendu compte de l'IA et il a switché et il a monté un podcast qui s'appelle Latent Space pour Espace Latin et ensuite une grosse newsletter et ensuite...
Donc du coup il a lancé cette conférence AI engineer à laquelle Thomas et moi on a participé deux fois. peux... Toi une fois, moi deux fois. Une fois à San Francisco et une fois... Moi deux fois à San Francisco et une fois à New York. Et là, la semaine dernière, c'était la première édition à Paris. En fait, même la première édition en Europe. Ne gâchons pas notre fierté. Le Corico. Le Corico. On va passer un coucou...
Speaker 1 (01:42.83)
le droit mon côté.
Speaker 2 (02:02.356)
Amicale parce qu'en fait c'était organisé par Koyeb. Koyeb pour rappel, c'était il deux ou trois podcasts qu'on avait reçus. Yann Léger, co-fondateur de Koyeb. Koyeb, ont une plateforme serverless de déploiement, d'application, de déploiement et puis ils ont aussi de l'inférence des modèles et choses comme ça. Et donc, je pense qu'ils ont peut-être co-organisé cette AI engineer.
Paris et c'est un signal fort que cette première édition en dehors des États-Unis se passe à Paris. Déjà, je félicite Koyeb et toute l'équipe pour l'organisation de cette conférence. fait, AI Engineer, c'est vraiment une conférence qui se veut très technique. On a beaucoup, beaucoup de conférences, je ne nommerai pas parce que je veux pas faire du tort à personne, mais on a beaucoup de conférences qui peuvent être...
destinés à des C-levels, des dirigeants, souvent avec un niveau d'abstraction, avec des fois malheureusement trop peu de fonds, trop peu de substances. donc là, AI Engineer, c'est vraiment une conférence qui vise à être beaucoup plus technique. Et si jamais vous avez raté AI Engineer la semaine dernière, sachez qu'en novembre, vous pourrez participer. Et je fais un petit coucou à Nesrin Berama.
l'organisatrice d'une conférence s'appelle Dot AI en novembre, je ne plus exactement les dates mais je sais que c'est début novembre, ça doit être le 3 ou le 6, Dot AI qui se passera à Paris et aussi sur la thématique de l'AI Engineering, l'intelligence artificielle, etc. et donc qui se veut aussi assez technique.
Et juste pour rappel, tu avais encore des voix, c'est à dire je me rappelle quand on était à San Francisco, il y avait des voix type GPU, LLM et tout ça, c'était le cas ici ?
Speaker 2 (04:00.286)
Alors, ce qu'ils appellent « track », c'est ça, hein ? Ouais, ouais, ouais, il y avait ça. En fait, ce dont je m'aperçois, mais ça pourra nous faire la transition avec l'autre partie du podcast, c'est qu'en fait, je pense qu'on à la fois dans l'automne en France, mais je pense aussi qu'on arrive probablement dans l'automne de cette grosse hype de l'intelligence artificielle. Ce qui est là où je veux en revenir, c'est que...
J'imagine.
Speaker 2 (04:29.934)
Déjà, il a des gens qui m'ont dit, qu'est-ce tu penses AI engineer entre les États-Unis et la France ? C'est absolument incomparable. Ça n'a pas de sens de comparer. Ce pas les mêmes contextes, pas les mêmes tailles, ce pas les mêmes écosystèmes. De toute façon, aujourd'hui dans le monde, pour l'intelligence artificielle et la tech, absolument rien n'est comparable à la Silicon Valley. Thomas, sais pas ce que tu en penses, mais tu on a fait le Canada, les États-Unis, la France, voilà, ça n'a aucun rapport.
Speaker 2 (05:00.726)
Mais j'ai trouvé qu'il y avait moins de choses complètement nouvelles. En fait, je trouve qu'en ce moment, il y a moins de nouveautés. C'est-à-dire que tu vois, il a deux ans, c'était les assistants, les chatbots, chat GPT. Il a un an, c'était plutôt les rags et la grosse mode des rags. En fait, aujourd'hui, soit le marché se stabilise un petit peu et consolide, soit il a moins de choses.
Donc je sais pas ce que t'en penses mais on pourrait déjà tu vois, démarrer un petit peu là dessus quoi.
J'ai avec grand plaisir et effectivement moi je trouve que c'est une bonne chose qu'on se consolide.
Il en a qui vont dire stabiliser, moi je dirais consolider. Effectivement, moi de mon côté, j'étais à l'événement All In, donc à Montréal. Donc c'est un événement qui dure aussi deux jours, c'était mercredi et jeudi dernier, on tourne cet épisode le 30 septembre. Et l'objectif c'était de faire un peu un retour sur ce qui se passe dans le monde de l'IA en Amérique du Nord. Je suis allé à cet événement, c'était intéressant mais c'était pas du tout fait pour moi puisque effectivement si je compare World Fair et Engineer, je crois que c'est ça le titre,
de ta confère, enfin de ton événement. C'est pas du tout technique et c'est surtout ici pour aller faire du networking et ça... Je suis désolé du terme que utilises mais ça vole pas très haut en termes de technicité donc je veux pas blesser qui que ce soit mais voilà on fait des rencontres et puis je me suis dit qu'il n'y avait pas grand chose de nouveau.
Speaker 2 (06:30.708)
Bien d'ailleurs, ce qui peut être bien de faire des rencontres en fait, mais ça dépend de ce que tu cherches en fait.
Oui, de toute façon ça fait les entreprises, ça fait partie du tissu économique et puis en fait ce qui était intéressant c'est qu'il y avait des entreprises un peu de toute taille. Bon il y avait beaucoup de sociétés d'entreprises de conseils, de petites boîtes têtes, il a beaucoup de PME au Canada en l'occurrence, mais il a seulement deux conférences, deux sujets qui m'ont plu. Le premier c'était, il y avait un petit pavillon, ce qu'ils appellent un pavillon Nvidia et donc ils sont revenus sur leur framework NIMO ou NEMO, je sais pas comment on
framework pour les LLM qui va de la création au guardrails, donc les garde-fou, pour pouvoir contrôler les LLM puisque l'un des gros sujets, mais je ne pas qu'on en parlera aujourd'hui, c'est aujourd'hui les prompts injection, injections, c'est le fait de déjouer un LLM via des promptes. Donc les garde-fou aujourd'hui, devient essentiel. Et c'est le deuxième sujet qui m'a plu aussi pendant ces conférences, c'était tout ce qui était lié et ce n'est pas du tout sexy d'un point de vue data scientist, c'est la gouvernance.
Et aujourd'hui la gouvernance est un sujet qui est même primordial puisque contrairement au modèle de machine learning, une fois qu'ils sont mis en production, on a un joli contrôle sur les modèles. Aujourd'hui les LLM, souvent on passe par open AI ou Anthropic ou ce genre de choses et quand on met un modèle en production, même si on peut traquer, on n'a pas le contrôle sur la façon d'utiliser ces LLM par notre client, les utilisateurs et ce genre de choses. Pas du tout sexy mais vraiment primordial vu la situation actuelle.
Donc du coup aussi tout ce qui est évaluation des règles.
Speaker 1 (08:03.118)
Non, non, pas tout à fait, c'est vraiment comment tu vas... la gouvernance de la donnée, comment tu t'en sers et comment ça se suit à travers le temps.
aussi au niveau de tout ce qui est Éval en ce moment, très très gros sujet parce que c'est pareil c'est non déterministe les LLM donc en fait savoir comment s'est utilisé la gouvernance et savoir ce que ça ressort de l'autre côté c'est plutôt les Éval.
Les ÉVALS c'est un peu l'équivalent du Drift en Machine Learning, c'est à dire que tu veux toujours vérifier ton LLM, il est cohérent en fonction de ton contexte et le rade que tu lui as fourni. là l'idée c'était vraiment de contrôler la qualité en termes de dangerosité ou d'être complètement en dehors de ses bottes. Et oui ça se rejoint mais l'objectif n'est pas tout à fait le même, c'était des gens du légal en l'occurrence, des gens plus juridiques qui faisaient ça. puis la toute dernière conférence...
les gens qui sont les représentants de la data, des PO, etc. Finalement, ça me fait penser à Charlotte Ledoux qu'on avait reçue il y a deux ans maintenant, plus de deux ans.
...
Speaker 2 (09:11.444)
La gouvernance finalement.
Effectivement, ça a ouvert des discussions côté gouvernance de mon côté et même d'une certaine façon je me suis dit mais qui gère ça en fait ? Est-ce que c'est côté data science, modélisation, doit gérer le LME ? ? Ou exactement. Et là c'est un grand sujet puisque c'est pas du tout technique en fait. Et le dernier sujet qui m'a plu c'était encore une fois Nvidia qui ont remis en avant Cosmos. Donc Cosmos, ils l'ont mis en avant dans le cadre des world model.
Et donc on en a parlé avec Gilles Babinet à notre dernier épisode, si ça vous intéresse, on vous mettra le lien bien sûr. Mais les worldmodels c'est une représentation physique d'un monde, ce qui n'est pas aujourd'hui tout à fait le cas des LLM. Et je pense que Nvidia est extrêmement concentré sur ce sujet, puisqu'ils ont des convictions très fortes. Et moi je reste convaincu aujourd'hui que toutes les lunettes type meta, Google qui vont sûrement revenir au PNEI, c'est pour des worldmodels.
Donc là je suis franchement excité par la suite des événements. ne pas ce que ça va donner. Ça sera dans deux ans, trois ans, quatre ans, cinq ans ou dans six mois aujourd'hui avec la suite. Je pense que ça va profondément changer le monde. C'est ma conviction. Aujourd'hui, je crois que Metal, la semaine dernière, encore sorti un modèle type LLM, World Model. C'est franchement ma grande hype. J'ai hâte de voir les applications concrètes qu'on pourra faire. Ils en présentent chez NVIDIA.
sur les World Models.
Speaker 1 (10:36.728)
mais elles sont non maintenables puisqu'il faut beaucoup beaucoup trop de données même les LLM c'est rien comparé à ça.
Oui, ça me fait penser les World Models pour référence. pouvez regarder aussi dans la même veine, il a une boîte qui s'appelle World Labs, est une boîte qui a été montée par une des rares, parce que finalement, tu sais, on parle toujours des pionniers de l'IA. les pionniers de l'IA, les pionniers de l'IA. c'est une pionnière de l'IA qui s'appelle Fei-Fei Li, qui a d'ailleurs sorti un très très bon livre aussi.
et donc elle a créé une boîte s'appelle World Labs et en fait l'idée c'est aussi de créer des modèles de monde et de représentativité de monde 3d parce qu'en fait derrière ce qu'ils vont chercher c'est aussi on le voit il ya de plus en plus d'interactions l'IA c'est très très software mais on voit quelque chose qui monte aussi énormément c'est la robotique on voit des robots plus ou moins humanoïdes
On voit des robots dans des usines, bon ça on sait, mais le but inavoué ou avoué derrière c'est d'avoir des robots qui soient capables d'être des robots domestiques et pour pouvoir avoir ce type de robots là il faut les entraîner et pour pouvoir les entraîner il n'y a pas 36 choix c'est soit tu mets des batteries de robots, c'est ce que fait la boîte Figures d'ailleurs, qui font, refont et re-re-font des gestes, voire ils sont téléopérés ce qui permet en fait d'apprendre
au moment où le téléopérateur fait les actions. Ça c'est un premier. Mais en fait, ne, comme on dit chez nous, ça ne scale pas, c'est-à-dire ça ne passe pas à l'échelle, parce que tu vas pas avoir des centaines de millions de téléopérateurs qui vont répéter toutes les opérations dans le monde physique possible et inimaginable. Donc du coup, l'autre solution, c'est travailler sur de la donnée synthétique de monde virtuel. Et donc, c'est ce qui explique que ces sociétés se développent pour être capables, fait, dans le futur, de faire évoluer.
Speaker 2 (12:40.038)
ces types de robots et de créer des scénarios sans pour autant avoir à avoir un téléopérateur et à réellement faire les actions en réel mais plutôt à simuler ces actions et après tu l'as dit aussi pour faire une boucle avec ce que nous prépare notre ami Mark Zuckerberg un monde merveilleux dans lequel tout le monde sera équipé de merveilleuses lunettes tout le monde pourra savoir
à la seconde près qu'ils croisent. Tout le monde pourra être super déconcentré sur sa voiture parce qu'ils auront gardé les lunettes et que du coup ils auront une notification que Thomas a retweeté je ne pas quel truc et du coup etc etc. Je digresse mais voilà c'est un petit peu pour tout ça donc ça c'est les World Model.
C'est vrai que c'est un peu chaotique mais sinon d'un point de plus léger, même les lidars dont on retrouve par exemple dans les véhicules, les voitures autonomes aujourd'hui, c'est un grand sujet des world model. Donc juste pour un exemple, j'ai réfléchi à ça. Quand vous conduisez votre voiture, vous êtes dans votre monde à vous, dans votre habitat et la voiture en face de vous, est dans son propre monde. par exemple, les voitures Tesla ou les Waymo que tu as utilisées à San Francisco, c'est des world model indirectement et donc tout ça, ça va nourrir des modèles. Et après, on verra l'utilisation qu'on en fait.
bien sûr, mais ça c'est un cas qu'on voit maintenant dans notre quotidien, que ce soit Tesla ou Google avec Waymo.
qui est assez intéressant parce que ça nous fera aussi une transition si on a le temps. bref, me donne tout un tas d'idées par rapport à... Parce qu'on se déplace quand même beaucoup du côté LLM. On est d'accord que là on n'est plus du tout dans les large language model, le texte, le langage, la prédiction du next token, etc. On change complètement.
Speaker 1 (14:33.454)
Ce qui veut dire qu'on ne pas pour toi.
les grands modèles de langage. On n'est plus dans ce paradigme-là, dans cette modalité d'intelligence artificielle. Pourquoi ? Parce qu'en fait, aujourd'hui, cette modalité d'intelligence artificielle, elle monte ses limites. Moi, j'ai, entre l'épisode du mois dernier et l'épisode d'aujourd'hui, j'ai la certitude qu'on n'atteindra pas les GI et la superintelligence avec les modèles LLM.
telles qui sont faits aujourd'hui. Je pense que ça ne fonctionnera pas. Et ce qui me fait encore plus avoir des arguments pour ce côté bulle, parce qu'en fait, toutes les choses qu'on nous prédit et qu'on nous promet, elles n'arrivent pas. Et si tu regardes le début de l'année, en fait, on parlait des agents. Aujourd'hui, tu laisses pas un agent. Moi, je n'appuie pas sur un bouton quand je pointe au boulot le matin. Et à la fin de ma journée, fait, mon boulot, est fait. Ça ne fonctionne pas. Alors aujourd'hui, dans des domaines ultra spécifiques, coding, software, etc.
tu peux avoir des agents qui font une bonne partie de ton travail mais encore une fois les LLM aujourd'hui on arrive à un peu aux limites de ce fonctionnement là je pas ce que tu en penses toi
Alors est-ce qu'on va aller dans ce sujet là avec grand plaisir ? Oui je pense qu'il a effectivement des limites. Aujourd'hui je pense qu'on a une belle utilisation, une belle compréhension par le monde de cet outil là mais effectivement il y a quelques limites et ça fait des excellents assistants par contre ça nous remplacera pas. Non les GI ça sera pas par DLLM ça me paraît évident. Non mais y de l'intelligence, il y a quand même beaucoup beaucoup beaucoup d'intelligence dans ces modèles.
Speaker 2 (16:07.95)
pas de la super intelligence.
Speaker 1 (16:15.15)
Et c'est un bon point, je pense que l'intelligence ne suffit pas. En fait, on peut ouvrir cette boîte là, c'est pas qu'une question d'intelligence. On est tous...
Déjà définissons ce que c'est que l'intelligence parce qu'aujourd'hui on a l'LM.
qu'on fait. Ce sont des choses qu'on
On a quand même... Oui ! Aujourd'hui, les LN, c'est des magnifiques boîtes à savoir. C'est des boîtes à prédire.
Exactement, et c'est pas la même chose. Exactement. Et ça c'est toute la magie.
Speaker 2 (16:42.478)
Mais ça c'est quand même une partie qui est dans l'univers de ce qu'on appelle l'intelligence, c'est quand même une partie petite, alors importante, mais quand même malgré tout pas complètement représentative de tout ce qu'est l'intelligence. Et en tout cas loin de tout ce qui va être super intelligence.
est surpondérée dans les pays développés. Je ne jamais rentré dans les détails mais je pense juste qu'il y a un énorme biais c'est que dans les pays développés on a par nature beaucoup de col blanc et donc par nature ces modèles là sont cohérents avec notre style de vie du quotidien. On a tendance à dire que ces modèles type LLM, on va prendre le terme LLM ici, ils pourraient nous remplacer. Non pas du tout, aujourd'hui les robots, enfin de façon très simple, on a des intelligences qui sont émotionnelles, a des intelligences qui sont intellectuelles.
proprement parlé, il en a qui sont sportives, en a qui sont artistiques et aujourd'hui oui ça correspond à plein de choses mais on est tous toi, moi ou qui que ce soit dans la rue on est doté d'une intelligence différente et aujourd'hui on n'a pas besoin de tout le savoir qu'on peut retrouver sur Google ou sur des modèles type LLM qui sont aujourd'hui très puissants pour pouvoir vivre notre vie puisque on est capable d'avoir des interactions humaines, de pouvoir se toucher, d'avoir de la sensibilité
Ce qui manque aux LLM, c'est le côté expérimentation. C'est-à-dire que nous, nos modèles d'intelligence humaine, mais tous les êtres animaux, on fonctionne par expérimentation, on essaye des choses. Et il y a aussi une autre chose qui est super importante, c'est que les LLM sont sans but, ils n'ont pas de but.
dans la notion et on a tous en fait, on a des milliers de buts en fait qu'on va atteindre ou pas et qui sont aussi constitués de sous-buts, etc. Mais en fait, un LLM n'a pas de but. Juste le principe, c'est que statistiquement, il va sortir le prochain token qui est le plus plausible par rapport à son jeu d'entraînement. Donc il est figé dans sa... Il est aussi figé aussi une fois qu'il a été entraîné dans le côté runtime et inférence. fait, il y a...
Speaker 2 (18:50.484)
peu de capacité d'apprentissage continu et d'amélioration du modèle en lui-même. Ce n'est pas non plus fait pour. C'est-à-dire que, alors que nous, la différence, être humain ou dans les interactions avec le monde réel, on a nos perceptions et nos sens qui vont faire qu'à un moment donné, systématiquement, on réadapte nos buts, on réadapte nos options, on réadapte... Il n'y a pas de côté de planification dans les LLM non plus. Donc, fait, tous ces points-là qui sont nécessaires à...
arriver probablement à une superintelligence sont manquants dans les modèles des LLM aujourd'hui. ça n'enlève rien au fait qu'il y a quand des résultats extraordinaires. C'est-à-dire qu'en fait, oui, il a des choses qui sont juste incroyables avec les LLM. Ça n'empêche pas, c'était un économiste qui disait que ce n'était pas parce qu'on n'arriverait pas à atteindre la superintelligence avec les LLM qu'il fallait malgré tout...
leur atterrer leur capacité à disrupter l'économie mondiale. Et c'est vrai, c'est quand même extrêmement puissant, mais probablement pas du niveau de ce qu'on nous vende tous les jours, en tout cas les gros de la tech, où ils nous font de manière complètement manichéenne. Soit ils nous vendent la corne d'abondance et la super intelligence, et soit de l'autre côté c'est l'apocalypse. Grosso modo, tu as ces deux phases de la pièce.
Et je pense qu'en en tout cas, la corde d'abondance et la super intelligence n'arriveront pas avec les LLM. Et Yann Lequin le disait aussi. Et Richard Sutton, prix Turing aussi, l'a dit très récemment.
Après ça reste d'excellents assistants et on leur demande vraiment plus de façon générale dans le monde entier que d'être des superbes assistants finalement.
Speaker 2 (20:38.602)
Non, du tout. toutes les très, grosses boîtes aujourd'hui, parce que ça va créer un problème, parce que toutes ces très, très grosses boîtes ont des financements jamais vus. Ils ont des financements jamais vus sur au rendez-vous. Mais de l'autre côté, fait, les investisseurs qui ont misé sur ses chevaux et sur ses investissements, attendent un retour sur investissement.
Allez, on rentre
Speaker 2 (21:05.62)
Le problème c'est qu'ils ont basé ces investissements. Un côté marketing à l'américaine, fake it till you make it, tu peux toujours un petit peu mentir et travestir la réalité jusqu'à ce que tu l'atteignes parce que c'est un peu la méthode couée, en fait s'ils n'arrivent pas à atteindre, c'est à qu'en fait si OpenAI, Anthropiq, etc. font des très bons rags, des très bons assistants...
à la limite un petit peu des agents qui vont être capables de travailler une petite demi-heure tout seul mais c'est tout il va y avoir un problème parce que quand les investisseurs vont demander aujourd'hui elle est où la promesse de résultats faramineux, est où la promesse de de venir entièrement disrupter des industries dans leur ensemble etc. en fait elle n'y sera pas. Moi c'est un peu ce qui me fait peur.
...
Non, mais tu as tout à fait raison et ça nous permet aussi de revenir sur l'actu de l'été, donc du mois dernier qu'on vous a fourni. On reparlait aussi du burn rate et on a longuement parlé du fait que ces entreprises là, les modèles provider en termes d'intelligence artificielle brûlent la monnaie. Et juste après trois, quatre jours après notre épisode de podcast, il y a OpenAI qui est revenu sur ses propos concernant la consommation de cash qu'elle va faire. Et donc là, j'ai encore les chiffres sous les yeux pour pas dire n'importe quoi.
mais donc ils expriment le fait que d'ici 2029 ils vont devoir consommer 115 milliards de dollars pour faire tourner les modèles, l'entraînement, donc un burn rate pur et ça il explique par le fait que 80 milliards de plus que ce qui était attendu initialement
Speaker 1 (22:46.446)
De base, avaient annoncé dépenser 35 milliards d'ici 2029. On passe à 15 milliards. Donc pour vous rendre compte, c'est à peu près 242%, 250 % d'accroissement par rapport à ce qui avait été annoncé. Et cette année-là, ils ont fait l'annonce le 5 ou 8 septembre. Ils disent... Non mais surtout, ils restent trois mois avant la fin de l'année. Ils vont devoir consommer 8 milliards de plus de l'attendu.
3 semaines à peine
Speaker 1 (23:12.01)
sur l'année 2025. Après on ira sur le sujet des chips, des processeurs. Aujourd'hui, titre, que ça soit bien clair, OpenAI est la startup la plus valorisée du monde et elle pèse aujourd'hui 500 milliards de dollars. Il a pas une entreprise qui vaut plus dans l'écosystème startup.
Et elle perd de l'argent comme tous les autres.
perd plus d'argent que tous les autres même. oui. Elle perd plus d'argent que tous les autres, mais pourtant ça marche. Là j'ai plein d'infos et je sais pas si ça va être assez clair, depuis mai, depuis mai, c'était Anthropic qui avait le plus de utilisateurs sur sa plateforme. Et avec la GPT-5, les gens commençaient à bouder. Aujourd'hui ils brûlent de la monnaie, OpenAI est redevenu... L'idée... Acquisition, pas utilisation. L'utilisation ça a toujours été OpenAI qui a été le premier.
Oui, elle perd plus d'argent que...
Speaker 2 (23:58.86)
en terme d'acquisition cliquant.
Speaker 1 (24:05.11)
Et concernant Anthropiq, ils ont encore fait une levée de fond, une série F, donc il y a toutes les sites précis des séries A, B, C, E, F.
Peut-être un alpha des grecs, peut-être alpha, beta, gamete...
mais ils ont encore enlevé 13 milliards ce mois-ci. Moi ce je pense c'est que...
je vais tirer un peu le trait mais tu me connais je tire tout le temps un petit peu le trait il n'est pas impossible que cette intelligence artificielle dont on parle maintenant depuis près de trois ans soit le gadget le plus cher de l'histoire de l'humanité je tire un peu le trait parce que ce que je veux dire c'est que en fait mais Gartner l'avait dit c'est à dire qu'en fait on a des attentes on a une espèce d'over attente d'attente
déraisonnablement forte par rapport aux résultats que pourrait apporter cette révolution industrielle, ces nouvelles technologies. Aujourd'hui, arrive, comme Gartner l'avait dit, j'ai pas d'action chez Gartner d'ailleurs, mais la courbe, la déhype et la courbe s'inversent. Et aujourd'hui, c'est aussi ce qui explique l'espèce déhaï fatigue. Tout le monde s'en est emparé.
Speaker 2 (25:20.318)
ses attentes énormes, etc. Moi, le vois quand on rencontre des clients, ils veulent mettre de l'IA de partout. en fait, derrière, on gratte un petit peu. Avant, va déjà aussi falloir avoir du numérique, avoir de la data correcte en ordre, etc. Toi et moi, on le sait, mais il a encore plein de gens qui se disent l'IA, ressemble un peu à une baguette magique. C'est un peu l'anneau du seigneur des anneaux. Tu vois, je le mets et tout peut se transformer. Mais en fait, c'est loin d'être ça. Donc en fait, tu as une déhype et un côté...
déceptif aujourd'hui dans lequel on rentre et ajouter à ça un côté espèce de palier ou de plateau qu'on atteint avec ce paradigme LLM. Déjà parce qu'on a du mal au niveau data, on a presque englouti absolument tout internet.
et tout ce qui se passait, crois qu'il Mistral qui a commencé à dire, après moi ça me fait un petit peu flipper, je pense ça devrait faire flipper les entreprises, mais Mistral qui disait, il ne nous reste plus les données publiques, maintenant on va peut-être pouvoir s'attaquer à une grosse partie des données d'ondes accessibles qui sont les données des entreprises. Là je me suis dit, au niveau com externe, c'est quand même un petit peu chaud de dire que tu vas entraîner tes modèles sur les données des boîtes. donc on arrive à un plateau.
à une sorte de... Tu vois, je te dis, il moins d'innovations, y a moins de choses nouvelles. Tout est quand même beaucoup plus compliqué, les évaluations. En plus, on s'aperçoit aussi d'un autre truc, c'est que le facteur humain dans les transformations, et donc ça veut dire les obstacles que rencontrent les entreprises pour pouvoir mettre de l'IA dans leur entreprise, dans leur maison, ils sont non négligeables.
C'est-à-dire qu'on se retrouve avec beaucoup de freins humains. Parce que les gens ont peur. Parce qu'en fait, on le voit tous les jours. Il a aussi beaucoup de gens qui utilisent l'intelligence artificielle de très grosses entreprises pour faire peser sur les employés et les salariés des charrettes. Qu'elles soient expliquées par l'IA ou pas d'ailleurs. Et très souvent, je pense pas que ça soit vraiment l'IA le vrai...
Speaker 2 (27:35.946)
le vrai levier de motivation et la vraie motivation derrière tout ça. Il y a des questions d'optimisation, etc. Donc fatalement, le bruit et les informations qu'on a autour de l'IA sont handicapées par un espèce de halo négatif qui fait que les entreprises ont du mal. Et là, je remets sur l'étude du MIT, a plein d'entreprises qui se plantent, les entreprises qui décident d'y aller toutes seules parce qu'elles se disent, bon écoute, il a des modèles open source, on va y aller. Et au final, ils ont des POCs qui se retrouvent.
utilisés par personnes dans leur entreprise et du coup ça crée là aussi de la déception qui est plus difficile pour repasser à des vrais projets. Et puis les projets en fait c'est compliqué, les profils qui sont ultra spécialistes ils sont peu nombreux, ils sont chers et tout ça tu rajoutes ça sur une conjoncture géopolitique qui est quand même loin d'être la plus stable que l'histoire de l'humanité est connue.
Non, non, t'as tout à fait raison. Et moi j'allais te dire tout simplement, adoré vous voir la roadmap.
des entreprises thermanthropiques et open AI. Chaque fois qu'ils font une levée de fond, il a un nouveau modèle. Et effectivement, je vais revenir sur ce point là juste après, mais là toi tu parles des données. Je ne pas si vous êtes au courant et si les auditeurs sont au courant, mais il a à peu près cinq ans, on a commencé à attaquer Google comme quoi il avait un bon monopole, que ce soit à la fois sur le moteur de recherche, mais tout son écosystème. Et donc, je crois que ce mois-ci, ils ont eu d'un cause et il n'y aura pas un démantèlement de leur monopole. Donc, ils pourront garder tout ce que Google a créé et a fait depuis.
Parce qu'il était question de vendre Chrome, de démanteler...
Speaker 1 (29:07.79)
par contre la condition est en fait c'est là où ça devient super intéressant il ya deux choses importantes c'est qu'ils disent que on va pas démanteler google puisque avec la course à l'intelligence artificielle actuellement il ya d'autres enjeux qui ne sont plus les jeux j'abuse je fais un énorme sommaire ce n'est plus le même combat qu'il ya cinq ans par contre on demande à google qui puisse partager leurs données et ça reprend ce que t'as dit
Google est une entreprise privée qui a un avantage comparatif comme méthode d'avoir des données sur OpenAI ou Anthropi, puisque ce n'est pas leur business model et ils vont devoir partager cette information là. Donc là on est en train d'ouvrir un...
une mine d'or, il n'y a pas d'autres mots que une mine d'or chez Google qui vont devoir partager certaines informations. Et donc ça c'est vraiment essentiel. L'autre point c'est le fait que je suppose que quand on lève 13 milliards pour Anthropic ou des OpenAI, c'est à peu près le prix de leur modèle, indirectement. Je pense qu'en fait le coût humain plus le coût d'entraînement ça se rapproche de plusieurs milliards finalement et qu'on un semblant de réponse là dedans puisque...
C'est quelque chose de dans les puces en fait, derrière, qui sont achetées chez Nvidia la plupart du temps. Tout ça, fait quand les choux gras d'Nvidia. Parce qu'en fait, c'est une espèce de pyramide où tout remonte vers Jensen Yuang, à peu près.
Exactement et c'est l'autre point qui est intéressant mais on sort un peu du sujet c'est que aujourd'hui Nvidia ils ont eu l'interdiction de vendre des puces en Chine donc là Nvidia commence à se poser beaucoup de questions on a beaucoup d'acteurs en Chine qui commencent à monter des puces et aujourd'hui tu des acteurs comme OpenAid en l'occurrence qui veulent j'allais dire qu'ils veulent gagner en indépendant j'allais partir sur Broadway comme ce genre d'entreprise mais finalement non il y a aussi la boucle qui est en train de se créer par rapport à oracle et Nvidia ça on va peut-être en parler je pense que c'est
Speaker 1 (30:49.17)
essentiel mais pour juste revenir sur le burn rate de OpenAI, l'objectif à terme c'est de créer leur propre data center et leur propre puce qui correspondent à leurs besoins spécifiques et donc c'est pour ça qu'on va presque tripler les annonces de 35 milliards à 115 milliards d'ici 2029. Le sujet des data centers devient je pense beaucoup plus important aujourd'hui que l'intelligence artificielle en tant que telle. Elle est le catalyseur en fait de tout ce qui est en train de se créer.
J'ai du mal à concevoir. J'ai l'impression d'un engouement un peu forcé dans tout ça. J'ai peur du décalage. C'est ce que je t'ai dit souvent à plusieurs reprises en allant aux US, etc. Et j'ai quand même l'impression qu'il un décalage qui se creuse.
de plus en plus grand entre d'un côté la réalité des entreprises, de l'économie, de la vraie réalité brick and mortar dehors vraiment les entreprises, quelles sont leurs problématiques et de l'autre côté un espèce de consortium idéologico-technico etc. des toutes plus grosses dont on dirait qu'elles se battent pour quelque chose qui...
peut-être n'arrivera peut-être pas en fait. C'est-à-dire que j'ai un peu de mal. Parce que ce pas en vendant des chatbots et des rags à tous ceux qui en veulent qu'on va justifier ces centaines, voire ces milliers de milliards de dollars qui sont investis. Donc, est-ce que, effectivement, derrière, il joue un pari sur le fait que...
On a tellement avancé dans la recherche qu'il va y avoir des nouvelles découvertes, qu'il va y avoir des nouveaux modèles, des nouveaux paradigmes, etc. Pourquoi pas ? Mais en tout cas, les LLM aujourd'hui, je... Ouais, je... Un peu de mal.
Speaker 1 (32:48.424)
C'est un sujet qui super intéressant et en réalité je pense qu'on en parle presque à tous les épisodes, c'est que il a 10 ans, 15 ans on disait que les données c'était le nouvel or noir. C'est ça qui compte à la fin, c'est d'avoir des données. Ensuite il le machine learning, il fallait des données. Et puis ensuite on a eu les LLM avec OpenAI, Anthropic et leurs copains. On s'en compte.
on a eu la sensation au moment que l'on n'avait plus besoin de données, que la donnée était moins importante puisqu'en fait on générait de la donnée via ces solutions-là.
Aujourd'hui, est dans un cas où on le voit avec Google qui doit partager ses données, mais on le voit aussi, et je crois qu'on en a parlé le mois dernier ou sinon c'était avant l'été, qu'Anthropy commence vraiment à changer sa méthodologie. Aujourd'hui, que vous soyez un adhérent gratuit, payant, pro, plus ou ce genre de choses, Anthropy utilise toutes vos données. C'est mi-noir sur blanc et je pense que presque tout monde fait un peu préparer en réalité.
ça me fait penser au fait que ce qui compte c'est les données. en fait dans ces données là, ils comprennent de mieux en mieux leurs utilisateurs. Et effectivement quand on a des pensées, quand on a une valorisation pour Anthropic à 200, près de 200 milliards et 500 milliards pour OpenAI, je ne parle même pas des autres entreprises, je pense qu'on est juste... Et toi tu utilises souvent ce terme de on est sur l'autoroute et il a plus de freins.
Je pense que maintenant il faut juste assumer qu'on est rentré là dedans et que si jamais on s'était trompé, la veu de faiblesse serait abominable et ça engendrerait des... Je sais même pas le mot mais en fait il y aurait tellement de déceptions et y aurait tellement de l'économie sociale.
Speaker 2 (34:27.982)
ça sera un nouveau craque. Ça sera un craque comme le craque des années 2000 avec internet.
Exact. Puisque je te prends un exemple tout bête, je te prends un exemple tout bête, c'est aujourd'hui, au PNEI, ils se rendent compte que c'est une erreur et je vais un peu loin dans la réflexion mais la société meurt, elle ferme, c'est fini.
imagine tous les projets, tout ce qui existe aujourd'hui autour de OpenAI. Donc on va dire oui on pourra replugger sur autre chose mais si la mort d'OpenAI indique la mort de ses équivalents, bah on fait quoi ? On fait quoi ? pense qu'aujourd'hui 80 % de tous les sujets d'AI ils sont basés sur Anthropiq ou OpenAI.
compliquer finalement c'est de... En fait je pense qu'il a deux choses qui vont être compliquées. La première c'est d'accepter qu'on va avoir un atterrissage. C'est nécessaire, on ne pas rester complètement pendu au plafond à moins d'être sous LSD ou d'autres trucs. On va y avoir un atterrissage. La question c'est de savoir comment dans ce monde qui est globalisé et surfinancé de l'IA etc comment on va négocier cet atterrissage.
nécessaire.
Speaker 2 (35:35.69)
Est-ce que c'est un atterrissage forcé sans sortir le train d'atterrissage ou est-ce qu'on arrive à faire un soft landing ? que Copenhague ferme ou qu'Anthropie etc. et qui est vraiment une espèce de catastrophe. J'ai du mal à le croire parce qu'en fait derrière ils sont aussi presque invulnérables dans ce sens où ils sont très très interdépendants et intermêlés avec le politique. Très très fort.
Exact.
Et ça c'est un gros danger parce que tu peux pas te permettre d'avoir ces boîtes là qui coulent. Et je me rappelle encore le Mark Zuckerberg qui annonce à Trump à sa table un chiffre sorti du chapeau 800 milliards et qui derrière lui dit je sais pas trop quel chiffre tu voulais entendre alors j'ai dit 800 milliards. Je sais pas si on se rend compte en fait qu'on est sur du quand même du grand délire en fait quoi. Donc si tout ça n'est sous-tendu par
des fondations qui sont en train de plonger dans des sables mouvants, ça peut être super super risqué.
Je comprends mais imagine le... Voilà, tu me parles de softlending. Effectivement il n'y en aura pas puisque si demain OpenAI ou Anthropy ne meurent pas mais qu'on leur demande d'être rentables et je ne pas quels sont leurs plans et je ne pas les présentations, leur roadmap encore une fois mais si demain c'est juste pour t'embêter pour aller chercher la réflexion on la fait à l'envers et on te dit en fait on n'est pas du tout rentable on se rend compte que les plans à 200 euros ou à 200 dollars c'est pas assez on vous passe à 1000 dollars tu vois.
Speaker 1 (37:12.718)
les gens le feront. Aujourd'hui aussi même, même, je vais pousser la réflexion à son paroxysme, s'ils bloquent les modèles gratuits et qu'on est obligé de payer. Je parle pas des API, je parle pas des API pour le moment, on met ça comme c'est pas facilité. Il y a plus de cas gratuits, vous devez payer. On sait que 80 % de la population des pays développés utilise ça, donc c'est bon, on a eu notre marché. On vous demande de payer et le minimum c'est 500 euros, c'est 1000 euros. Même s'ils disent oui, t'imagines d'un point de vue économique des entreprises, les gens voudront.
les assistants.
Speaker 1 (37:39.496)
jamais payé ou s'ils le payent c'est vraiment que ils ont perdu toutes leurs compétences qu'ils ont délégué à OpenAI depuis le temps. Quand je dis OpenAI bien sûr je parle de toutes les autres entreprises équivalentes.
Les pauvres Oppenay y prennent à chaque fois parce que tu... Change un peu, je en...
Non mais c'est les meneurs, pour moi ça reste les meneurs de fil, ça restera toujours les meneurs de fil qui gagnent ou qui perdent, c'est les meneurs de fil de ce sujet-là. Et si ils te font payer ?
J'ai loré mais ils prennent aussi.
Bien sûr, c'est eux qui tractent tout. Et si on demande de payer 1000 dollars et que les gens ne pas prêts, ils passeront par les entreprises. Mais si les entreprises doivent payer 1000 dollars, je donne des chiffres un peu élevés pour se rendre compte, 1000 dollars par utilisateur, comment on fait ? On va virer des gens. fait... Puisqu'on parle de productivité tout le temps en fait. Vas-y, qu'est-ce tu ? Bah non, en fait le sujet c'est que comment on parle toujours de productivité. si tu pars du principe qu'une personne qui sort d'école, elle sort d'école, je pousse le vice à fond.
Speaker 2 (38:25.206)
Va jusqu'au bout toi aussi, va jusqu'au...
Speaker 2 (38:32.462)
Déjà, elle ne trouve pas de taf. Parce que c'est compliqué.
Et si elle trouve un travail... Non non bien sûr. Et là je parle d'un ingénieur par facilité, je suis désolé je suis plus sur le marché français. 38 000 euros. Je suis peut-être hors sol, je m'en excuse. 38 000 euros et on demande de 1000 euros pour OpenAI par utilisateur. Pas en fait, si tu donnes 38 LLM...
3 à peu près, 3 fois 12, 36, ça te fait 3 licences.
Et en fait t'es beaucoup plus productif, on va commencer à te mettre des chiffres comme quoi t'es 25%, 40 % plus productif, tu fais ton calcul.
je vais tirer encore un petit peu plus loin parce que je suis d'accord avec toi mais est-ce que finalement est-ce que finalement les lay-offs qu'on voit un petit peu partout dans les très très très grosses entreprises est-ce qu'ils sont pas un petit peu en train de nous préparer peut-être à ça sans nous le dire est-ce qu'on vient pas de mettre à jour un truc c'est à dire qu'en fait est-ce qu'ils par anticipation est-ce qu'ils font pas de la récupération de marge environ des gens
Speaker 2 (39:32.354)
parce qu'ils savent très bien que de l'autre côté, rien ne se perd, rien de secret. C'est toi qui fait de l'économie. Il va falloir qu'OpenAI, Anthropic et tout le reste, récupèrent leurs sous parce que leurs investisseurs, va falloir qu'ils récupèrent et rentabilisent. Et en fait, on va aller chercher les économies faites par les gros layoffs qui vont se poursuivre et qui vont certainement s'amplifier pour pouvoir aller transférer de Paul à Jacques et mettre, allez, on va mettre un petit peu pour les shareholders, pour les les pour les les.
les actionnaires et puis un petit peu pour l'entreprise et puis encore un petit peu pour l'IA parce que de toute façon on sait qu'ils vont nous augmenter les prix. Ça ferait du sens comme scénario.
...
Oui, ça fait du sens et je suis d'accord avec toi. On en parlait, tu as fait un post lindin qui a très bien marché, bravo à toi. Je te disais que dans la nature humaine. Je trouverais ça dramatique qu'on en arrive là. C'est possible qu'on en arrive là, mais je trouverais ça fou. Moi, aujourd'hui, ce qui m'inquiète un peu plus, j'ai pris un cas qui ne me plaisait pas du tout et j'ose espérer que les entreprises ne réfléchissent pas comme ça. Là où j'ai plus d'inquiétude, c'est qu'on n'en pas beaucoup parlé de Nvidia, donc on a dit qu'elle ne plus vendre en Chine.
sur un autre sujet mais tu verras qu'il est assez lié et aujourd'hui on a une sorte de cercle vicieux dont j'utilise pas le terme cercle vertueux mais vicieux entre Oracle, Nvidia et OpenAI qui se mettent de l'argent à tour de rôle je pense que un peu tout le monde est au courant donc je vais pas aller dans ce sujet là par contre
Speaker 2 (41:00.27)
Oui, c'est ça, c'est pas une pyramide de Ponzi, mais en fait c'est un cercle où chacun achète qui rachète à l'autre, qui rachète à l'autre, qui finance l'autre, qui finance l'autre, qui finance l'autre.
Ça c'est le cas des data centers mais si tu m'inquiètes plus et je vais reprendre le cas des Nvidia c'est que je sais pas là si vous avez un peu si tu as suivi ça mais Intel ça va pas du tout. Intel ça n'allait pas du
Il y a Nvidia qui a investi 5 milliards dedans je crois récemment pour les sauver façon de faire de morphine.
Y'a pas que Nvidia, je sais pas si t'as vu. Y'a le gouvernement américain qui a pris 10%. Et pour que le gouvernement américain prenne 10 % sur un sujet aussi touchy, délicat que celui-ci, et que Nvidia, qui non pas le concurrent direct puisque Intel est prêt...
oui, y d'autres...
Speaker 1 (41:49.15)
plus dans les CPU et Nvidia dans les GPU. Là, on rentre dans quelque chose qu'on mentionnait depuis toujours, c'est-à-dire l'aspect gouvernance au niveau mondial. Donc, je synthétise, la Chine interdit Nvidia aux acteurs chinois d'acheter des puces Nvidia. Les acteurs chinois sont en train de mettre en place des puces. Côté États-Unis, Intel va très mal. Le gouvernement américain a dit prendre...
On parle des États-Unis, on parle pas de la France, on parle des États-Unis qui prennent 10 % du capital de Intel et de l'autre côté Nvidia, non pas concurrent mais qui travaille quand dans un sujet similaire, va mettre de l'argent et Intel a pris je crois un truc genre 20 % d'un coup. 20 % c'est à que vous allez regarder sur les charts, enfin les graphiques, une droite vers le haut au moment où Nvidia annonce son arrivée. Comme au... Ouais, ça c'est assez impressionnant et en fait ça fait...
d'ailleurs. Le deal aussi.
Speaker 1 (42:44.59)
un peu peur puisque aujourd'hui effectivement quand on voit que Google doit partager ses données mais en fait il partage ses données avec des acteurs qui sont principalement américains, bah en fait on a vraiment là une sorte de... j'aime pas trop ce terme mais de l'ère froide maintenant qui arrive j'ai l'impression où tout le monde se serre la main mais par contre tout le monde reste chez soi et dans un monde où on est dans la globalisation enfin de moins en moins j'ai quand même le sentiment mais où internet de façon très large offre la globalisation on a réussi à trouver un moyen
de pouvoir internaliser le savoir et Internet. Et... tout à l'heure.
Il a ça et déjà ce qui est marrant c'est de voir que les Etats-Unis nationalisent. vois, faut quand même remettre dans le contexte. C'est spécial quand même, d'un point de vue idéologique. Après il a aussi la guerre des talents.
On en parlé, je sais pas si t'as vu la question des visas immigrants H1B liés à la technologie où d'un coup du jour au lendemain Trump a dit maintenant ça va être 100 000 dollars par visa et je crois même par an, ce qui fait qu'il a des gens qui étaient dans l'avion, prêts à quitter les Etats-Unis et leur avocat les a appelés, leur a dit non, non, tu quittes pas les Etats-Unis parce que si tu pars, tu reviens pas. Ils te feront pas rentrer.
Et quand tu sais qu'en fait une énorme partie de toute la technologie Silicon Valley, etc. est quand même, en fait, ils sont en déficit négatif. C'est-à-dire qu'en fait, ils font venir les États-Unis et la tech américaine et en Silicon Valley, et principalement assurés par des non-natifs et par des gens qui imitent que ce soit l'Inde, la Chine ou d'autres pays. Donc ils sont vraiment, ils drainaient un maximum de talents. Et là, le fait...
Speaker 2 (44:39.214)
de se recentrer encore d'une sorte de soubresaut de nationalisation et de nationalisme, comme il l'avait dit d'ailleurs, « America first est pour les Américains, etc. Ça peut laisser aussi plein de questions par rapport notamment au marché de l'emploi aux États-Unis, dont on sait qu'il est mauvais, dont on sait qu'il ne crée pas assez d'emplois, dont on sait qu'il est mauvais, et aussi dans la tech, de protectionnisme de leur...
marché de l'emploi, il devient tellement mauvais que potentiellement il pourrait justifier de laisser ce poule de talent qui venait avant et de leur mettre des espèces de murs un peu comme il l'avait fait à Mexico, sauf que là c'est par l'argent.
Je vais ouvrir une nouvelle boîte de Pandora, je ne pas si t'étais au courant aussi mais donc il y a OpenAI, donc là on, pardon pas OpenAI, Anthropic, donc vous savez le jour où on est aujourd'hui, ils ont annoncé hier Claude 4.5 Sonnais, mais surtout ils ont fait une levée de fond et surtout, donc là je ne pas si t'étais au courant, ils viennent d'annoncer Anthropic, ils allaient s'étendre en terme de force de travail dans le monde, ça y ils l'ont annoncé donc ils vont aller sur l'Europe principalement.
savez qu'ils allaient faire un... je crois qu'ils ont ouvert un bureau à Paris, ou qu'ils étaient en projet d'ouvrir un bureau à Paris, mais oui, ça fait du sang.
Malheureusement c'est pas Paris aujourd'hui. j'ai encore l'annonce sous les yeux. Donc là ils annoncent l'Inde, l'Australie, Nouvelle-Zélande, Corée, Singapour et côté Europe, Europe au sens large, UK.
Speaker 1 (46:11.502)
l'Europe du Sud, je pense pas que la France fasse partie de l'Europe du Sud, l'Allemagne, l'Autriche et la Suisse. Et encore une fois, pour moi, il a pas la France. Et ça, c'est un autre sujet. Là, il a un double sujet à intervalle. C'est déjà, donc ils annoncent tripler à l'étranger anthropique. Est-ce que c'est en réponse à tout ce qui en train de se passer actuellement ? Aucune idée. En tout cas, il a peut-être des partis pris. Et aussi, ils disent, multiplié par 5, la force de travail côté intelligence artificielle.
Puis une entreprise comme Anthropic ce n'est pas que de l'EI bien sûr, y a aussi beaucoup de marketing, de com et d'autres travaux de recherche. Mais je trouve que c'est un message très fort et ça ne permet pas de savoir comment se placent ces entreprises là. Surtout qu'Anthropic est un peu moins lié au gouvernement. Premièrement.
beaucoup de, que ce soit OpenAI, Mistral, les plus gros, ils se dirigent de plus en plus vers le B2B parce que c'est pas en vendant des tchats GPT ou des assistants à 20 ou 30 balles par mois qui vont revenir sur leurs investissements. Et d'ailleurs, on ne le sait pas, mais OpenAI a une branche
consulting qui est loin d'être négligeable. contre, crois que le ticket d'entrée, il est très gros. C'est-à-dire si une entreprise veut faire appel aux consultants open AI, peuvent le faire moyennant un gros ticket. Chez Flint, ça peut être moins cher par contre. du coup, Emistral, c'est pareil. C'est devenu une boîte de consulting IA B2B qui sort des modèles et qui travaille et qui prône pour l'open source, etc. On ne retireront rien.
Mais du coup, ces boîtes-là, faut qu'elles trouvent des... En fait, ça reste des entreprises normales. Elles peuvent pas continuer à perdre de l'argent à DvitaM. Je crois que dans les meilleures perspectives, OpenAI ferait de l'argent pas avant 2029. Donc, si tu veux, un moment donné, il faut qu'il trouve des clients, des marchés. Et ce marché, il est probablement souvent plus facile à envisager.
Speaker 1 (48:19.886)
Et là, Anthropy annonce les chiffres, dont ils disent qu'avec Claude, ils ont plus de 300 000 utilisateurs type entreprise et que 80 % de leur utilisation vient dans et dehors des Etats-Unis.
Et je pense que de toute façon on en a souvent posé la question et c'est peut-être le moment de répondre, je pense que l'opening A est chef de file, je ne pas qu'opening A soit le grand gagnant. Et s'il doit y avoir un gagnant déjà entre les deux ça sera plutôt anthropique, par nature. Mais surtout je pense que les grands gagnants ça restera à la fin meta et google. Puisque ça sera eux qui...
Google, Google, Google et absolument et je les ai rencontrés, Google, notamment DeepMind, Google DeepMind et iEngineer, ils sont présents de toute à toutes les conférences. je trouve qu'ils sont, pour moi, c'est l'entreprise qui arrive à, malgré sa taille et son histoire et son historique et sa longévité, c'est l'entreprise qui a gardé la plus grande agilité, je trouve, aujourd'hui.
et qui réussit le plus son pivot vers l'IA, notamment grâce au rachat de DeepMind. Elle a venu de Demisaz Abyss et d'autres grands noms. D'ailleurs Richard Sutton, c'est lui qui avait fait AlphaGo et AlphaZero, etc. Donc tous ces gens ont été brillants, ils ont bien misé. En fait, tu veux à choisir, Google a mieux misé en rachetant DeepMind que Apple en rachetant Siri à l'époque.
je tire le trait mais tu vois ce que je dire il a des entreprises qui étaient bien à racheter et pour l'instant Meta semble encore malgré tous les investissements qu'ils ont etc la série des Yamas est pas forcément extraordinaire et sur le premier plan ils ont pas d'assistants vraiment performants je pense qu'ils misent énormément sur le côté device avec les lunettes sur le côté
Speaker 2 (50:20.558)
Mais je les trouve quand même relativement mauvais. Pourtant, ils investissent un fric monstrueux. On sait les ponts d'or qu'ils ont fait et les gens qu'ils ont débauché. Chez OpenAI, a un coût de ticket de 100 millions. Mais je les trouve quand même passablement mauvais. Je pense qu'il a un manque de vision de la part de Zuckerberg. Je pense trouve que ce gars, a toujours manqué de vision. C'est un bon geek, fait. Manque de vision.
Non tout à fait je suis d'accord avec toi mais leur puissance c'est le fait d'avoir des données tout simplement et donc à voir comment les choses vont évoluer effectivement Google gagne beaucoup trop d'argent donc ils savent le réinvestir comme il le faut et ça c'est un vrai plus alors que la réponse à des simples pour moi c'est qu'ils font pas de levée de fond donc ils gardent leur indiréctement leur indépendance bien sûr il y a les investisseurs les stakeholders et ce genre de choses. Non non je parle pas de Google.
de Google.
Google avec Alpha B mais aussi Métain directement alors que Openair et Anthropy ils sont en train de lever de l'argent, Perplexity c'est la même chose. Et puis N'oublie pas, il a un truc...
En fait ils ne font pas que de lia à ces gens là.
Speaker 1 (51:22.942)
Ouais, il a de l'argent surtout ailleurs. Surtout ailleurs. c'est ça le message de Jeff.
Le cloud, la pub, les autres offres, L'IA est aujourd'hui encore la cherry on the cake qui grossit, alors qu'en fait pour des boîtes comme Anthropiq, OpenAI et autres qui ne sont que ça depuis le début, la rentabilité est plus difficile à atteindre.
Et c'est le même truc que d'être monoproduit ou d'avoir une offre plus diversifiée. C'est assez classique.
Et c'est le même cas pour Nvidia, le jeu on aura des doutes sur l'IA, ça touchera directement à Nvidia, ça touchera beaucoup plus.
Oui, sûr.
Speaker 1 (52:07.042)
puisqu'ils sont dans toutes les entreprises et ils peuvent améliorer ce qu'ils sont en train de faire.
Et là où tu vois qu'ils sont malins, c'est que, et pour reboucler avec Nemo et Cosmos, c'est qu'ils commencent à sortir des modèles, dont des modèles open source, des modèles text to speech, text to text, des modèles de monde, etc. Parce qu'en effectivement, ils ne pas rester simplement sur ce côté silicone, puce, etc. Parce que le jour où la trend, et peut-être qu'en fait la fin de la trend, elle est probable. Moi, vote, je pense qu'on peut potentiellement avoir un...
un mini crack ou hiver, hiver de l'IA qui démarre dans pas longtemps. Je pense, c'est-à-dire qui correspond à notre hiver en Europe. Voilà. On verra.
Moi je pense que ça va se passer comme pour les banques en 2008-2009 où il a une banque qui a sauté pour montrer que ça va être... c'est pas les maîtres du monde et puis après toutes les autres on dirait aller sauver. Quoi qu'il arrive.
pense qu'en fait, ces boîtes-là sont au moins aussi stratégiques que des banques et que finalement elles auraient le même sort. C'est-à-dire que l'État viendrait à leur secours et ne laisserait pas mourir. Tu penses pas qu'il y aurait d'abord des rachats, des fusions, des acquisitions, des choses comme ça Bien sûr. Une période de consolidation.
Speaker 1 (53:24.654)
Mais à la fin ça sera toujours la même personne, sera Google qui voudra racheter, ce sera les mêmes personnes, les personnes capables d'acheter. Les personnes capables, et type d'autres à part un état peut concurrencer Google. Moi aussi. Beaucoup de bonne volonté. le message il est là, pour moi il faudra bien quelqu'un qui tombe, enfin il y bien quelqu'un qui tombera... De toute façon, il y a trop de gens, il a trop de personnes, il y a trop de personnes sur ce sujet là, donc... J'aime pas ce côté négatif.
Ça va être à un moment donné une guerre ouverte. Ça va désinguer, comme dirait Audiard, les tonton-flingueurs. Ça va péter à tout va.
T'as une personne à Toronto avec Goheer, t'as Mistral en France, t'as la Chine, t'as les Etats-Unis. C'était une bonne discussion, encore une fois Pierre, on arrive sur la fin. On parle du prochain épisode ?
C'est quand dommage qu'on n'ait pas parlé de des OAK de Richard Sutton. Il a des vidéos qu'il a publiées. Il a fait une conférence à Alberta pour le Referencement Learning Conférence il y a quelques semaines et il a un modèle d'architecture différente que les LLM, justement basé sur l'expérimentation. Et il a un autre podcast avec Dwarkesh Patel, qui est un Américain, et il a sorti un épisode de podcast spécifique à Richard Sutton.
C'est très intéressant à écouter, ça vous permettra de vous apercevoir quels sont les limites et ce qui limite aujourd'hui les architectures LLM et ce qu'on pourrait avoir ensuite qui pourrait nous faire passer un cap en termes d'intelligence.
Speaker 1 (54:56.382)
Merveilleux ! Et le prochain épisode ? Qui sera notre invité ?
Stéphanie, on t'y... Stéphanie Alassonière.
Allez, on se retrouve dans deux semaines avec Stephanie à la Zonia. Merci beaucoup Pierre.
Merci Thomas, merci à vous tous qui nous écoutez, ciao !
