IA de l'actu (Janvier 2026)
Thomas (00:14)
Bonjour à tous et bienvenue dans ce nouvel épisode de IA de l'actu. Donc on est début février, on va revenir sur toutes les actualités de janvier 2026. Encore une fois beaucoup de choses se sont passées, on va se concentrer sur ce qui nous a vraiment intéressé. Je suis avec Pierre aujourd'hui, toujours la même personne. Tu veux te présenter Pierre ? C'est ton moment. Un tout petit peu.
Pierre Vannier (00:32)
mais Pierre Vanier,
je fondateur et PDG de la société Flint, on est une ESN, donc on fait du consulting, on fait des formations en IA et pour moi j'ai décidé de me mettre au lancement d'alerte à la culturation, à la sensibilisation au travers de conférences. Donc si ça intéresse des entreprises que je vienne débunker certains mythes, n'hésitez pas. Voilà, j'ai fait mon moment promo.
Thomas (00:57)
C'est
cool en plus, tu as vraiment beaucoup de culture, donc je plus vois, je confirme. Et de mon côté, Thomas Meimoun, toujours Team Lead Data Scientist à BRP à Montréal.
Pierre Vannier (01:02)
Je te remercie. Ce podcast décidément part sous les meilleurs auspices, franchement.
où tu gères
toute une équipe de data scientists, de data analytics, de data engineers, Mais une équipe qui marche super bien et on te félicite parce que...
Thomas (01:21)
encore de data analyst ? Non. non, alors...
Alors oui,
on est une équipe qui marche très bien, c'est l'occasion d'en parler, on est une équipe qui marche très bien, mais je ne suis pas tout seul, nous sommes deux et on a tout un pan ingénierie, un pan data produit et effectivement on a beaucoup grossi depuis deux ans. Un jour peut-être j'aurai l'occasion d'en parler plus en détail.
Pierre Vannier (01:42)
Et il fait moins 30 presque à Montréal. C'est ça, c'est à peu près ça. Ok. De quoi on va parler Le premier sujet qu'on a c'est Anthropik qui lance Claude Cowork.
Thomas (01:46)
Oui, ça va, à Montréal ça va, on a l'habitude.
entre autres.
Pierre Vannier (02:06)
Donc Cloud Cowork c'est une espèce de rebranding je crois de Computer Use qu'ils avaient lancé il y a plusieurs mois l'année dernière, il y a peut-être 8 à 10 mois. Et effectivement le but c'est un agent sur son ordinateur, agent IA qui va pouvoir effectuer des tâches pour l'utilisateur via le système d'exploitation. Alors on en a parlé de...
pas mal l'année dernière parce que c'était assez à la mode. Je crois que OpenAI avait essayé aussi de lancer quelque chose tout en sachant que ces types de software là sont, constituent un risque de cybersécurité qui est non négligeable.
Thomas (03:04)
Il a pas mal de choses. Déjà, Anthropy l'ont vendu comme un outil qui permettait de se concentrer principalement sur les tâches répétitives sans plus de valeur ajoutée. C'est la proposition de valeur initialement du produit. Maintenant, effectivement, il vient s'appliquer directement à ton ordinateur et sans même parler de problèmes de cybersécurité, juste ça rentre dans toutes tes informations personnelles. Aujourd'hui, plus que jamais, peut-être plus les téléphones, mais les ordinateurs possèdent énormément d'informations.
Je ne sais pas quel terme utiliser mais on ouvre la porte de chez soi d'une certaine façon en utilisant ces outils. y a sûrement des avantages, y sûrement des intérêts mais aujourd'hui c'est très limité. Aujourd'hui c'est très limité, je pense que même Anthropy, le marque, un moment il explique qu'il a même du mal déjà à faire défiler les pages, à faire tourner les choses. Donc c'est plus un tour des zbrouffes pour moi mais je pense que tu voulais te concentrer sur autre chose avec le co-work.
Pierre Vannier (03:39)
Ouais.
avait aussi Microsoft en tout début d'année 2025 qui avait lancé quelque chose où ils avaient même fait une démo où ça prenait des captures d'écran de l'ordinateur. Ils expliquaient le fonctionnement interne où ça prenait des captures d'écran de ce que voyait l'utilisateur à l'écran et ensuite ça pouvait prendre des actions, ça sauvegardait les données en tâches de fond etc. Et à l'époque ça avait fait une levée de bouclier.
parce que ça faisait vraiment l'outil Big Brother is watching you. Et ce qui est assez marrant c'est que durant 2025 il y eu un ou deux autres essais et là en 2026 on se retrouve avec Anthropic qui sort Cloud Cowork et qui donc effectivement a accès à tout ton ordinateur, potentiellement les navigateurs, tes mails, tes messages, etc.
De deux choses l'une, risque c'est un, faut faire une confiance aveugle à une boîte en l'occurrence là comme en Tropic mais ça peut être d'autres entreprises qui vont suivre leur chemin et puis la deuxième chose c'est effectivement les risques d'acteurs externes et de trous de sécurité qui puissent permettre à un attaquant de contrôler votre ordinateur.
Parce que finalement c'est exactement, en fait c'est le fonctionnement de ces outils là, de ces agents qui interagissent avec le système d'exploitation, c'est très exactement le même fonctionnement que les virus informatiques. C'est exactement le même fonctionnement. C'est simplement qu'en fait c'est des virus informatiques sur lequel on a barré le mot virus et on a mis agent IA.
Mais en fait, au final, c'est ça, il fait des actions en nom et place de l'utilisateur. Donc, ça constitue un gros risque et j'ai posté sur ma page LinkedIn, je vous invite à regarder, l'intervention de Meridith Weetaker, est la patronne d'une application qui s'appelle Signal. Signal, c'est une application, je vais prendre un exemple comme WhatsApp ou comme...
c'est la messagerie instantanée simplement avec WhatsApp tous vos messages sont en clair pour META avec Signal c'est ce qu'on appelle du chiffrage bout en bout c'est à dire qu'il n'y a aucune information qui ne sont pas complètement chiffrés qui traverse les serveurs de Signal et Signal est aussi une association à but non lucratif et elle revenait sur la boîte de Pandor de ces outils qui prennent le contrôle
de votre ordinateur avec de l'IA. Et il y a eu autre chose qui est... Vas-y.
Thomas (06:49)
Moi
ce que je trouve fou c'est que je pensais vraiment que allais te concentrer sur l'anthropomorphisme. C'est bête ce que je vais te dire mais le changement de nom, je trouve qu'il est très évocateur, est plus inquiétant, alors je suis pas du tout dans cette optique là initialement, mais il plus inquiétant qu'autre chose puisque quand tu parlais souvent d'anthropomorphisme, donc le fait de un peu plus humain, humanisé,
⁓ je vais pas aller plus loin, je saurais pas expliquer en réalité, je pensais que tu allais t'arrêter là dessus puisque c'est vrai que computer use en tant que tel, fait très IT, ça fait très software, ça fait très pro, très dur et le fait d'appeler ça co-work et de le vendre, de le proposer comme une solution qui vient t'accompagner et te supporter dans les tâches à faible valeur ajoutée en tant que tel, je pensais vraiment que tu allais tiquer là dessus, je pensais pas tu allais t'...
Pierre Vannier (07:39)
Non, je ne suis pas tiqué
là-dessus mais tu as raison de le dire parce qu'en fait si tu regardes c'est exactement la même stratégie qu'a fait Microsoft avec GitHub copilot pour les développeurs. Effectivement au départ copilot et toutes les IA pour les développeurs étaient quand même très limités en termes de capacité à fournir de la valeur.
Thomas (07:51)
Exact.
Pierre Vannier (08:05)
Simplement aujourd'hui, il y a certaines IA assistants au coding qui sont autonomes pendant plusieurs heures. On parle même maintenant de one-shotter, c'est-à-dire de faire juste une seule prompte pour créer une application complète. Donc la puissance de ces outils permettrait d'imaginer que ce plus des copilotes mais que c'est un peu l'inverse, c'est que c'est l'utilisateur qui devient le copilote. Et là, tu as raison, là ils mettent Cowork mais...
On peut imaginer en 2027 ou 2028 le lancement de Claude Work qui serait en fait un salarié et ça nous permet d'ailleurs de rebondir sur ce nouveau truc qui est sorti, s'appelle Claude Bot.
Thomas (08:45)
Ouais exactement, alors moi j'ai pas plus d'explication de ça parce que je pense que je me suis perdu et c'est la première fois, je vais être complètement honnête, je me suis perdu dans les nouveautés. Je pensais que comme il y eu Cowork, que CloudBot, dont c'est L-A-W-D, B-O-T de le bot, je pensais que c'était de Cloud. Et en fait ils ont sorti en même temps Cloud, je sais pas si vous avez suivi, et Incognito.
Pierre Vannier (08:58)
ouai ouai ouai
Ouais ben non.
Ouais, Claude Cowork et ce Claude Bott. Ouais.
⁓ oui.
Thomas (09:13)
Le mode incognito, maintenant quand vous allez sur Claude, en haut à droite, vous pouvez aller sur le mode incognito. L'idée c'est juste de dire on oublie vos données le temps de l'échange. C'est à dire que ça ne se base pas sur ce qu'il sait déjà de vous en tant que tel. Il continue à garder vos données et ce genre de choses mais il a une distinction.
Et en fait, je me suis complètement confondu dans tous ces nouveaux outils. Après, si je suis honnête, je suis allé un peu sur l'indine. J'ai vu tout un moment de folie et d'euphorie sur Claude Bot. Et encore une fois, alors là, je fais juste une apartée. Après, on reviendra sur Claude. Je ne comprends pas l'excitation qu'on peut avoir autour de ces outils. C'est bénéfique, c'est intéressant, mais je ne comprends pas pourquoi il a des semaines où on ouvre les réseaux, on fait un peu de veille et il a un sujet qui pop comme ça, mais qui n'a pas
plus de valeur ajoutée que ça. Bon après là ça fait peut-être un peu négatif je te le dis...
Pierre Vannier (10:05)
Parce que, enfin, ça s'appelle...
Moi je suis entièrement d'accord avec toi, ça s'appelle aujourd'hui c'est le marketing et c'est les virales et ça se répand comme une traînée de poudre. Je pense qu'ils sont très très forts au niveau marketing. Mais en fait aujourd'hui, c'est pas une grande révolution ce truc. Définissons ce que c'est que Claude Botte. En fait c'est un agent...
En fait, il faut imaginer que c'est à peu près la même chose que Claude Cowart, c'est-à-dire c'est un agent.
qui interagit avec votre système d'exploitation. peut faire des tâches comme écrire des mails, écrire des SMS via messages, ouvrir votre calendrier, avoir accès à votre calendrier. Il peut être connecté à des serveurs MCP, on peut augmenter ses capacités, etc. Et ça a eu un engouement, notamment sur Twitter et ensuite c'est venu sur LinkedIn. Ça a eu un engouement en une semaine. Les timelines de Twitter ont été absolument remplis de ça.
Thomas (10:51)
...
Pierre Vannier (11:04)
Je pense qu'il a aussi des stratégies où ils payent des influenceurs ou alors ils font tester gratuitement l'outil aux influenceurs etc. scat bien à la différence de Cloud Cowork où tu l'utilises sur ton ordinateur. Avec Cloud Bot, l'usage pourrait être de s'acheter un tout petit ordinateur type Mac Mini par exemple et en fait que Cloud Bot fasse tourner tout un tas de tâches.
comme... Alors les américains prennent l'exemple comme un nouveau salarié. Il a même eu des images où tu voyais un back mini et tu avais un gars qui faisait le malin sur un tweet où il disait, regardez j'ai mon nouveau salarié à l'américaine. Donc c'est ça mais en fait si tu veux il n'y a
Thomas (11:48)
mais qu'est-ce
qu'il de nouveau là-dedans? Ça veut dire que je vais vraiment pousser le vice à fond. Aujourd'hui, déjà quand tu vas sur Cloudbot, donc effectivement tu l'as bien résumé, merci, tout de suite il parle d'OpenAI et d'Anthropics, c'est les premières solutions les plus faciles à implémenter. Donc déjà, tu ne pas faire un serveur complètement isolé, premièrement. Le deuxième point, c'est que tu as tout à fait le droit d'avoir des modèles open-weight, open-source que tu peux déjà implanter et implémenter dans des serveurs ou dans ton propre laptop et ce genre de choses, et ensuite mettre en place une solution.
Pierre Vannier (12:01)
W-W-
Thomas (12:18)
avec des agents. vais dire l'enchain, l'engrave par simplicité mais il a d'autres...
Pierre Vannier (12:22)
En fait c'est simplement
que je pense qu'ils ont bundlisé, c'est à dire qu'ils ont empacadgé un certain nombre de services, ils ont créé une couche d'abstraction, il a un nom rigolo, c'est sous la forme d'un package que s'installe et puis ensuite je crois qu'ils sont très très forts en marketing comme l'a été à un moment donné Manus, comme l'ont été et en fait le monde de l'IA aujourd'hui c'est les étoiles filantes parce qu'en potentiellement
Thomas (12:26)
Ok, pas de souci.
Pierre Vannier (12:49)
Cette boîte, c'est assez marrant, on va aussi ne plus en entendre parler aussi vite qu'on en a entendu parler. C'est à dire qu'en fait, dans deux mois, soit ils n'existent plus, soit ils ont été rachetés par OpenAI et en fait ça a été le but de faire du aqua hiring. Les gars se sont dit, c'est un truc et puis ensuite on va se faire racheter à prix d'or par OpenAI ou Nvidia. Donc c'est un peu ce genre de truc.
Thomas (13:14)
Ok, bah franchement j'ai hâte, on peut acter de cet épisode de podcast pour voir l'évolution de cet outil, mais effectivement j'ai eu... Oui.
Pierre Vannier (13:19)
On peut déjà dire qu'il a des trous de sécurité. pouvez regarder sur Twitter,
il y a déjà des exploits, y déjà des listes de vulnérabilité, etc. Donc attention, ces choses-là sont encore en R &D, développement, ce n'est pas du tout mature. Et si vous savez pas vraiment ce que vous faites, je vous déconseille quand même d'y aller la fleur au fusil.
Thomas (13:43)
Je pense qu'il quand beaucoup de choses à apprendre de cet outil en tant que tel si on décide d'en apprendre quelque chose donc ça c'est plutôt intéressant mais voilà moi j'ai eu un de ces moments où j'étais complètement perdu alors que je fais de la veille tous les jours et tu as un nouveau truc qui pop avec un logo orange donc c'est un Omar qu'ils ont et en fait tu as tendance à te perdre dans toutes ces nouveautés mais voilà je voulais quand même revenir rapidement sur ce sujet là pour moi il n'y a pas d'exploit c'est intéressant
Pierre Vannier (13:59)
Ouais c'est ça.
Thomas (14:10)
voir ce que ça va donner dans un mois ou deux effectivement. Content quand même de Clauorth, tu l'as essayé toi ou non ?
Pierre Vannier (14:17)
Non,
enfin, pour que ça soit clair, je ne vais pas installer d'agents sur mon ordinateur qui fait des choses à ma place, etc. Tout simplement parce que c'est un trou de sécurité absolument béant. C'est-à-dire qu'il faut quand même bien se dire qu'avec ces outils, c'est d'ailleurs ce que disait Méridi Tweeter Car, elle disait, nous notre signal qui est crypté de bout en bout.
Thomas (14:22)
Je n'utilise plus.
Pierre Vannier (14:46)
En fait avec ces agents ça sert plus à rien. Pourquoi ? Parce qu'en fait vous allez voir un agent qui va être sur votre ordinateur, qui va ouvrir l'application Signal, qui va écrire à une personne sur Signal, en crypté, chiffré de bout en bout. Mais en fait c'est pas la personne, c'est un agent qui parle. Donc en fait le cryptage de bout en bout...
et puis la personne peut faire des actes criminels en lieu et place de la personne sur laquelle l'agent est en train de tourner. Donc il est hors de question que j'installe ce genre de choses là et de plus en plus j'installe des systèmes de sécurité sur mon Mac de plus en plus élevés parce qu'en fait aujourd'hui je pense qu'il y a des risques importants sur la cybersécurité.
sur des mauvais acteurs et sur des gens qui ont besoin de plus en plus de data. Pour aller chercher de la data, le meilleur moyen c'est de s'installer directement au cœur, c'est-à-dire dans le système d'exploitation de l'utilisateur puisqu'on aura accès à absolument toutes ces data.
Thomas (15:46)
Moi je suis d'accord sans être d'accord, c'est un peu défaitiste que tu dis mais je comprends, je peux pas aller à l'encontre. Moi mon exemple c'est je vais pas installer ça pour le moment puisque l'exemple concret c'est Atlas. Atlas c'était la solution d'OpenAI pour aller chercher sur internet. On en avait un peu parlé à un épisode, on disait qu'on n'avait pas installé aussi. Et c'est ça le problème. En fait c'est ça.
Pierre Vannier (16:04)
sais pas ce que c'est devenu. C'était via le navigateur.
Thomas (16:09)
Exact, mais c'est une application
que tu pouvais mettre sur Mac et tout ça et je pense que c'est tout le problème, c'est qu'aujourd'hui, et ça reprend aussi l'exemple de Cloudbot, c'est l'euphorie qui est complètement insensée sur trop de choses en même temps. Ce n'est pas juste une chose qui fait un effet buzz, c'est qu'aujourd'hui on installe plein de choses sur son ordinateur et on ouvre des vannes.
du savoir et à des informations qui sont carrément personnelles. là c'est peut-être la seule fois où je dirais ça sur le podcast mais je vous invite vraiment à réfléchir à deux fois avant d'installer des choses que ça soit sur votre téléphone ou votre ordinateur sans parler de cyber security ou ce genre de choses.
mais une fois qu'on a mis des applications sur son ordinateur, en général elles existent, elles subsistent même si on la supprime en tant que telle. Il y a quand même des morceaux qui restent donc réfléchissez à deux fois de son utilité. L'exemple d'Aklas concrètement, on va pas en parler pendant cet épisode mais c'est aujourd'hui...
chat GPT Go, donc une autre solution, y a de la pub. Donc aujourd'hui ils ont inscrit déjà internet, il y a internet, les recherches internet directement dans la solution. Voilà, réfléchissez à deux fois, je pense que ça devient essentiel. Je voulais juste revenir sur un dernier point pour toi Pierre, je voulais savoir ce que tu en Tu disais par exemple Cloudbot ou Cloudworld, peut s'inscrire dans ton Slack, dans tes mails, dans tes CRM et ce genre de choses, tu tous ces outils là.
Pourquoi toi c'est plus un problème que des outils comme, Zapier, ces outils d'automatisation ? Pourquoi toi tu serais plus inquiet par ces outils ?
Pierre Vannier (17:36)
mais oui mais je...
Alors, euh...
Zappier n'est pas installé sur ton ordi, c'est un service externe via un SAS.
Thomas (17:42)
te prends le cours.
Pierre Vannier (17:48)
avec des connecteurs et des choses comme ça. tu peux faire mais c'est un ensemble de connexions via API etc. Donc il a pas un risque énorme sur mon ordi, quoique on peut sûrement faire des exploits ou des choses comme ça. Pareil pour un ITN et tous les outils low-code. Mais là, ces agents installés en tant qu'application sur votre système d'exploitation, ils vont avoir accès et ils vous le demandent à la souris, donc à toutes les
à tous les périphériques d'entrée-sortie, donc à votre souris, votre clavier. donc ça veut dire que potentiellement, soit un mauvais acteur, pirate, soit les gens qui vendent ces solutions aussi, pourquoi pas, ont la capacité de venir ausculter tous les faits et gestes de l'utilisateur.
de l'ordinateur, de l'utilisateur sur lequel est installé cet outil. Donc c'est un risque pour la vie privée qui est vraiment énorme. Et aujourd'hui dans nos démocraties, la surveillance et la vie privée sont de plus en plus des critères importants.
Thomas (18:47)
J'ai peu peur. J'ai un peu peur.
Non, as raison. Effectivement, si on a accès, je prends juste cet exemple que tu as donné, mais si on donne accès à tous les périphériques de notre ordinateur, je ne pas en quoi profondément ça aide à l'alignement des intelligences artificielles. là, c'est un sujet plus large, mais effectivement, le fait que te lides sur ta souris ou tes connectives et ce genre de choses, n'est que de la data de consommation en que telle, et ça ne va pas pousser à avoir une intelligence plus cohérente vis-à-vis.
Pierre Vannier (19:25)
Ce qu'il cherche c'est à la fois la data ou alors trouver un business model complémentaire. Toutes ces boîtes perdent de l'argent et ce n'est pas avec des assistants conversationnels qui vont demain matin venir éteindre. D'ailleurs on parle de ça mais OpenAI il y a certains bruits qui courent comme quoi potentiellement d'ici un an avec le cash qui brûle, il pourrait en fait juste faire faillite. Donc il cherche...
Thomas (19:50)
C'est pour ça qu'il cherche 50 milliards.
Pierre Vannier (19:52)
Ils cherchent
à tout prix et d'ailleurs on va en parler dans une autre partie de ce podcast, va parler des outils et de la santé aussi. Ils cherchent des nouvelles verticales, cherchent des nouvelles interfaces home machine, des nouvelles intégrations parce qu'aujourd'hui, alors il a le code, ça marche super bien, création d'image, pour deux trois GIFs, mais il n'y a pas l'application qui aujourd'hui fait,
justifie de tels investissements. Y'a pas.
Thomas (20:26)
Les data centers. Aujourd'hui c'est les data centers qui justifient tout. Je pense. Mais c'est...
Pierre Vannier (20:30)
Oui, en fait
on justifie l'argent qu'on investit par le calcul qu'on veut y mettre, donc avec l'espoir d'un business model qui, mais en fait ce qui va être vraiment problématique c'est quand tous les gens potentiellement...
qui crie au niveau politique que seul l'IA pourra sortir les pays la tête haute, relancer la croissance etc. Je pense que les Etats-Unis qui ont complètement idolatré et rendu une espèce de frénésie de l'IA avec celui qu'on connaît là. Et de l'autre côté aussi en Europe on a poussé très très fort l'IA. S'il a une bulle de l'IA qui explose parce qu'en fait la valeur n'arrive pas à être
Thomas (21:11)
...
Pierre Vannier (21:16)
mise en forme et les gens en restent sur des UGH quand même super basiques, ça risque d'être vraiment compliqué pour ces boîtes et la bulle peut éclater. Et pour les politiques, ça sera aussi encore plus dur.
Thomas (21:24)
...
Mais ce qu'il faut savoir c'est qu'aux Etats-Unis, il plus de 10 milliards qui ont été incorporés, enfin qui ont été dépensés pour les lobbies entre Meta, Nvidia, Apple, Google, on parle de plus de 10 milliards, donc c'est quand même des sujets très politisés, diplomatiques, mais bon il y a beaucoup...
Pierre Vannier (21:37)
Ouais tu m'étonnes.
Bon en fait après c'est
même plus... enfin pour moi c'est même plus des lobbies hein. Il faut savoir quand même comment ça doit se passer dans l'administration Trump, excuse-moi, mais ça doit être même pas des lobbies quoi. Enfin je pense qu'il se passe même pas les enveloppes sous la table, pas sur la table quoi. Je pense qu'ils ont même une banette dans laquelle ils mettent des enveloppes tu vois. C'est un niveau où c'est quand même un niveau de corruption qui est quand même passé au grade du professionnel je pense. À mon avis hein. Je me suis fait un copain.
Thomas (22:09)
Bah là j'ai rien à dire là-dessus.
Pierre Vannier (22:11)
Mais de toute façon, moi je sais que je ne remets pas les pieds aux Etats-Unis avant 2060, donc voilà quoi.
Thomas (22:20)
Bon, j'ai pas grand chose à dire peut-être, j'en sais rien, je m'arrête là. Moi je m'arrête là. Mais par...
Pierre Vannier (22:24)
Exactement. Mais il faut bien qu'il en ait un qui
vous s'ageule.
Thomas (22:28)
Sinon l'autre sujet, en fait on parlait d'assistant, à moment on va continuer sur cette lancée avec Apple. C'est un beau sujet, je trouve qu'il y a vraiment beaucoup d'intérêt dans ce point là. C'est Apple qui choisirait Gemini pour Siri. En réalité, pour préparer ce qu'ils appellent le nouveau Siri qui est Campos actuellement, l'objectif c'est principalement d'avoir un outil conversationnel plus intelligent. En fait on n'a pas plus d'infos en tant que tel.
Pierre Vannier (22:34)
Ouais.
que ?
Thomas (22:58)
que Siri. En fait c'est Siri, c'est Siri V2.
Pierre Vannier (22:59)
Ouais bon c'était pas vraiment dur à mon avis tu prenais même un CM2 ou même un CE1 à mon avis 8 ans il était quand même plus intelligent que Siri quand même.
Thomas (23:11)
Non, c'est sûr que c'est
plus intelligent, mais en tout cas, a cette volonté de vouloir avancer en app.
beaucoup tous tendance à critiquer Apple en tant que tel sur son évolution en intelligence artificielle et concrètement comment ça se passe et donc ils vont choisir Google et ça je sais que tu as des choses à dire dessus Pierre au détriment d'OpenAI qui a initialement été choisi et même utilisé pour Siri mais effectivement ça va changer la seule chose sur laquelle je peux commencer la discussion Pierre c'est ils ont insisté sur le fait que ce sera sur des serveurs dédiés
Donc aucune information ne sera passée à Google et donc on n'a pas les termes du contrat. Ça c'est une information qu'ils mettent tout de suite en avant, puisqu'ils savent le risque.
Pierre Vannier (23:47)
Ok.
Donc genre il ferait tourner des instances
de Gemini sur on-prem sur des bays et des serveurs qui seraient gardés par la garde prétorienne de Apple.
Thomas (24:05)
potentiellement et après c'est une solution qui est possible techniquement quand on regarde les termes et conditions de Google si on met en place un VPC il s'assure il y a deux choses en fait il s'assure Google c'est super intéressant ils assurent la privacy
sécurité des données donc elles ne sortent pas du périmètre de confidentialité et l'autre point c'est, ça c'est un point qui aussi peut être assez intéressant, c'est qu'ils assurent d'un point de vue juridique et monétaire si jamais une de leurs IA crée quelque chose avec un copyright. Et ça c'est un point qui est assez intéressant, c'est que sur NanoBanana ou toutes ces nouvelles choses avec de l'intelligence artificielle où on va prendre des données à droite à gauche, ils assurent une protection légale.
Pierre Vannier (24:23)
confidentialité.
ouais ?
Thomas (24:51)
C'est-à-dire aujourd'hui Google a assez d'argent pour aller implanter au sein des entreprises ou au sein des clients directement comme toi comme moi de dire s'il a un problème on est là et on vous rembourse.
Pierre Vannier (25:03)
Alors moi je te propose un truc parce que c'est ce que j'ai vu passer. J'ai vu passer une étude comme quoi de très nombreux très grands langages, très grands modèles de langage frontières là comme... alors je sais pas si je déjà pétéillé mais je sais qu'il a Claude ou Opus ou Sonnais je plus lequel et je crois qu'il en a d'autres mais je pense qu'il a peut-être Gemini aussi. Ils ont réussi par certains promptes et certaines associations de promptes à ressortir l'intégralité d'un bouquin Harry Potter.
Et ça c'est pas le seul. Donc ça veut dire qu'en fait il faut aller voir J.K. Rowling, il faut faire un deal avec elle, lui dire écoute tu attaques Géminy parce qu'on a vu qu'en fait ils payaient les legals. Donc t'imagines, tu peux retrouver en fait des ouvrages entiers. C'est à qu'en fait ils ont le copyright en fait quand ils ont...
Thomas (25:35)
Oui, mais...
Ouais, je sais.
Pierre Vannier (25:58)
parce qu'ils ont entrainé les modèles sur tout le bouquin. Donc tu peux potentiellement, plutôt que d'aller à ta librairie préférée, essayer d'envoyer trois petites promptes d'injection à Gemini ou Claude pour essayer de voir si tu peux pas récupérer le bouquin plutôt que de l'acheter.
Thomas (26:15)
Ouais
mais ça je suis d'accord tu en tant que tel tu peux le trouver avec l'internet. En vrai il y a des trucs où...
C'est peut-être là où je suis assez hermétique. En fait, sur Internet, tu le trouves. Pourquoi on irait charger... Je comprends en vrai ce que tu veux dire. Je pense que je vais chercher quelque chose d'autre. Mais pourquoi on irait embêter des intelligences artificielles ou des entreprises qui font de l'intelligence artificielle, sachant que tu peux trouver tous les livres Harry Potter gratuitement et tu peux peut-être trouver toute la librairie du monde sur Internet.
Pierre Vannier (26:30)
Oui oui !
Thomas (26:46)
Et c'est la même chose quand je te parlais des MCP, du Slack, ou les connecteurs et ce genre de choses, on est actuellement dans un truc où... Je vais peut-être pas dire une chasse à la sorcière, parce qu'il a quand même du mauvais, bien sûr, je ne pas le nier, on est en train de voler tout le savoir, mais Internet le fait déjà. Et sachant que l'intelligence artificielle consomme Internet, dans quelle mesure on va se plaindre ? Ouais ?
Pierre Vannier (27:06)
Oui, chose que tu veux dire. Pourquoi on
les matraque eux alors qu'on pourrait matraquer le dark web ou les liens profonds sur Google. Quand tu cherches un PDF, tu mets le nom du livre, tu mets file type PDF dans ta requête. Mais c'est même pas du piratal, c'est quelque chose qui est conçu dans le moteur.
Thomas (27:14)
Ouais, exact. Et...
Etc.
On s'arrête, on s'arrête, on s'arrête, s'arrête, il faut pas le dire.
Non mais il y a plein de choses
tu vois, même au bout d'un certain nombre d'années il a des patents, y a des brevets ce genre de choses qui passent...
Pierre Vannier (27:41)
dans le domaine
Thomas (27:42)
Domaine public, c'est la même chose pour l'art.
Et puis à plus forte mesure, parle aujourd'hui des IA, on peut faire du prompt engineering, l'optimiser, faire du prompt injection pour avoir les informations que tu veux. Aujourd'hui, allez voir dans les hôpitaux les sécurité qu'il a. Vous pouvez couper Internet, vous pouvez couper les machines qui sont reliées à Internet. Et si vous forcez un peu, pouvez obtenir je ne sais pas combien de bases de données de clients. a encore la sécurité. Moi, j'ai eu la sécurité sociale, j'ai tombé.
Pierre Vannier (28:05)
Excuse-moi, tu ne pas vu en France ? En France, ce qui se passe en ce moment ?
Nous, en France, c'est terrible. Il y a quasi l'intégralité de toutes les fédérations françaises de sport, volet, golf, tout ce que tu veux, mais elles tombent tous les jours. as une base de données de plusieurs centaines de milliers, voire millions de données personnelles importantes qui tombent en France. C'est...
Thomas (28:16)
J'y avais pas.
Et
ça, commence franchement à me... Je sais que ce n'est pas l'objectif du podcast initialement, mais...
Pierre Vannier (28:34)
Si si vas-y énerve-toi.
Thomas (28:36)
mais ça devient quelque chose d'un peu frustrant puisque d'un côté il a beaucoup de buzz autour de l'intelligence artificielle, c'est un sujet, mais par contre on a tendance à omettre les choses un peu plus basiques qu'on devrait normalement savoir contrôler, en fait tout est en train de tomber. Moi je parle en tant que français, même si je suis au Québec et au Canada, moi j'ai reçu un mail il y a peut-être 6 ou 9 mois, je ne plus partie de la Sécurité sociale française, puisque je suis plus là-bas, et pourtant mes données ont été volées.
Mes données ont été à un moment piratées, c'est la même chose pour Pôle emploi et ce genre de choses. C'est-à-dire que quelque chose de très déterministe, on parle de base de données, il y eu des erreurs, je ne pas lesquelles, je ne sais pas pousser la chose, mais des données sont disponibles. Et je pense que ces données-là sont beaucoup plus sensibles, graves, dangereuses, utilisez le terme que vous voulez, que les livres de G.K. Rowling, par exemple. Et ça, commence un peu à... Je suis désolé, je change complètement de scope, mais je pense qu'on va y venir avec le sujet d'après.
Il a des choses qui ne pas le coup d'être protégées, où il ne pas mettre autant d'énergie que ça à les protéger. Par contre, il a des choses beaucoup plus essentielles qu'il faudrait combattre. Donc je fais une toute petite aparté, mais je pense pas que ce soit le bon combat.
les copyrights, ce genre de choses. Et oui, il y aura sûrement des problèmes et des limitations, mais en même temps, gens se plaignent toujours d'Apple. Tu le sais, tu l'as vu sur les réseaux, tout monde se plaint d'Apple, alors qu'ils ont des tendances à faire des produits plutôt finis, que soit des solutions ou des produits en général. Et ils vont proposer une solution qui va être utile pour l'utilisateur. Bien sûr qu'il y a des risques, mais s'ils ne le font pas...
ils vont passer pour des idiots puisque ça fait partie des GAFAM ou je sais plus quel terme on peut utiliser maintenant qui n'est pas en capacité d'utiliser ces outils d'intelligence artificielle. Je sais pas ce que t'en penses tu vois de ça mais...
Pierre Vannier (30:20)
Ouais ouais mais non non mais de toute façon ils
ont... bah je suis assez d'accord avec toi en fait il y a aussi... c'est aussi une sorte de feu de paille en fait de dire ah il y a attention les droits d'auteur etc mais en fait les vrais... il y a des gros enjeux pour les particuliers
Il y a des gros enjeux pour les gens comme toi, les gens qui utilisent ces IA, les gens qui utilisent ces agents dans leur vie perso, dans leur vie pro, etc. On n'en parle pas suffisamment mais il a des trous de sécurité béants dans tous ces trucs-là. Béants. qu'ils sont... Ils terminent d'être développés par le développeur et dix minutes plus tard on retrouve sur Twitter ou sur LinkedIn. Vous avez perdu votre journée si vous n'avez pas essayé ce nouvel outil. Bon, les trucs ne pas stables.
ils ne pas amateurs. Et de l'autre côté, les vrais vrais enjeux de sécurité sont là. Et quant à Apple, effectivement, leur crache beaucoup dessus. ils ont perdu cette bataille qu'ils n'ont peut-être pas voulu livrer, des LLM, de frontières, Même de modèles open source, d'intégration avec leurs outils, ils l'ont perdu. Par contre, hardware, donc leur matériel,
c'est beaucoup beaucoup développé avec une importance pour les développeurs du matériel d'Apple donné à l'IA, au Machine Learning etc. puisqu'on a la couche MLX dans le système d'exploitation pour mieux travailler et optimiser les travaux d'intelligence artificielle au niveau du processeur et des GPU silicone d'Apple.
Thomas (31:54)
C'est vrai.
Pierre Vannier (32:11)
qui fait qu'en fait on peut héberger son propre LLM sur un MacBook Pro aujourd'hui et ça marche quand même bien ! Ça marche bien ! Moi j'ai fait de la... ce week-end j'ai fait du clonage de ma voix avec un modèle open source de Quen qui est Quen 3 Text to Speech, TTS.
Thomas (32:14)
fait.
Pierre Vannier (32:29)
sur ma machine en local sur mon Macbook Pro via un outil qui s'appelle LM Studio. J'ai cloné ma voix et ensuite j'ai pris du texte et je l'ai fait lire avec ma voix et franchement ça marche super bien. marche vite, ça marche bien. Donc côté hardware ils sont quand même très bien donc s'ils arrivent à faire une bonne intégration. Ce qui me fait marrer c'est qu'il y avait un premier accord qui avait été semble-t-il signé ou c'était presque sûr avec OpenAI il y a 9 mois, 12 mois et...
Thomas (32:56)
mais c'est énorme, 9 mois
dans ce domaine-là.
Pierre Vannier (32:57)
Voilà, ouais c'est ça, c'est une génération.
Et finalement, c'est... Finalement c'est Gemini et c'est Google qui gagnent. Ce qui est quand même assez rigolo parce qu'en avoir Google et Apple dans un deal au sujet de l'IA, quand tu connais le niveau de guerre atomique qui se sont fait sur les téléphones et les systèmes d'exploitation, c'est assez marrant. C'est à dire qu'en fait, c'est les ennemis mais bon, quand il a un intérêt commun, on devient vite amis quoi.
Thomas (33:27)
Et je pense qu'ils ont raison. Et je pense que c'est toute la puissance des Etats-Unis de façon générale vis-à-vis d'autres pays, c'est de dire que quand il a du business et des potentiels, on y va. C'est positif ou négatif, chacun se fait son avis bien évidemment, mais par contre ça a le mérite d'exister et je pense que de toute façon, ce soit les Google Pixel si on repart sur les téléphones et les iPhones, ils ne jouent pas dans la même cour et aujourd'hui on le voit, ce n'est pas les mêmes combats que ne serait-ce que sur les pubs.
Pierre Vannier (33:36)
On oublie les querelles. Ouais.
Oui mais tu vois
dernièrement il y avait, moi j'ai eu des utilisateurs de grands fanboys d'Apple, d'iPhone etc. qui m'ont dit envisager passer sur Pixel parce qu'en fait il y avait une bonne intégration avec l'IA. Tu vois ça c'est important quoi parce que les gens maintenant vont choisir leur smartphone avec en critère aussi l'intégration avec l'IA. Parce qu'ici ils doivent faire 4 clics
Thomas (34:08)
Ouais, t'as plus l'air en haut. Bien sûr.
Pierre Vannier (34:17)
trois glissés déposés pour utiliser un LLM alors que dans l'autre téléphone, tu appuies sur un bouton et c'est déjà connecté à tout l'écosystème, d'où l'importance aussi d'un écosystème que Google peut proposer et que Apple peut proposer.
Thomas (34:33)
Mais ça tu pourras jamais... En fait je pense qu'on arrive à un moment où on ne jamais comparer Google et Apple, c'est à dire que si tu veux le faire de façon sécuritaire sur ton laptop ou sur ton... Aujourd'hui on parle un peu plus des Mac mini et ce genre de choses, c'est en rien comparable à utiliser le cloud. C'est une vision en fait à un certain niveau, il faut juste être en paix et savoir ce qu'on consomme. Si les gens préfèrent utiliser un Google Pixel puisque ça utilise le cloud de Google qui est d'une excellente qualité, moi j'ai beaucoup d'espoir en eux, puisqu'ils ont les épaules financières et technologiques pour aller à l'étape supérieure,
Apple lui va chercher autre chose et moi je continue à dire qu'aujourd'hui Google c'est du software et Apple c'est du hardware. Qu'on le veuille ou non et on peut me parler de macOS ou IOS, pas pareil, c'est pas la même chose, c'est pas la même proposition de valeur. Donc c'est franchement assez intéressant. moi si je suis complètement honnête je m'en fiche un peu. Moi je suis pas un grand utilisateur de Siri, je pourrais peut-être échanger avec lui mais ça changera pas profondément les choses. Ça dépend de la...
Pierre Vannier (35:09)
Hmm.
Non ouais ? Non ouais tout à fait.
Enfin, t'es
pas un grand utilisateur de Siri. En tout cas, t'y as pas la conscience que tu utilises Siri.
Thomas (35:34)
Ouais, ça ouais, ça ouais. Mais par contre moi j'ai mon série où...
Pierre Vannier (35:36)
derrière peut-être peut-être
que derrière parce que quand même tu vois là aussi
Thomas (35:40)
Mais je suis en paix avec ça.
En fait, je suis en paix avec ça, c'est-à-dire que j'ai plus confiance d'avoir un iPhone actuellement à côté de moi qui peut m'écouter que, bah en fait c'est bête comme tout, mais pendant le podcast je voulais changer de caméra, j'ai trouvé une caméra qui était chinoise, je vais vous dire la vérité, j'ai vu une caméra qui était chinoise, je me suis dit, ça se trouve je vais me faire écouter. Bon déjà c'est fou, ouais ouais je me suis dit ce truc, bon je suis peut-être un peu... Oui, dans l'effet, dans l'effet factuel, en terme de... de... manufacture.
Pierre Vannier (35:57)
C'est vrai ? Mais elles sont toutes chinoises !
Elles ont toutes... Elles ont toutes des puces
chinoises, machin, etc. En fait tu t'es dit quoi, est-ce qu'il vaut mieux une caméra américaine, qui a été potentiellement faite par des boîtes qui collaborent avec ICE, ou une boîte chinoise qui va attaquer Taïwan, c'est ça en fait ?
Thomas (36:08)
Bien sûr. Mais je me suis posé la question. Mais... à un moment...
Non mais ce que je veux dire... Non mais en réalité
je me dis que je suis biaisé dans tous les sens et en fait on essaie de mener un combat, je pense qu'on a déjà perdu sur plein de plans, vois, par exemple je veux pas avoir de Alessa ou de Google, les gars les Google à l'époque ou les...
les HomePod mini de Apple, puisque j'ai peur que ça m'écoute, mais en vrai tu te fais écouter presque partout, pour tout le temps. Et si c'est pas à toi, quand t'es dans les transports, ça peut être le téléphone de quelqu'un d'autre. Ouh l'outil de quelqu'un d'autre, vois. Donc ça peut être vraiment énorme, vois.
Pierre Vannier (36:50)
Je pense que on
a un bon conseil à tous nos auditeurs et auditrices, de dans une caverne relativement déconnectée, assez loin du monde.
Thomas (36:59)
Non mais voilà c'est un peu ça et par contre moi je trouve que Apple propose des solutions qui restent toujours très intéressantes et effectivement ils ont rendu très facile l'utilisation du machine learning, pas que de l'IA du machine learning sur leur machine et je trouve ça intéressant qu'ils essayent d'évoluer vers ces outils comme on peut avoir aujourd'hui accès mais je pense que c'est un problème beaucoup plus économique que ça c'est que aujourd'hui tout monde veut tenter vers la même chose et ça en devient vraiment néfaste donc
Si Apple veut le faire, c'est qu'il doit le faire, verra comment ça sera reçu par la critique et les marchés financiers en tant que tel.
Pierre Vannier (37:34)
Déjà on
verra 1 si ça sort, 2 quand ça sort, 3 où est-ce que ça sort, parce que très probablement on est en train de parler un truc mais pour des raisons X ou Y en Europe forcément ça passera pas parce qu'il a la réglementation, régulation, machin etc. Donc il a plein d'outils qui ne sont pas disponibles à nous pauvres aux Européens parce qu'au moins on a la sécurité de nos données ou on a un tiré breton qui s'est mis, passez-moi sur le corps, voilà, peut-être.
Thomas (37:50)
Ouais mais regarde.
Non,
assez de ça, l'autre sujet que je voulais ramener par contre par rapport à Apple, c'est tout à vu la news.aws qui venait en Europe. Et ça c'est... Ouais, ils mettent des serveurs directement en Europe donc là il faudrait vraiment que je retrouve l'information pour que ça soit clair.
Pierre Vannier (38:09)
que AWS vient en Europe ? Ok.
Ouais mais du coup,
du coup, enfin moi je me demande, ils prennent les gens pour des abrutis, c'est à qu'en excuse-moi, parce qu'en fait là on a tous peur au niveau souveraineté que les américains, ils appuient sur un bouton et n'importe quelle boîte qui fournit n'importe quel logiciel où il a du Made in USA dedans puisse et soit obligé de fournir les data et d'acter, dire ok, etc. Donc en fait,
Là ils ont commencé à se dire on va mettre les serveurs en Europe ou en France, etc. Mais en fait la loi américaine elle va beaucoup beaucoup plus loin. à que même si tu as un autre logiciel qui interagit avec un logiciel américain mais qui n'est pas sur le device, à dire qu'en fait tu as une notion de porosité qui fait qu'en fait même si tu les serveurs d'AWS chez le client à Saint-Mor les fossés, je ne pas où, un bled en France,
peuvent de toute façon récupérer les data. Moi j'en suis quasi sûr. Donc je pense que tout ça c'est un peu du... c'est un peu du... c'est un peu du... Moi j'entends Cloud Souvrain, c'est comme si j'entendais... Ouais dans mon entreprise c'est une famille. On travaille tous comme une famille. Ouais ouais c'est ça, on est tous frères, sœurs, cousins. Non mais Cloud Souvrain, aujourd'hui t'entends ça ?
Thomas (39:20)
En tout cas...
Bah là ils se vendent comme un cloud souverain.
travail en famille. Ouais, ouais je trouve.
En tout cas, ce qu'il dit, c'est
qu'il se base en Allemagne.
Aujourd'hui, c'est ça les termes qu'ils utilisent. se basent en Allemagne. Ils veulent répondre aux exigences de l'Union européenne. Il va créer des filiales distinctes, contrôlées localement par des citoyens de lieu. ne pas ce que ça veut dire par contre, avec des garanties inédites sur la confidentialité des données. Des garanties inédites, c'est que c'est nouveau par rapport à ce qui existe déjà, sachant que ce genre de solutions martelles qu'on protège les données. ça, déjà, c'est un sujet qui est intéressant. Il y aura un chiffrement contrôlé.
Pierre Vannier (40:11)
ils martèlent encore plus.
Thomas (40:14)
contrôlé, attend, c'est ça le mieux, accès au cloud source par les employés européens agréés. Il est complètement séparé des régions AWS, mais par augmentation du coût de 15 % puisque ça inclut un cloud souverain. Et donc on verra ce que ça va donner, mais je trouve ça intéressant. La logique reste intéressante, après est-ce que ça vaut...
Pierre Vannier (40:26)
Ha
...
Moi je trouve ça génial.
Au niveau marketing, trouve ça génial. Que les mecs sortent un cloud souverain qu'ils viennent mettre en Europe avec la ribambelle de bullshit marketing que tu viens de me citer. Je trouve ça génial. Dans ce momentum-là, je trouve que les gars sont très très forts. Ils sont rapides, ils exécutent vite.
Tu vois, ils sortent un produit, bam, il y a des tensions géopolitiques, oulala, on risque de se retrouver avec des clients qu'on va perdre parce qu'ils ne voudront plus avoir les zones aux US ou je ne pas où. Viens, on va faire vite un... Comment on va l'appeler ? Cloudsouvrain by Amazon AWS et on va le mettre en Europe. On va mettre tout un tas de garanties encore super plus importantes et tu vas voir que les gens vont acheter. Et oui, les gens vont acheter. Parce que les gens sont des chèvres.
Thomas (41:20)
En
fait, se répertuera sur le marketing des entreprises qui l'utilisent. Donc à voir comment ça fonctionne, c'est sûr que ça sera labellisé.
Pierre Vannier (41:26)
Mais ce qu'il faut savoir c'est qu'aujourd'hui,
mais nous on a plein de data en France qui sont sur des cloud, je ne pas comment on peut dire une moitié de souverain, c'est quoi ? C'est peut-être un baron ou un duc, peut-être un archiduc, quelqu'un qui n'est pas complètement souverain, un souverain.
Thomas (41:40)
Un suzerain ? Non je rigole, non j'en sais rien. Un suzerain ? Non j'en sais rien.
Pierre Vannier (41:45)
ils mettent des cloud où tu as à moitié AWS, à moitié machin etc. Mais nous en France on a plein de data qui sont déjà hébergés sur ce genre de cloud. donc c'est pas AWS qui va s'installer à Strasbourg, à Metz ou à Grenoble que ça va me faire dire on est souverain en fait. On est souverain rien du tout. La France vient d'acheter Palantir pour tous les services de renseignement.
Thomas (42:08)
Mais je pense que ça marchera. Je pense que ça marchera.
Pierre Vannier (42:15)
Et après on vient de parler de souverain souverain mais... d'ailleurs tous les renseignements français utilisent une solution hyper puissance de tracking de tout ce que tu veux. Made by américain, c'est les mêmes qui sont utilisés par ICE en ce moment aux US. Nous on va avoir les mêmes. Alors peut-être on aura pas les mêmes features. En tout cas pour l'instant. Peut-être on aura pas le tracking et la surveillance des gens. Mais donc juste... Enfin... C'est ridicule. C'est ridicule. Mais je pense qu'en fait tout ça c'est de la...
C'est de la comme politique fiction, c'est à dire qu'en fait on allume des petits endroits de communication qui n'ont aucun sens, qui n'ont aucun intérêt pour faire l'inverse ou pour éviter de porter le regard sur d'autres problématiques intérieures. Je trouve ça nul.
Thomas (42:59)
...
Après c'est toujours le même problème, peut le mettre au niveau de la data et de l'intelligence artificielle mais dans plein de sujets, y a philosophiquement ce qu'on aimerait avoir, le monde idéal et le monde doit tourner économiquement. Et à partir de ce moment là, on fait face à des énormes murs qui nous font paraître pour des idiots puisque à un moment il faut que ça tourne économiquement et ça reste malheureusement ou heureusement pour d'autres, enfin chacun ira là où il veut mais il faut qu'on puisse payer nos factures à la fin du mois et quand je dis nos factures, c'est pas d'un point de vue d'un consommateur.
comme toi et moi ou d'une personne mais d'un point de vue d'État ça c'est des taxes et des impôts qui vont venir pour l'Europe qui vont être bénéfiques et je pense que c'est le résultat d'un matraquage de la part de l'Europe envers les entreprises actuellement américaines sur
le trouver des taxes, des impôts, des amendes sur leur façon de faire. Après, le pourquoi du comment, ou est-ce que c'est bien, est-ce que c'est pas bien, c'est propre à chacun. Moi, quand il arrive, je trouve que ça a eu des utilités qui sont phénoménales et actuellement, pense que si tu demandes de choisir... En fait, je sais...
Je pourrais mettre tellement de concepts économiques dans ce qu'on est en train de voir avec l'intelligence artificielle que c'en est risible. Déjà, a le phénomène de gratuité. Ça paraît beaucoup moins cher aux États-Unis. Si ce n'est gratuit, et surtout ils ont des offres qui sont gratuites dans un premier temps. donc la gratuité a un impact psychologique très fort. Et de l'autre côté, ça c'est un point. Et l'autre côté, je l'ai vu sur une newsletter il n'y a pas longtemps aussi, c'est le fait que toutes les entreprises commencent à proposer la même chose. Pareil,
en fait si ce niveau vers le bas vers la moyenne et c'est pas du tout intéressant et en fait on n'a plus il ya d'un côté l'innovation qu'on est en train de nous vendre les buzz qu'on peut trouver sur les réseaux sociaux c'est un sujet mais dans les faits économiquement et tu l'a mentionné en tout début de l'épisode économiquement on n'est pas c'est pas viable tout ce qui est en train d'être fait c'est pas viable puisque ça rapporte zéro mais ça consomme vraiment beaucoup donc
Je suis quand même un petit peu perdu, moi je trouve ça positif AWS, par contre je trouve ça pas positif Apple en tant que tel. C'est ça moi mon avis puisque je vois pas l'intérêt de passer par Gemini et ils devraient travailler là dessus, surtout qu'ils ont leurs propres données techniquement Apple.
Pierre Vannier (45:15)
Ouais mais ils ont pris tellement de retard par rapport à...
Thomas (45:20)
Mais c'est pas grave
en vrai. En vrai c'est pas grave. Si d'autres sont capables de le faire, pourquoi il faudrait faire pareil ?
Pierre Vannier (45:26)
oui c'est
très bien là qu'ils prennent Gemini, je trouve que c'est une bonne idée. Ouais ouais je trouve que c'est une bonne idée.
Thomas (45:28)
Ah, mais moi je trouve que c'est pas grave, si aujourd'hui
t'as Apple, donc on revient sur Apple, on fait un peu de va et vient, mais Apple, c'est les seuls à ne pas le faire, c'est que d'autres le font, donc c'est pas très grave de ne le faire. Moi c'est ça mon problème actuellement, c'est aujourd'hui OpenAI et Anthropy font la même chose dans les faits, ils font pareil. Mais s'ils font pareil, on s'en fiche.
C'est toujours une question de monopole, oligopole et ce genre de choses. C'est juste qu'ils vont jouer sur les prix en tant que tel, mais il n'y tellement pas assez de consommateurs pour rentabiliser leur solution que même s'ils étaient seuls, on n'utiliserait peut-être plus la solution en tant que tel. Et enfin...
Pierre Vannier (46:03)
Il a pas assez de consommateurs
parce qu'il a pas assez de valeurs perçues et de cas d'usage en fait. Et aussi parce qu'il y a aussi une grande force inversement proportionnelle à la force de traction de l'IA qui est que les gens en fait, il y a plein de gens qui n'ont pas envie d'utiliser l'IA. Qui pas envie en tout cas de l'utiliser, de devenir plus que des validateurs. Je valide, ok, non, ok, non, parce que ça va se transformer à... enfin...
Thomas (46:09)
Oui, mais...
Pierre Vannier (46:33)
Ça va vite vers ça, on le voit avec le métier du dev, du développement qui est de plus en plus ça. aujourd'hui on voit des gens qui one-shot une application et qui font une application avec un seul prompt direct et que l'application elle marche.
et les gens vont se retrouver à être des validateurs de ce qu'aura conçu Unia et ça plaît pas aux personnes parce que ça vient quand même toucher et amputer leur identité professionnelle, c'est à dire ce qu'ils font, ce qu'ils aiment faire, ce pourquoi ils se lèvent le matin, etc. Si tout le monde se retrouve à finalement juste être je valide, je confirme ou j'annule une action qui aura été faite par Unia pour toi, je sais pas comment les gens vont trouver le
qu'ils ont déjà du mal à trouver dans quelque chose où ils ont juste validateur.
Thomas (47:22)
ça a toujours
été le cas de toute façon avec les outils de traduction, les outils de création contenu actuellement, que soit les images, sons, vidéos. Aujourd'hui, nous on est touché par ça, mais on a aussi créé ça d'une certaine façon. faut juste l'assumer. Mais ce que je veux dire par là, c'est que si tu demandes, tu, si les entreprises d'intelligence artificielle oser de faire payer toutes leurs solutions, tu verrais qu'il y aurait beaucoup, beaucoup moins d'utilisateurs. Juste passer à un euro, un dollar. Mais aujourd'hui, on a beaucoup de produits qui sont gratuits. Et en fait, aujourd'hui, quand on parle des 800
Pierre Vannier (47:33)
Oui !
mais bien sûr, mais bien sûr.
mais je pense qu'en fait, sont...
Thomas (47:52)
millions d'utilisateurs.
Pierre Vannier (47:52)
Il faudrait payer 50 fois plus en fait.
Thomas (47:56)
Et ça c'est un sujet, mais si tu les fais, si tu fais payer à certains utilisateurs, ne serait-ce que 1 euro, les gens n'iraient pas. C'est ça moi que je suis en train de dire, c'est à dire qu'il a zéro outil libre et eux ils ont besoin de...
Pierre Vannier (48:06)
Mais parce qu'ils sont... ouais
mais tu sais pourquoi, parce qu'en fait là en ce moment ils sont dans une première phase qui est vitale, qui est l'acquisition maximale, l'acquisition du nombre maximal d'utilisateurs. Ensuite tu les rendes dépendants, tu les rendes dépendants avec tous les dark patterns qu'on a vu, etc etc... Tu crées une dépendance qu'on voit déjà chez les jeunes qui utilisent ChatGPT pour absolument toutes les questions qu'ils se posent. Personnel, pas personnel, tout, tout, la première réflexion c'est ChatGPT.
Donc une fois que tu créé des utilisateurs captifs, c'est là que tu mets tes offres avec tes prix, c'est là que tu défrais miomise et c'est là que tu vas commencer à mettre de l'argent et c'est là qu'ils vont revenir etc. La vraie question c'est est-ce qu'ils vont avoir suffisamment de temps d'acceptation par les investisseurs, d'aucune rentabilité voire de perte totale abyssal pendant le temps qu'ils récupèrent les users. Ça c'est pas évident. Pas évident.
Thomas (49:03)
et salut
!
ça nous permet peut-être d'aller sur le dernier sujet de l'épisode quand on voulait ramener ce qui était la partie santé. Je pense que c'est le bon moment aussi puisque tu parlais du fait qu'on se livre d'une certaine façon d'un point de vue complètement privé ou sur d'autres sujets. Donc le dernier point qu'on voulait aborder c'était concernant Anthropy qui avait proposé une solution un peu similaire concernant les données de santé. Et j'aimerais qu'on rentre tout de suite les deux pieds dans le plat donc
Tu veux présenter Pierre ou Djay ? Pour faire très simple, l'idée c'est une nouvelle solution en tant que telle mais qui n'est pas encore tout à fait visible et je ne pas comment ça va se matérialiser en tant que telle mais l'idée c'est de dire que...
Pierre Vannier (49:32)
Non, vas-y.
Thomas (49:44)
mais c'est déjà le cas en fait, on puisse parler directement à la chapeau de GPD ou à Claude de nos problèmes de santé pour qu'ils puissent nous conseiller, j'utilise bien le terme conseiller, sur des raisons ou des résultats médicaux. Le seul point qui est vraiment important c'est qu'en fait la différence avec cet outil c'est qu'ils vont directement demander des informations médicales et donc des antécédents, des informations...
Pierre Vannier (50:09)
attention les deux outils ne pas
exactement pareils dans le cadre de Claude dans le cadre de OpenAI et Anthropy ont pris deux parties différentes et ils attaquent deux marchés différents donc en tchat GPT santé va être effectivement comme tu dis en fait plus orienté utilisateur donc b2c alors que Claude Health est plus
Thomas (50:12)
Non, ils ne pas exactement pareils.
C'est vrai, c'est vrai.
Pierre Vannier (50:36)
Pour les chercheurs, les académiques, les entreprises qui veulent lancer des nouveaux produits, des nouveaux médicaments, éventuellement pour les professionnels, donc éventuellement les médecins. Donc plus quand même un aspect B2B, recherche quelque part, alors que Tchadjé Pété c'est effectivement toi, moi...
qui nous posons des questions par rapport à Et donc du coup, ça pose deux types de problématiques différentes pour les deux entreprises et puis pour les utilisateurs qui utilisent ces solutions. C'est pour ChatGPT tu l'as dit, c'est... Ben en fait, il faut quand même...
Thomas (50:55)
C'est
Pierre Vannier (51:12)
de conscience que c'est la possibilité de partager ces données de santé donc quand même relativement confidentiel avec avec ces boîtes noires même si c'est écrit noir sur blanc qu'ils utilisent pas les données pour entraîner rien n'empêche d'envisager et je crois qu'on en avait parlé mais tu tu en parlera toi tout à l'heure de on en avait parlé dans un dans un de nos podcasts parce qu'avec les data qu'ils auraient potentiellement je te laisse poursuivre
Thomas (51:40)
Au delà des données que nous partage dans la partie prompt où on dit nos informations et ce qu'on sait, surtout le chat GPT, ont peut-être fait un peu plus de communication là-dessus, ils proposeraient de fournir des informations d'autres devices. par exemple, et typiquement ça a été clairement mentionné, les Apple Watch mais plus principalement Apple Santé. Il y a aussi d'autres outils comme White Watchers et ce genre de choses. Mais je ne pas si vous allez vous rappeler,
avec Stéphanie à la Sonia, à un moment on en a parlé dans un épisode sur la santé, que ces données-là, initialement, on repart d'Apple, elles étaient très sécurisées, très sécuritaires, elles n'étaient pas partagées, elles étaient gardées chez Apple. Sauf que, on disait, mais à un moment, OpenAI ou équivalent vont avoir besoin de ces données-là. Et ces choses faites, sauf qu'ils le font d'une façon beaucoup plus...
Là pour moi c'est pernicieux, enfin c'est vicieux la façon dont ils le font c'est qu'ils vont proposer de partager les informations de ces outils là. donc nous de façon inconsciente on pourra donner nos informations d'une Apple Watch et ou à plus forte mesure Apple Santé mais pour moi tout est connecté et donc ça sera la même chose pour d'autres outils. Ce qui commence à poser problème puisque si encore une fois on n'est pas tenu au courant, on n'a pas conscience de la situation moi j'imagine tout à fait mes parents qui ont une Apple Watch partager sans aucun souci le jour où ont des maux de tête où ils se sentent mal.
des informations d'Apple Santé. Je voudrais quand même rebondir sur un truc après tu me diras ce que l'autre en pense Pierre, c'est que...
Moi, a un autre problème qui commence à arriver, c'est qu'en fait, on a beau protéger toutes nos données, on a beau ne pas les partager. Aujourd'hui, ces entreprises sont tellement grosses. Openeye fait partie du top 40 des plus grosses entreprises américaines en termes de capitalisation, même si elle n'est pas sur le marché boursier. Même si aujourd'hui, elles recherchent de l'argent, les enjeux ne sont pas du tout ceux que vous pouvez imaginer. En fait, ils ont tellement de possibilités, potentiel avec leur argent, leur cash, qu'ils peuvent tout faire. J'en suis arrivé au point où quand j'ai écrit quelques lignes pour le podcast,
je me suis dit mais en fait si et ce n'est pas mon cas comme ça vous êtes tranquille si jamais on utilise des données sur une balance connectée je sais pas j'ai pas de nom quoi que ce soit on partage ces données elles sont peut-être j'ai pas de nom on partage ces données là entre son téléphone et sa tablette dont son j'ai oublié sa balance pardon
Pierre Vannier (53:51)
Oui things par exemple, made in France.
iPad
ou watch.
Thomas (54:02)
Non, ça balance.
Ça ressemble à la même chose, mais aujourd'hui tout est connecté. Mais si aujourd'hui OpenAI, on ne pas donner ces informations à l'IA, mais si aujourd'hui OpenAI décide de racheter cette entreprise.
ils récupèrent nos données et on n'a pas le contrôle en fait là dessus. Et en fait on en arrive à une situation où on n'a plus le contrôle sur rien et ça revient aussi sur mon point d'appel et c'est peut-être ça moi, je dois lancer une alerte là dessus, enfin je dois montrer ma sensibilité là dessus, c'est qu'on arrive à un moment de la vie de l'intelligence artificielle et du poids de ces entreprises qui font que vous pouvez décider de ne pas donner vos données mais si vous avez décidé de donner vos données à quelque chose d'autre, à un autre outil, il existe un risque que le business model des entreprises type OpenAI
ou équivalent viennent à acheter d'autres entreprises juste pour leurs données puisque peut-être on parlera de deal à plusieurs centaines de millions mais en fait les données qui sont à l'intérieur pour leur outil elles vaut plus que des centaines de millions d'euros ou de dollars et là je suis dans une situation très embêtante puisque je commence à perdre de la confiance en beaucoup d'objets et d'outils puisque pour moi la santé c'est ce qu'il a de plus précieux et ce qui doit le moins être partagé en tant que tel.
Pierre Vannier (55:04)
Bien sûr.
Et c'est en ça qu'on reboucle là-dessus, c'est qu'on va vraiment arriver dans une ère où si on ne pas vraiment attention...
Par définition vos données elles seront volées, vous allez partager, vous allez vous faire pirater, enfin ça va arriver en fait. Parce que c'est très très dur en fait comme tu le dis, on est entouré de smartphones, entouré de smart speakers, entouré de mondes connectés, d'objets, la technologie est partout. Donc ça va être à part de se déconnecter absolument de tout.
ça va être extrêmement difficile de garder une certaine confidentialité de ces données. ça, va être vraiment des vrais très gros enjeux. Ça l'était déjà, mais je crois qu'aujourd'hui avec le Big Data et l'IA, ça va être encore plus d'actualité.
Thomas (56:11)
En fait le sujet c'est avec, et je pense que c'est un bon point de l'utiliser, un bit data quand on avait la période de bit data on savait pas comment utiliser une donnée. Il y avait quelques sujets, la détection de fraude, c'était un grand sujet, il y avait effectivement beaucoup de données. Aujourd'hui avec l'intelligence artificielle, toute donnée peut être utile et c'est peut-être ça le problème et sans dire que j'en suis inquiet, j'ai utilisé plusieurs termes là pendant l'épisode de podcast, mais je ne peux pas m'empêcher de penser à ceux qui ne sont pas conscients.
Et en fait le problème c'est ceux qui ne sont pas. En fait c'est ça mon point.
Pierre Vannier (56:38)
Mais il y en a Il a
95 % des gens qui sont peu ou pas conscients de tout ça.
Thomas (56:45)
plus ce que je veux dire par là c'est qu'on est obligé de rentrer là dedans aujourd'hui il a rien au monde qui va nous faire retourner en arrière si ce n'est des choses vraiment graves et dangereuses et j'aimerais qu'on n'arrive pas à ça je préfère qu'on rentre dedans plus qu'il a quand même du positif il a pas que du négatif mais par contre
il faut que tout le monde connaisse les règles du jeu. Et c'est souvent ce que je dis dans mon entourage proche, professionnel, quelle chance on a de faire ce podcast, de travailler dans ce domaine-là pour être conscient de tous ces sujets-là. Mais il a des gens, et je pense principalement aujourd'hui moi à mes parents, mes grands-parents, mais ça peut être aussi des enfants à plus forte mesure, ou des gens qui ne pas du tout du domaine, qui...
Pierre Vannier (57:19)
Ouais, a une étude qui
sort que les millénials, bizarrement, on croirait qu'ils sont complètement texte à vie, c'est à dire qu'en fait ils sont laîtrés au niveau numérique, ils arrivent vraiment à s'en sortir et c'est inné pour eux. Pas du tout, pas du tout, les millénials en fait ils sont presque moins bons que les boomers, tu vois. C'est marrant.
Thomas (57:39)
Mais sans parler... Ouais mais en plus moi c'est
même pas... Déjà c'est étonnant à première vue mais surtout c'est même pas ça. Ça me paraît évident qu'une personne de 14 ans, de 13 ans, donc je parle vraiment d'adolescents jeunes, n'est pas conscience de tout ce qu'il a derrière. Peut-être qu'à 20 ans tu en as conscience, tu te mets à aller sur les réseaux, tu vois un peu les limites et tout ça. Mais actuellement quand tu mets un enfant de 13 ans, et c'est le combat aussi de l'Europe, est-ce que c'est bien ou pas bien pour les réseaux, mais s'ils n'ont pas conscience de tout ce que ça implique. Et même nous on n'a pas conscience de tout ce que ça implique en tant que tel.
ils se font avoir à leur propre jeu puisque eux ils fournissent des infos, ils partagent des choses.
Pierre Vannier (58:16)
C'est pour ça que la cible des réseaux sociaux et des plateformes est en priorité les adolescents. Parce que c'est une population qui plus propice et qui a moins de barrières, etc. pour partager ces données.
Thomas (58:30)
Est-ce
que ces gens-là ont conscience du fait que les utilisations de ces données sur les réseaux sociaux ont des impacts sur les intelligences artificielles ? C'est tout ça que je suppose.
Pierre Vannier (58:41)
Non, non,
Et en fait, ta question, je pense qu'elle est beaucoup plus fondamentale que ça. C'est qu'au delà de se dire, j'ai conscience que mes données sont utilisées ou je sais ce qui va être fait avec mes données, etc. Avec l'intelligence artificielle et la génération des fake news.
ou des news faites par IA, altérées par IA, ou du contenu qui est fait avec des fermes de contenu, avec des influenceurs artificiels, etc., que tu ne pas discerner du vrai du faux, arrive pour la société un problème d'avoir la capacité de se dire que quelque chose est vrai.
quelque chose n'est pas vrai. Moi j'ai eu des étudiants mais j'ai aussi des jeunes et maintenant ça va se passer dans l'inconscient, on aura toujours en filigrane quelque chose qui nous dira « ouais mais en fait ça c'est une fake news » ou « fait ça je remets en question ». Donc tu as une problématique sur la notion commune de vrai, ce qui veut dire qu'en fait même si il savait derrière potentiellement
En fait, tout le monde aujourd'hui c'est des ragots, c'est des rumeurs, c'est des... Tu vois, on a démarré le podcast avec Claude Botte qui a fait une traînée de poudre sur tous les réseaux sociaux. Le truc il est sorti la veille. En fait, tout est manipulé, tout est poussé comme ça. Et comment on pourra s'accorder sur ce qu'est le vrai ou le pas vrai ? Tu vois ? Aujourd'hui on remet même en doute...
alors que c'est marqué dans leurs conditions d'utilisation, Term & Conditions, etc. Des grosses boîtes comme OpenAI, Cloud ou les grosses boîtes. Parce que dès qu'on voit marquer quelque chose, inconsciemment maintenant, on a la remise en question de se dire, oui mais ils écrivent ça, mais en vrai, ce qu'ils font, c'est qu'ils prennent toutes nos data et les entraînent. Mais du coup, mais quel est l'intérêt de... Tu vois ce que je veux dire ? On marche sur la tête en fait.
Thomas (1:00:35)
Non, je suis d'accord.
Je d'accord. Et ça sera, je pense, un bon point de conclusion pour ouvrir à la réflexion. Et je pense que c'est un point qui devient essentiel. Donc sans dire qu'on contre tout ça, il faut en avoir conscience maintenant. Et puis, aussi l'objectif de ce podcast, c'est de parler de ce genre de choses, de pas uniquement parler petit à petit. On a commencé à changer de sujet à travers le temps sur le podcast, mais c'est d'élever. Élever les cons... Moi, je préfère élever les consciences. Élever les consciences qu'à un moment, ça fait partie de notre vie.
Pierre Vannier (1:00:37)
C'est un vrai sujet hein !
on va dire à alerter, à culturer... Ouais, c'est ça.
Thomas (1:01:03)
même si on décide de vivre dans un bunker, il faut répondre à des emails. Les emails, en désirent maintenant. À partir de là, il faut assumer. Il faut assumer et c'est plus nous qui avons le contrôle, c'est quelque chose de beaucoup plus gros et global, mais par contre il faut avoir conscience de, quand on a le contrôle sur ce qu'on décide de donner ou non, être en pleine conscience de l'information qu'on peut fournir.
Pierre Vannier (1:01:24)
...
Thomas (1:01:25)
Est-ce qu'on conclurait pas là-dessus ?
Pierre Vannier (1:01:27)
J'adore, concluons tous par 5 minutes de pleine conscience. Merci beaucoup, merci à toi Thomas, merci à nos auditrices, auditeurs. J'espère que ce podcast vous aura plu. Ciao !
Thomas (1:01:31)
Bon, c'était super, merci beaucoup Pierre. Merci.
Salut !
