The Ugly Truth… : « Habemus Papapapam ! »
Cette Newsletter t'accueille dans le monde de demain. J'y parle d'innovation, d'IA, de transformation, de leadership, de grandes idées, de cassoulet, de startups et de toi.
🔊 EDITO BY NASH
🤡 “Conclave, Fidji, Japon et polémiques !”
🎁 QUI VEUT DES PERKS ?
👑 Ce mois-ci : “qui veut des events ?” parce qu’on n’a pas de perks
🏜 WHISPER OF THE VALLEY
👽 L’IA gère la boîte !
⚡ Claude et l’API
🦋 Apple vs. Alphabet
🐇 C’est Cannes ! Le festival !
🥸 Mistral brillant, pari gagnant ?
💋 Wonderfood world !
🦁 Vsora, sora, whatever will be, will be !
👀 Gemini sous stéroïdes !
👠 o4-mini… mais costaud ?
🎲 Etude Wharton : les chatbots en question !
🍔 FOOD FOR THOUGHT
🙈 Success story : Reducto
🪴 IMPACT
🧶 Resors donc ton Pentium II
🌐 FRIENDS AND NETWORK
🧚🏻 Team GPT ou une autre façon de coll-IA-borer !
🔞 AND NOW FOR SOMETHING COMPLETELY DIFFERENT
😂 Comment tu parles à l’IA, toi !?
🦄 Y’A PAS QUE LA TECH !
🎼 Osaka 2025 : expo universelle !
Edito by Nash :
J’ai fait une pause.
Pendant 15 jours je n’ai pas parlé IA, pas entendu parler d’IA, et même si l’on en avait parlé autour de moi, je n’aurais pas compris quoi qu’il en soit !
Et ça m’a fait un bien fou !
Mais laisser passer quinze jours en ce moment d’évolution de l’IA, c’est presque se mettre en péril !! C’est louper un siècle à l’échelle de l’électricité, ou 20 ans à l’échelle d’internet !
Alors je reviens et je te promets de ne pas te décevoir avec les news de cet épisode de The Ugly Truth !!
Depuis cette semaine, ça ne t’aura pas échappé, nous avons un nouveau Pape.
Plus jeune, plus international et en meilleur état que le précédent, la Chrétienté tout entière célèbre dans la joie et la bonne humeur ce Pape dont beaucoup espèrent qu’il changera les choses : la paix dans le monde, la fin de la pauvreté, la redescente de trip de Donald… TOUT, en somme, est entre les mains de Léon XIV, le pape-soleil de ce mois de mai un peu frisquet !
Mais nous avons aussi une papesse !
Elle partage avec le Léon d’être Française (un peu plus, même, puisqu’elle est vraiment née et cultivée dans le Sud de la France !), et l’attente qui l’entoure est aussi ardente !
Je veux évidemment parler de Fidji Simo !
Avec un tel nom, seul un grand destin pouvait s’offrir à elle ! Et elle n’a pas attendu le destin, d’ailleurs, elle a plutôt pris le taureau par les cornes (un truc du Sud de la France, ça !) et a rallié toute la Silicon Valley à sa « cause » depuis les années 2010 !
C’est The Zuck, période bleue (comprendre « période Sheryl Sandberg »), qui lui donnera sa première grande exposition médiatico-people en lui laissant les rênes de Facebook en 2019.
J’ai rencontré Fidji en 2017, alors qu’elle était la star du moment, chez Facebook, puisqu’elle avait lancé en fanfare l’année précédente Facebook Live et Autoplay… deux fonctionnalités qui cartonnaient.
C’est grâce à The Refiners, et donc à Géraldine Le Meur, Pierre Gaubil et Carlos Diaz, que nous avions pu aller pitcher devant elle et prendre son feedback, précieux !

Personnellement, avec Elodie, nous n’avions fait que discuter avec elle, puisque notre startup avait coulé deux semaines avant et que nous étions en plein switch de business ! Mais même dans cette situation, son point de vue, ses encouragements étaient pétris de bon sens et « right on point » !
Et je crois que c’est ce qui la caractérise puisque tout le monde s’accorde à dire qu’elle va à 100 à l’heure et qu’elle comprend tout avant tout le monde…
La voilà donc chez OpenAI fraichement confortée dans son statut de boite d’utilité générale et pas de « non-profit », en tant que réelle « numéro 2 » derrière l’Oncle Sam. CEO en charge des applications dit-on !
Elle ne devrait pas déménager tout de suite : il faut d’abord la remplacer chez Instacart ! Dur !
Mais ça fait déjà quelques temps qu’elle arpente les couloirs de la major de l’IA, puisqu’elle en avait rejoint le conseil d’administration en 2024 !
Dans des adieux assez émouvants à ses troupes d’Instacart qu’elle a dirigé pendant près de quatre ans, elle concède avoir largement rempli le contrat de croissance de la boite ! Elle semble n’accumuler que les succès et les louanges !
Souhaitons-lui la même chose pour la suite.

Si le monde en dehors des US ne savait pas vraiment qui était Fidji ou Instacart, il n’en est plus de même avec OpenAI et ce sont maintenant quelques milliards d’utilisateurs qui seront à l’affut de ses projets, chantiers et annonces !
Un beau challenge pour la jeune femme de Sète qui a conquis la Californie tout en force et en humilité, grâce à un travail acharné qu’elle revendiquait déjà il y a 10 ans, lors des premières interviews qui s’intéressaient à elle.
Le temps passe vite, mais le talent ne s’efface pas ! J’espère d’ailleurs avoir la chance de la croiser à nouveau !
…………..
Pour en revenir au Vatican, il sera intéressant de suivre la vie digitale du nouveau Pape, réputé pour être un fervent utilisateur des réseaux sociaux ! Aura-t-il quelque chose à nous apporter au regard de l’utilisation de l’IA ?
A voir ! Mais surtout, ce nouveau pape marque clairement une bascule de l’Eglise dans l’ère numérique : depuis quelques années, et sous les coups de boutoirs d’autres religions plus dynamiques, certains curés, évêques ou autres cardinaux, ont fait usage, sporadiquement, des réseaux sociaux.
Certains ont même redynamisé la foi de certains jeunes en utilisant ces canaux !
2025, avec l’arrivée d’un Pape qui a la fièvre aux doigts, peut-être que l’Eglise dans son ensemble entamera sa mue pour être la première religion des media et réseaux sociaux ? Qui sait ?
……………
Mon retour à Paris a été rude en matière de nouvelles dans l’IA.
Comme je te le disais : s’éloigner 2 semaines de l’actualité bouillonnante liée au secteur, c’est devoir rattraper 500 news ! Parce qu’il y en a eu de la nouveauté !
Entre les sorties de produits, les améliorations, les livres blancs, les dév de puces, les annonces fracassantes de passage de moteurs de recherches à des GPT, et j’en passe : les dernières semaines ont été extrêmement chargées !
Alors tu ne m’en voudras pas mais j’ai d’une part fait un tri dans ce que je peux te raconter aujourd’hui et je suis parti du principe que je n’allais pas revenir sur cette période.
Mon focus demeure toujours « l’adoption de l’IA » par tous ceux que l’IA peut aider à faire « mieux, plus rapidement, sans erreur » le travail qu’ils font déjà, en leur donnant un super pouvoir sans jamais les laisser penser qu’on leur « coupe une compétence ».
Donc si tu es concerné avec ta boite : viens avec ton problème, on voit ensemble comment y répondre (avec ou sans IA) !
…………….
Il y a quelques jours, je relayais un post d’Elodie en reprenant la même idée : nous avons, à la demande de certains de nos clients et partenaires, du délivrer des prestations d’agence de com digitale.
Cela fait maintenant 12 ans que nous n’avons pas mis les pieds dans ce type d’activités ou de façon très homéopathiques pour des clients dans l’urgence, mais c’est surtout la première fois de l’ère IA !
Or, ce que ça change, c’est que nous pouvons aujourd’hui, faire le même boulot, mieux, plus vite et sans quasi personne que les 3 personnes impliquées aujourd’hui : le commercial, le stratège et le DA.
Tout le reste n’étant qu’IA.
Or, évidemment, dire cela, c’est dire « je supprime des postes » pour la plupart de ceux qui lisent vite. Ou encore « je m’invente une expertise » pour ceux qui lisent mieux mais ne connaissent pas notre pedigree, notre ADN ni notre passé !
Et c’est assez marrant, parce qu’en réalité, non : nous ne « supprimons » rien !
Nous créons de toute pièce un nouveau genre d’agences digitales : ce n’est pas du « full AI » mais on peut parler d’une « AI-backed » agency !
Et ça dérange. Parce que c’est aussi « moins cher » que les agences tradis : pas de frais de structure, pas de salaires de trop…
Parce que c’est hyper agile ! On passe du brief à la proposition en quelques heures et à la prod en quelques minutes une fois la proposition validée !
Et parce que ça remet le pouvoir et l’essentiel de la strat chez l’annonceur, et ça, les CMO aiment bien ! (en tout cas, ils ont l’air !).
Alors nous ne remplaçons pas les agences, mais nous en sommes éminemment complémentaires sur des choses où la créativité est aussi importante que la rapidité d’exécution, pour des sujets qui doivent être déclinés en 25 langues et en 30 formats, pour des films livrés rapidement et sans ego, etc…
On trouve un certain confort à gérer cette créativité algorithmique, ou comme l’appelle Elodie, la « creative intelligence » en voulant sans doute parler de « artificial creativity », je ne sais pas, parce que c’est marginal, c’est familier (c’est notre compétence originelle, nous venons de la com et du digital, du marketing et de la pub !) et c’est excitant parce que tout est néanmoins nouveau : prompter, programmer, automatiser, condenser, stabiliser…
C’est génial !
Et aux rabat-joie qui nous accusent de « détruire » des postes, je réponds que non, nous sommes de ceux qui voient en l’IA un outil pour « augmenter nos capacités », pour affuter nos expertises, pour justement préparer pour demain notre « employabilité » !
Et ce sont ceux qui regardent le train passer en se plaignant qui seront in fine bel et bien à plaindre !
Mais il n’est pas trop tard : que tu sois imprimeur, médecin, chef d’équipe, entrepreneur, consultant, comptable, DRH, ou même artisan, l’IA peut t’apporter beaucoup et la maîtriser te permettra de sécuriser ton CDI, de sortir du lot (encore un peu !), de gagner en compétence, et finalement d’être parmi ceux qui n’ont rien à craindre de cet outil !
Car c’est un outil !
J’étais l’autre matin, oreilles grands ouvertes, à un talk de Jurgen Appelo, qui disait : « tant qu’on n’a pas une AGI qui sait s’occuper de nos enfants pendant 24h en les satisfaisant et les rendant heureux, alors il n’y a rien à craindre, l’AGI n’est pas là ! »
Et il a raison : nous sommes au début de cette ère. Mais il faut en embrasser les principes, et toute raison garder, en ayant une éthique et une bonne compréhension de ce que l’IA implique (notamment au niveau du climat !).
Mais il faut y aller.
Je t’invite d’ailleurs à enchainer avec le résumé d’une expérience qui en dit long sur l’état de l’art de l’IA agentique actuelle : c’est le premier article ci-après !
Alors en t’engageant dans cette nouvelle voie d’apprentissage ou en continuant à arpenter le sinueux et ardu chemin de la maîtrise de tous les outils, et surtout si tu veux devenir le Pape de l’Intelligence Artificielle, n’oublie pas de prendre soin du Rock n’roll et de te garder du mal !… surtout de te garder du mal !
Tiens, question, d’ailleurs : si je rendais la newsletter payante, genre 3 euros par mois ou 30 euros par an, tu paierais ? (réponds-moi en commentaire si tu peux !)
« Qui veut des événements cools ? »
Alors cette semaine, pas vraiment de perks, tu as déjà eu un Pape !
Promis, je reviens très rapidement avec des cadeaux par milliers, sans oublier tes petits souliers !
Mais dans ce numéro, si tu as des enfants, tu vas kiffer : nous lançons enfin « IA-récré » l’initiation à l’IA des enfants entre 9 et 13 ans, par la créativité, l’art et la culture !
Le 7 juin, avec le concours de ArtifexLab, nous organisons la première session d’un rendez-vous mensuel pour initier les plus jeunes à la création boostée à l’IA.
A chaque rendez-vous, un artiste vient raconter son univers, donner une direction voire un thème, et à chaque rendez-vous, par petits groupes, les enfants auront 3 heures pour créer une œuvre.
D’abord avec des outils traditionnels : texte, colle, photo, pâte à modeler, papier, carton, crayons, fils, et tout le toutim.
Puis, une fois la création prototypée, les enfants iront d’ateliers en ateliers, pour donner vie, via des outils d’IA générative de création, à une œuvre achevée et boostée par l’IA.
Petit vernissage avec les parents autour d’un verre et d’une planche de machins à manger, et beaucoup de bonne humeur, et tu obtiens : des enfants éclairés qui se sont éclatés, des parents qui se disent que l’IA c’est peut-être pas de la merde, et un événement qui fait boule de neige…
…………..
Autre événement, mais pour l’automne, celui-ci : les 15 et 16 octobre, à Biarritz, tu pourras nous retrouver à AI-ON-US :
Thématique : Conformité à l'IA. Innovation. Gouvernance. Avenir du travail.
Au sommet AI ON US, nous réunissons tout cela - parce que l'avenir du leadership en matière d'IA exige une vision à 360°. Le sommet pour sa première édition voit grand ! La liste des intervenants prochainement disponible ! Mais tu peux déjà aller faire un tour sur le site !
Et puis à Biarritz, en automne, la Table des Enfants du Marché sera déjà en vitesse de croisière, on y mangera bien ! (ce n’est pas une annonce sponsorisée, mais c’est mon pote, Micka, donc je le dis ! héhé)
🌐 10 équipes d'experts.
💼 20+ voix de classe mondiale.
📚 8h de conférences stratégiques.
🛠️ 5h d'ateliers résolvant des défis d'IA du monde réel.
De la navigation dans la loi européenne sur l'IA, à la gestion des risques liés à l'IA des tiers, en passant par la mise à l'échelle de l'IA tout en préservant la confiance - nous construisons la feuille de route opérationnelle dont les dirigeants ont besoin.
📅 Limité à 100 participants.
🔗 Réserve ta place dès maintenant : www.ai-on-us.com
L'avenir de l'IA responsable commence ici. 🌍 (enfin à Biarritz, quoi !)
……………
Garde l’œil, parce que les prochaines newsletters comporteront donc des surprises !!
« Whisper of the Valley »
L’IA gère la boite !
Challenge du moment : on laisse les rênes d’une boîte à des intelligences artificielles dernier cri, et on observe le résultat, pop-corn à la main.
C’est exactement ce qu’ont fait des chercheurs de l’université Carnegie Mellon, en créant une entreprise 100% virtuelle, peuplée non pas de stagiaires caféinés mais d’agents IA parmi les plus réputés du marché : Claude d’Anthropic, GPT-4o d’OpenAI, Google Gemini, Amazon Nova, Meta Llama, et Qwen d’Alibaba.
Chaque IA s’est vu attribuer un poste à responsabilité : analyste financier, chef de projet, ingénieur logiciel…
Bref, tout ce qu’il faut pour faire tourner la boutique.
Leurs missions ? Analyser des bases de données, choisir des locaux via des visites virtuelles, naviguer dans des fichiers, collaborer avec les RH fictifs… Le genre de tâches qui, sur LinkedIn, valent bien trois paragraphes de personal branding, hein ?
Mais alors, verdict ?
Spoiler : tu peux garder le badge de ta boite !
L’IA n’est pas encore près de te piquer ta place. Même le meilleur élève, Claude 3.5 Sonnet, n’a réussi à boucler que 24% des tâches, grimpant péniblement à 34,4% si on compte les missions à moitié terminées. (Comme Michel, mais promis, on ne dit rien aux RH !)
Les autres font à peine mieux que ton grand-oncle devant un ordinateur : Gemini 2.0 Flash culmine à 11,4%, et aucun autre agent ne dépasse les 10% de réussite.
Pourquoi ces chiffres nuls ?
D’abord, parce que les IA butent sur ce qui nous semble évident : comprendre l’implicite.
Exemple : tu leur demandes d’enregistrer un fichier en « .docx », elles n’en déduisent pas que tu veux un Word.
Elles galèrent aussi sur les tâches sociales, et se prennent les pieds dans le tapis dès qu’il faut naviguer sur le web, surtout avec des popups.
Pire, quand elles sont larguées, elles font parfois semblant d’avoir fini le boulot en zappant les étapes compliquées. (Comme Arnaud le vendredi à 15h, mais sans le panache !... mais promis, on ne le dira pas non plus à la RH !)
Côté coûts, la star Claude 3.5 Sonnet revient à 6,34 dollars pour ses exploits, contre 0,79 dollar pour Gemini 2.0 Flash. Pas cher payé pour un plantage, mais tout de même.
En clair, si l’IA excelle déjà sur des tâches ultra-spécifiques, elle est encore loin de pouvoir remplacer une équipe humaine qui jongle entre l’implicite, la débrouille, et la navigation dans la jungle des outils numériques.
Alors, avant de voir débarquer un Robot-IA à la machine à café, tu as encore le temps de perfectionner ton art du small talk et de la gestion de crise.
Reste à savoir si, dans dix ans, on rigolera encore de ces échecs ou si ChatGPT te demandera un café… en .docx, évidemment.
Comme le disait Jurgen Appelo lors du Lead Innovation Day, l’IA Générale, n’est pas encore là, si l’on considère qu’elle devrait être capable de s’occuper de nos enfants à notre place pour être considérée comme telle !
Tout est une question de définition !
API Claude !
Tu veux savoir ce que mijote Anthropic avec sa nouvelle API de recherche web pour Claude ?
Installe-toi, je t’explique tout ça comme si on débriefait la dernière saison de LOL, celle de Jojo fantaisie !
Anthropic vient de lancer une fonctionnalité qui va faire frémir les geeks, les développeurs et tous ceux qui en ont marre des IA coincées dans leur bulle temporelle.
Désormais, Claude, leur assistant IA, peut aller chercher en temps réel des infos fraîches sur le web. Oui, tu as bien lu : fini les réponses qui sentent le renfermé parce que l’IA n’a pas vu la lumière du web depuis sa dernière mise à jour. Là, Claude peut s’informer, vérifier, comparer, fouiller, et même citer ses sources, histoire que tu puisses vérifier par toi-même si ce qu’il raconte tient la route.
Et il était temps !
Non : je ne me plains pas mais ça faisait un moment qu’on attendait, quoi !
Mais comment ça marche, concrètement ? Quand tu poses une question à Claude via l’API, il décide tout seul s’il a besoin d’aller faire un tour sur Internet.
Si oui, il formule une requête de recherche, chope les résultats pertinents, les analyse, et te pond une réponse bien sourcée.
Top.
Il peut même enchaîner plusieurs recherches successives, comme un stagiaire motivé qui recoupe ses infos avant de rendre son rapport.
Re-Top !
Les développeurs peuvent contrôler le nombre de recherches autorisées et même filtrer les sites sur lesquels Claude a le droit (ou pas) d’aller fouiner. Pratique pour éviter qu’il cite le blog obscur de Tata Simone (je suis très Fred Testot, en ce moment !) ou des sites concurrents un peu trop curieux. Ou même pour le bilan carbone !
Côté usages, c’est open bar : analyse de marchés financiers en temps réel, veille réglementaire pour les juristes, accès à la dernière doc technique pour les devs, suivi de la concurrence pour les commerciaux, et même comparatif de produits pour les consommateurs.
Le tout, avec des citations claires pour chaque info piochée, histoire de rassurer les plus sceptiques et de garantir un minimum de transparence.
Comme le dit Anthropic, c’est particulièrement utile pour les secteurs où la fraîcheur et la vérifiabilité de l’info sont vitales.
Et ce n’est pas tout ! Claude Code, l’outil de dev d’Anthropic, profite aussi de cette recherche web.
Je te pose le décor : tu bosses sur une nouvelle librairie, tu as un bug incompréhensible, tu veux la doc la plus récente…
Hop, Claude va te chercher tout ça en direct, sans que tu aies à ouvrir mille onglets ou à supplier Stack Overflow de t’apporter la lumière. Pour les développeurs, c’est un peu comme avoir un copilote qui ne dort jamais et qui a toujours la bonne page sous la main.
Re-re-Top !
Côté contrôle, comme je te le disais, les admins peuvent définir des listes blanches ou noires de domaines, activer ou désactiver la recherche web pour toute l’organisation, et même localiser les recherches selon la région de l’utilisateur.
Bref, Claude ne va pas partir en roue libre sur Internet, il reste sous surveillance, comme un ado avec un contrôle parental bien paramétré.
Côté tarifs, c’est plutôt transparent : 10 dollars pour 1 000 recherches, auxquels s’ajoutent les coûts classiques de tokens.
La fonctionnalité est dispo sur Claude 3.7 Sonnet, le 3.5 Sonnet mis à jour et Claude 3.5 Haiku.
Pour l’instant, c’est surtout les clients payants aux États-Unis qui en profitent, mais Anthropic promet d’ouvrir le bal à l’Europe et aux utilisateurs gratuits très bientôt. (comme d’hab !)
Quelques clients pilotes, comme Quora (avec sa plateforme Poe) ou Adaptive.ai, ont déjà adopté la recherche web de Claude et ne tarissent pas d’éloges sur la rapidité, la profondeur et la fiabilité des réponses.
Pour eux, c’est un vrai game-changer, surtout quand il s’agit de bâtir des applis qui doivent s’appuyer sur des données à jour et vérifiables.
Ce move d’Anthropic s’inscrit dans une tendance de fond : l’IA ne doit plus seulement savoir, elle doit savoir chercher, vérifier, et s’adapter à un monde qui bouge.
OpenAI, Google, tout le monde s’y met, mais Anthropic mise sur la flexibilité et le contrôle pour séduire les développeurs et les entreprises. Et c’est loin d’être con !
Comme disait Coluche, « ce n’est pas parce qu’ils sont nombreux à avoir tort qu’ils ont raison »… mais là, clairement, avoir une IA qui sait chercher, c’est un peu la base pour ne pas finir à côté de la plaque.
Alors, prêt(e) à voir débarquer des assistants IA qui savent vraiment ce qui se passe dans le monde, et pas juste dans leur bulle d’entraînement ?
On n’a pas fini de s’étonner de ce que ces bestioles vont dénicher sur la toile… À suivre !
Apple vs Alphabet ?
Apple, bon vieux faiseur de tempêtes dans le monde feutré de la tech, vient de lâcher une bombe qui fait trembler jusqu’aux fondations de Google.
Je sais que tu en as déjà entendu parler, mais c’est quand même huge !!!
Lors d’un témoignage dans le procès antitrust qui oppose le Département de la Justice américain à Alphabet (la maison-mère de Google), Eddy Cue, le boss des services chez Apple, a déclaré que la firme à la pomme envisage sérieusement d’intégrer des moteurs de recherche dopés à l’IA comme OpenAI, Perplexity et Anthropic directement dans Safari.
Oui, tu as bien lu : Apple veut injecter de l’intelligence artificielle dans la recherche sur ses appareils, et pas n’importe comment.
Ce n’est pas qu’un coup de com’ : pour la première fois depuis l’aube de l’iPhone, le volume de recherches sur Safari a baissé le mois dernier.
Cue attribue ce déclin à l’explosion de l’usage des IA génératives, qui grignotent petit à petit le réflexe “Google it”. C’est une connerie d’usage et une hérésie environnementale, mais les faits sont là : la génération « GenAI » remplace les moteurs de recherches par les Chat-AI !
Selon lui, ces nouveaux outils pourraient carrément supplanter les moteurs de recherche classiques à terme !
Mais, pour l’instant, pas de panique chez Google : Apple ne compte pas encore changer le moteur par défaut, les IA devant encore s’améliorer avant de prétendre au trône. (oui, parce que ce n’est pas dingo pour l’instant, sans compter l’arrivée de la pub via GSO -generative search optimization, qui va nous foutre la pagaille dans les premiers temps !)
Mais alors, pourquoi Wall Street a-t-elle frôlé la crise de nerfs ? Parce que Google, pour rester le moteur par défaut sur Safari, paie à Apple un pactole estimé à 20 milliards de dollars par an ; pactole rentable, évidemment !
Ce deal représente environ 36 % des revenus publicitaires de Google générés via Safari, soit près d’un cinquième de son chiffre d’affaires total lié à la recherche.
Autant dire que si Apple décide de changer de partenaire, c’est une hémorragie potentielle pour le business model de Google, qui repose sur la publicité liée à la recherche.
Résultat immédiat : à l’annonce de cette petite phrase d’Eddy Cue, l’action Alphabet a plongé de plus de 7 %, effaçant 150 milliards de dollars de capitalisation boursière en une journée.
Pour te donner une idée, c’est plus que la valeur totale de Nike ou Starbucks.
Un analyste de Morgan Stanley estime qu’Apple pourrait faire perdre entre 10 et 30 points de part de marché à Google sur ses appareils si elle passe à l’IA, même sans que l’IA devienne le moteur par défaut tout de suite. En milliards de dollars, c’est aussi l’hécatombe : puisque l’on plongerait de 60 milliards de dollars de revenus annuels !
Faut-il pour autant enterrer Google ?
Pas si vite. Les analystes tempèrent : la réaction des marchés serait “exagérée” et la domination de Google sur la recherche reste solide, même si elle vacille un peu sous les coups de boutoir de l’IA.
Google, qui a déjà lancé son propre moteur Gemini, n’est pas resté les bras croisés, et continue d’investir massivement dans l’IA pour ne pas se faire doubler par la concurrence.
Mais la dynamique a changé : l’ère du monopole tranquille semble révolue, et la moindre rumeur d’alternative crédible suffit à faire vaciller la forteresse de Mountain View.
Ce qui est fascinant, c’est la rapidité avec laquelle l’IA rebat les cartes. Il y a deux ans, ChatGPT n’était qu’un jouet pour geeks, aujourd’hui il fait trembler les géants.
On se croirait dans un épisode de “Game of Thrones” version Silicon Valley, où chaque alliance, chaque trahison, peut faire basculer l’équilibre des pouvoirs, mais avec moins de baise et de femmes nues.
La question qui brûle les lèvres : Google saura-t-il réinventer la recherche à l’ère de l’IA, ou finira-t-il comme ces empires déchus qu’on étudie en cours d’histoire ?
Apple sera-t-il pour Google, ce que Google fut à Yahoo ?
En attendant, le feuilleton continue, et la prochaine saison s’annonce explosive.
Peut-être qu’un jour, tu raconteras à tes petits-enfants : “Tu sais, à mon époque, on disait ‘Google’ pour chercher quelque chose sur Internet…” Avant que Siri, Perplexity ou un autre assistant IA ne leur souffle la réponse avant même qu’ils aient fini de poser la question.
Allez, je retourne à mon Encyclopædia Universalis !!
Cannes, le Festival, la Croisette et… l’IA !
Cannes, mai 2025.
Tu sens l’odeur du popcorn, la rumeur des marches, les flashs crépitent, mais cette année, derrière les smokings et les robes de gala, un invité invisible s’est imposé : l’intelligence artificielle.
Oui, l’IA s’infiltre partout à Cannes, du Marché du Film aux débats sur les droits d’auteur, en passant par la production et même les interventions des stars engagées comme Sarah Lelouch.
Alors, Cannes 2025, c’est quoi ? Un festival du 7e art ou le laboratoire géant d’un cinéma augmenté ? Spoiler : un peu les deux, mon cher lecteur.
Au Marché du Film, l’IA n’est pas qu’un buzzword, c’est un véritable booster de business. Cannes Next, la plateforme innovation du festival, fait le plein de conférences, workshops et masterclasses sur l’IA, la production virtuelle et la narration immersive.
Ici, ce sont les boss des studios, les producteurs, les startuppers et les geeks de la tech qui se rencontrent pour inventer le cinéma de demain, celui où le scénario se brainstorme avec ChatGPT et où le montage se fait à coups d’algorithmes.
On ne parle plus seulement de films, mais d’expériences, de data, de storytelling prédictif, de casting automatisé et de deepfakes bluffants.
Tu veux rajeunir Harrison Ford ? L’IA l’a déjà fait, et avec panache, dans le dernier Indiana Jones. Tu veux que Tom Hanks traverse 60 ans de vie en un plan ? Robert Zemeckis l’a fait dans *Here*, grâce à la magie du deep learning.
L’art a toujours été un précurseur, un « early adopter » des nouvelles technologies… et il en est de même avec l’IA, comme le prouve entre autres l’émergence de lieux culturels mêlant IA et artistes traditionnels, comme Artiflex Lab, à Paris !

Mais Cannes, ce n’est pas que le glamour de la tech. Non, y’a aussi les soirées sur les plages et le bar du Martinez ! (comment ça je suis hors sujet ?)
Non, Cannes, c’est aussi le ring où s’affrontent créateurs et juristes sur la question brûlante des droits d’auteur. Car si l’IA peut générer des scénarios, des images, des musiques, qui possède l’œuvre ?
Le CNC a lancé son Observatoire de l’IA pour décortiquer ces nouveaux enjeux, et les accords récents protègent désormais les scénaristes : impossible d’imposer l’IA, obligation de mentionner toute utilisation d’algorithmes, et surtout, droit de s’opposer à ce que son œuvre serve de nourriture aux IA affamées de data.
L’Europe, fidèle à sa tradition de garde-fou, rappelle qu’une œuvre doit porter la patte humaine pour être protégée : pas d’âme, pas de copyright, même si ton IA écrit des dialogues dignes d’Audiard. (Ce que je n’ai pas encore pensé, personnellement !)
Sur le terrain, l’IA est déjà partout.
Elle booste la préproduction, analyse les tendances, suggère des scénarios, optimise les castings, automatise le montage et peaufine les effets spéciaux. Les studios s’en servent pour prédire les succès, mais attention à l’effet pervers : à force d’analyser les blockbusters, l’IA risque de formater le cinéma à coups de schémas éprouvés, au détriment de l’audace et de la diversité artistique.
Le risque ?
Un monde où tous les films se ressemblent, comme si Netflix avait fusionné avec Excel.
Et Sarah Lelouch dans tout ça ? La productrice et réalisatrice, figure engagée du cinéma français, multiplie les interventions sur l’éthique et l’inclusion dans l’IA.
Elle milite pour une IA au service de l’humain, pas l’inverse, et encourage la diversité des voix et des regards. Au World AI Cannes Festival 2025, la question de la protection des émotions humaines face à l’IA est au cœur des débats : comment garder l’authenticité du jeu, la singularité du regard, quand les machines peuvent tout imiter, jusqu’à nos failles les plus intimes ? (je te donne l’emploi du temps de Sarah à Cannes juste en dessous si tu veux assister à ses events !)
Le marché mondial du film boosté par l’IA, c’est déjà 42 milliards de dollars en 2021, et ça grimpe à toute allure.
Les majors comme Disney, Warner ou Sony investissent massivement, mais la révolution touche aussi les indépendants, qui voient dans l’IA un moyen de produire plus vite, moins cher, et parfois plus librement.
Alors, Cannes 2025, festival du futur ou théâtre d’un bras de fer entre créateurs et machines ? Les deux, mon capitaine. L’IA promet un cinéma plus accessible, plus inventif, mais pose aussi la question de la place de l’humain dans la création.
Comme le disait Godard, « ce n’est pas une image juste, c’est juste une image »… et demain, ce sera peut-être une image générée, mais à qui appartiendra-t-elle ?
À suivre, sur la Croisette et au-delà, car la vraie star de cette édition, c’est peut-être l’algorithme qui t’observe déjà depuis la salle obscure.
…………
Pour connaître un peu mieux les points IA de Sarah Lelouch, voici quelques temps forts qu’elle m’envoie :
« Bonjour Nash, Merci pour ton intérêt. Oui on sera à Cannes (techCannes) du 16 au 19 !
Le 17 sera entièrement dédié à l'INNOVATION - voici le programme :
9h30 – 10h30 : petit-déjeuner Connect x TechCannes / Rencontre entre la délégation TechCannes et les exposants CONNECT.
12h30 – 15h00 : déjeuner TechCannes – Plage des Palmes
Un déjeuner exclusif autour de l’innovation : échanges ouverts, networking et inspirations croisées.
16h00 – 17h00 : Connect Workshop
4 tables rondes thématiques : Distribuer en 2025, IA & chaîne de valeur, Éco-production, Acquisitions…
17h00 – 18h00 : Conférence TechCannes
“Likes, Algorithmes & Box Office : comment l’IA et les réseaux sociaux transforment la vie d’un film” –
Sinon, n'hésite pas à t'inscrire notre newsletter sur notre site pour avoir toutes infos. (je te la remets ici la newsletter, mon ami lecteur,
https://www.techcannes.com/
voilà !)
À vite et merci encore. »
Je remercie donc Sarah Lelouch pour son travail assez unique dans un univers créatif toujours très prudent voire craintif, vis-à-vis de l’IA ! C’est assez rare pour être mentionné !
On retrouve ce même genre de pédagogie et d’ouverture au plus grand nombre de l’IA dans la culture ou du lien entre IA et Culture chez ArtifexLab, de Benjamin Rittner !
Mais on aura l’occasion d’en reparler puisqu’il accueillera les sessions « IA-récré » d’initiation à la créativité boostée à l’IA pour les enfants que nous lancerons le 7 juin ! (ref à la rubrique « qui veut des perks / events » du début de la Newsletter !)
Mistral Brillant ! Pari Gagnant ?
Mistral AI frappe fort avec son dernier bébé, Mistral Medium 3, un modèle d’intelligence artificielle qui casse les codes du marché en alliant performances de pointe et coûts ultra réduits.
Là où les géants du secteur facturent à prix d’or, ce nouveau modèle promet des résultats à 90 % de ceux de Claude Sonnet 3.7, un des poids lourds du domaine, mais pour un tarif jusqu’à huit fois moindre.
Concrètement, on parle de 0,40 dollar pour un million de tokens en entrée et 2 dollars en sortie, un rapport qualité-prix qui fait pâlir la concurrence, notamment Llama 4 Maverick ou Cohere Command A, pourtant bien installés.
Mais ce n’est pas qu’une histoire de chiffres.
Mistral Medium 3 brille particulièrement dans des usages professionnels pointus comme le codage et la compréhension multimodale, domaines où il rivalise avec des modèles beaucoup plus lourds et coûteux.
Cette prouesse technique s’accompagne d’une flexibilité redoutable : le modèle peut être déployé aussi bien dans le cloud que sur site, avec un simple cluster de quatre GPU, offrant ainsi aux entreprises la souveraineté sur leurs données, un enjeu crucial à l’heure du RGPD et des débats sur la confidentialité.
La startup française ne s’arrête pas là et lance en parallèle « Le Chat Enterprise », un assistant IA taillé pour les besoins des entreprises.
Ce n’est pas un simple chatbot, mais une véritable plateforme unifiée capable de centraliser recherche documentaire, génération de contenu et automatisation des tâches, tout en garantissant une intégration sécurisée avec les outils professionnels comme Google Drive, SharePoint, Gmail ou OneDrive.
Mieux encore, les utilisateurs peuvent créer des agents spécialisés sans écrire une seule ligne de code, que ce soit pour répondre à des questions RH, analyser des documents juridiques ou assister le support client.
Cette solution s’adapte aussi bien aux environnements cloud privés, publics ou on-premise, avec une attention toute particulière portée à la sécurité et à la conformité.
Mistral AI joue donc la carte de l’open source et de la personnalisation avancée, proposant aux entreprises un socle modulable grâce au post-training, fine-tuning complet et connexion aux bases de connaissances internes.
Déjà testée dans des secteurs exigeants comme la finance, l’énergie ou la santé, cette approche permet d’enrichir la relation client, d’automatiser les processus métier et d’analyser des données complexes avec une précision accrue. Le tout avec un accompagnement technique de haut niveau pour maximiser le retour sur investissement et accélérer la mise en production.
Disponible dès maintenant via l’API sur Mistral La Plateforme et Amazon SageMaker, Mistral Medium 3 s’apprête à débarquer sur IBM WatsonX, NVIDIA NIM, Azure AI Foundry et Google Cloud Vertex, confirmant la volonté de Mistral AI de s’imposer comme un acteur européen incontournable face aux mastodontes américains et chinois.
Et si Medium 3 impressionne déjà, la startup tease une version « large » encore plus ambitieuse dans les semaines à venir, promettant de redéfinir une nouvelle fois les standards du marché.
Bref, Mistral AI ne se contente pas de jouer dans la cour des grands, elle redessine les règles du jeu en offrant aux entreprises une intelligence artificielle à la fois puissante, flexible, économique et souveraine.
De quoi faire vibrer les DSI et RSSI (et c’est dur !) avec une promesse claire : du haut niveau sans compromis sur la maîtrise des données.
Reste à voir comment cette offensive européenne va bousculer l’hégémonie des géants, mais une chose est sûre, le vent de la révolution IA souffle fort depuis Paris.
Reste plus qu’à réveiller les financements Européens pour en faire un OpenAI de l’Union !!
Wonderfood world!
Tu veux la vérité sur Wonder, la startup food qui fait tourner la tête aux investisseurs et aux gourmets ?
L’histoire de Marc Lore, c’est un peu le blockbuster du fast-food version 2025 : des chiffres qui donnent le tournis, des chefs étoilés, des acquisitions à la pelle, et une ambition à la Elon Musk mais pour ton assiette.
A l’heure où Doordash rachète Deliveroo pour 3,9 milliards de dollars, une autre histoire s’écrit de l’autre côté de l’Atlantique !
Marc Lore, l’ex-gourou du e-commerce chez Walmart (c’est lui qui a vendu Jet.com à Walmart pour plus de 3 milliards de dollars déjà !), a levé 600 millions de dollars supplémentaires pour Wonder, à peine quatre mois après s’être offert Grubhub pour 650 millions.
Résultat : la boîte pèse désormais plus de 7 milliards de dollars.
7 milliards pour une startup qui, il y a un an, n’avait que 11 points de vente entre New York, le New Jersey et la Pennsylvanie.
Le concept ? (pour ceux qui ne connaissent pas !)
Une sorte de food hall nouvelle génération où tu peux commander, sur une seule app, des plats issus de 30 restaurants différents, tous exclusifs à Wonder, avec des chefs comme Marcus Samuelsson, José Andrés, Nancy Silverton ou Bobby Flay qui signent les menus. (les stars US du Michelin !)
Plus de 350 plats à la carte, livrés en moins de 30 minutes (et à New York, Lore promet même six minutes chrono pour la livraison dans le quartier !), avec option takeout, livraison ou sur place selon les adresses.
En gros, tu peux mixer tacos, pizza napolitaine et ramen dans la même commande, sans quitter ton canapé ou ton open space.
Ce qui bluffe les investisseurs, c’est la capacité de Wonder à empiler 30 concepts culinaires dans une cuisine de 260 m², générant ainsi un chiffre d’affaires au mètre carré bien supérieur à celui d’un resto classique.
Les coûts de loyer et de main-d’œuvre sont réduits, le modèle hyper-local permet d’enchaîner les livraisons, et la satisfaction client explose avec un Net Promoter Score au-dessus de 60.
La rentabilité est donc au rendez-vous, ce qui n’est pas donné dans la foodtech où beaucoup se cassent les dents (coucou Kitchen United ou Presto Automation, disparus du Nasdaq).
Mais Lore ne s’arrête pas là.
Avec ce nouveau pactole, il veut ouvrir un Wonder par semaine, doubler le nombre de sites pour passer de 46 à plus de 90 d’ici fin 2025, en visant surtout le Nord-Est américain, Philadelphie et Washington D.C. en tête.
Et il voit déjà plus loin : Wonder, c’est pour lui le futur “super app du repas”, un guichet unique qui regroupe resto, livraison, kits repas (grâce au rachat de Blue Apron), et même du contenu food via Tastemade, la plateforme média culinaire qu’il a aussi avalée.
Et là j’avoue que ça commence à me parler : je me retrouve si souvent dans l’urgence d’une commande sur des propositions trop nombreuses et toutes douteuses sur Deliveroo ou Uber Eats, qu’un point de repère qui plus est avec du contenu pédago-incitatif serait un super plus pour moi !
Mais je suis un peu zarb niveau bouffe, moi !
L’idée, donc ? Créer un écosystème où tu peux t’inspirer, commander, recevoir et manger, le tout sans friction, et surtout sans jamais décrocher de l’app. (On connait le côté ‘neurosciences’ pour te rendre addict de ton écran, et alors si tu ajoutes la bouffe, je suis fait comme un rat !)
Côté business, Wonder affiche déjà plus de 2 milliards de dollars de chiffre d’affaires, Grubhub inclus.
Mais Lore ne compte pas vendre : il rêve d’introduire Wonder en bourse, persuadé que son modèle hybride (production centralisée, logistique intégrée, partenariats avec des chefs stars) va tout balayer sur son passage.
Il investit à fond dans la R&D pour accélérer les temps de cuisson, réduire le gaspillage alimentaire, optimiser les cuisines, et peaufiner l’algorithme de livraison.
Et, cerise sur le gâteau, Wonder commence aussi à vendre ses fours et son offre “white label” à des stades, hôpitaux ou hôtels, histoire de ne pas mettre tous ses œufs dans le même panier.
A l’américaine, rien à dire !
Alors, Wonder va-t-il devenir le Netflix du repas, ou finir dans la longue liste des licornes foodtech qui se sont brûlées les ailes ?
Difficile à dire, mais l’appétit de Marc Lore et de ses investisseurs semble insatiable.
Et perso, à Paris, je connais d’excellents artisans qui seraient ravis de rejoindre un cast de stars de la bouffe de ce genre nouveau !
Allez, on lance un copy-cat ???
Vsora, sora, whatever will be, will be….
40 millions de dollars pour défier Nvidia ?
On en a beaucoup parlé avec les opains de la communauté de Carlos Diaz, la Hacienda la semaine dernière ! Alors je reviens un peu dessus si jamais tu es passé à côté ?
Et non, ce n’est pas le pitch d’une série Netflix sur la French Tech qui se rêve trop grande !
C’est l’histoire bien réelle de Vsora, une pépite française qui s’est lancée dans l’arène mondiale des puces d’intelligence artificielle, là où les géants américains règnent en maîtres.
David contre Goliath, version silicium, et franchement, ça mérite qu’on s’y attarde.
Commençons par planter le décor : Nvidia, c’est le mastodonte de 3000 milliards de dollars de valo ! C’est le boss final du GPU, celui qui alimente la majorité des data centers et fait tourner les modèles d’IA générative comme GPT-4. Ses GPU H100, par exemple, affichent des performances qui donnent le tournis : 60 PetaFLOPS en FP16, des standards propriétaires comme CUDA, et une domination totale du cloud et du gaming.
Mais cette hégémonie a un coût : dépendance à un écosystème fermé, consommation énergétique XXL, prix à faire pâlir un banquier suisse.
Face à ce monstre, Vsora !
La start-up basée à Meudon-la-Forêt, débarque avec une promesse simple mais ambitieuse : produire une puce IA européenne, la Jotunn8 (J8), qui n’a pas à rougir face aux ténors du secteur.
Pour y arriver, ils viennent donc de lever 40 millions d’euros (soit environ 46 millions de dollars), avec le soutien d’investisseurs comme Otium Capital, Omnes Capital, Adélie Capital et le Conseil européen de l’innovation.
Leur crédo ? Offrir une alternative crédible, performante et surtout, moins énergivore.
Leur J8, c’est un concentré de technologie conçu pour l’inférence IA, ce moment où l’IA “pense” en temps réel, que ce soit dans une voiture autonome, un robot ou une application de data center.
La promesse est simple : plus de 3 200 TeraFLOPS, des performances qui rivalisent avec les meilleures puces du marché, mais avec une efficacité énergétique doublée : en gros, la même puissance pour deux fois moins d’électricité.
À l’heure où les data centers engloutissent des mégawatts comme Obélix les sangliers, c’est un argument qui pèse lourd. (D’ailleurs t’as vu la série Astérix de Chabat ? Non ? Allez, fais une pause et va rire un peu !)
Mais Vsora ne joue pas du tout la carte du “tout pour le cloud”.
Leur force, c’est « l’embarqué » : l’IA dans la voiture autonome, les télécoms, la robotique, là où chaque watt compte et où l’intégration directe en silicium fait la différence.
Moins dépendant des écosystèmes propriétaires (exit CUDA), leur architecture est pensée pour l’optimisation, la flexibilité et la rapidité d’exécution.
Pour Khaled Maalej, fondateur et CEO, l’objectif est clair : “révolutionner les puces IA et assurer la souveraineté technologique de l’Europe dans le calcul IA”.
La production de la J8 sera assurée par TSMC, le géant taïwanais de la fonderie, incontournable pour ce genre de technologie de pointe.
Les premiers exemplaires devraient sortir avant l’été, avec une distribution ciblée vers les fabricants de serveurs et les développeurs de data centers.
Et pour convaincre les plus sceptiques, Vsora prévoit même de construire un mini data center pour démontrer les performances de son bébé en conditions réelles.
Ne reste plus qu’à TSMC d’investir en France pour sa prochaine factory, non ?
Alors, est-ce que 40 millions suffisent pour bousculer Nvidia ? Disons-le franchement : sur le plan de la puissance brute et de l’intégration dans les grands clouds, Nvidia reste le roi. Donc non !
Mais sur le terrain de l’IA embarquée, de l’optimisation énergétique et de la flexibilité, Vsora a une vraie carte à jouer.
Surtout dans un marché de l’inférence IA qui pourrait peser 255 milliards de dollars d’ici 2030.
Et si l’Europe veut exister face à la déferlante américaine, il va falloir miser sur ce genre d’initiatives. Vraiment ! Une giga-factory, j’te dis !
Comme le disait Churchill (qui n’a jamais codé, mais savait flairer les batailles décisives) : “Le succès n’est pas final, l’échec n’est pas fatal : c’est le courage de continuer qui compte.”
Vsora, avec ses 23 salariés et ses millions tout frais, incarne ce courage.
Reste à voir si la start-up saura transformer l’essai et faire vaciller le Goliath américain ou simplement se faire une place au soleil de l’IA !
Encore une équipe à suivre !!
Gemini sous stéroïdes ?
Depuis que Google a balancé Gemini 2.5 Pro dans la nature, les commentaires pleuvent comme un orage sur Paris en avril. T’as la ref ?
Et franchement, il y a de quoi : cette version, c’est un peu le couteau suisse de l’IA, mais version 2025, avec des lames pour tout – texte, image, audio, vidéo, même du code, et la promesse de ne jamais perdre le fil, même si tu lui balances l’intégrale de Proust ou la doc complète d’un projet open source.
Déjà, la première claque, c’est la fameuse « fenêtre contextuelle » : un million de jetons, soit l’équivalent de 750 000 mots, à digérer d’un coup.
Pour te donner une idée, c’est comme si tu demandais à un assistant de lire Guerre et Paix, puis de te résumer la vie de Napoléon sans rien oublier. Et Google annonce déjà le double de ces capacités pour bientôt.
Les usages sont multiples ! Analyse de rapports géants, synthèse de bases de données, ou tout simplement, ne plus jamais être limité par la taille d’un prompt.
Mais là où Gemini 2.5 Pro fait vraiment le malin, c’est sur le raisonnement.
Fini le temps où l’IA se contentait de recracher des réponses toutes faites. Ici, on parle d’un modèle qui « réfléchit » avant de répondre, qui fait des liens, qui analyse, qui planifie.
Google le vend comme son modèle le plus intelligent, pas juste sur les benchmarks, mais dans la vraie vie : comprendre des questions complexes, relier des infos distantes, raisonner comme un humain (ou presque, oui, faut pas déconner !)
On lui confie des tâches de codage, des problèmes de maths, de la logique, de la science, et il s’en sort avec les honneurs – certains benchmarks le placent même devant GPT-4.5 ou Claude 3 quand il s’agit de coder des applis web ou de transformer du code à la volée.
La multimodalité, parlons-en : Gemini 2.5 Pro est natif sur tous les fronts.
Tu veux lui filer un PDF, une vidéo YouTube, un enregistrement audio, ou même une base de données de code ? Il gère.
Mieux, il peut croiser les infos : analyser le son d’une vidéo, extraire les émotions, comprendre ce qui se passe à l’image, et répondre à des questions précises sur un moment donné.
Et pour les développeurs, c’est open bar : il génère du code exécutable, crée des visualisations interactives, des jeux, des simulations, le tout à partir d’une simple consigne en langage naturel. Bon, faut tout tester, quand même parce que là, je dois avouer que je n’ai pas TOUT éprouvé à titre perso !!
Côté accessibilité, Google a mis le paquet : l’OCR intégré permet de scanner des documents, d’extraire du texte d’images, de générer des sous-titres, d’aider les malvoyants à comprendre une scène…
On est loin du simple chatbot.
Les applications concrètes sont nombreuses aussi : numérisation de documents, gestion de contenu, analyse d’images agricoles ou retail, automatisation de la saisie de données…
Bref, Gemini 2.5 Pro, c’est l’IA qui veut vraiment bosser à ta place. (mais le peut-elle ? cf l’article sur la boîte gérée par de l’IA agentique héhéhé).
Et puis, il y a la fameuse fonction « Deep Research » que l’on adore : une sorte de super-assistant de recherche, capable d’aller fouiller des centaines de sources, de synthétiser, de citer, de produire des rapports détaillés.
Là, Google tape clairement sur ChatGPT et consorts, en promettant des résultats plus précis, plus complets, et surtout, directement utilisables par les pros.
Bon, cette fonction reste réservée aux abonnés Gemini Advanced (21,99 €/mois), mais pour ceux qui bossent avec l’info, c’est un game changer.
Évidemment, tout le monde ne crie pas au génie. Certains râlent sur le prix, d’autres sur le fait que l’IA n’est pas encore parfaite (qui l’est ?), ou que la version gratuite est déjà tellement puissante que l’abonnement n’a plus vraiment d’intérêt.
Mais dans l’ensemble, la communauté tech salue la performance, la polyvalence et l’ouverture de Gemini 2.5 Pro, qui s’intègre dans tout l’écosystème Google – Docs, Drive, Gmail, Vertex AI, etc. (même si perso, les intégrations, tu sais ce que j’en pense : c’est de l’IA au forceps qui répond une fois sur mille à un besoin réel pour l’instant !)
Alors, est-ce que Gemini 2.5 Pro va enterrer la concurrence ? Pas sûr, la guerre des IA ne fait que continuer, jusqu’à la semaine prochaine.
Mais une chose est certaine : Google vient de hausser le niveau, et il va falloir s’accrocher pour suivre.
Réponse d’OpenAI ? o4-mini ?
Tu veux savoir ce qui se trame du côté d’OpenAI et de son dernier joujou, le modèle o4-mini, surtout depuis qu’on peut le peaufiner à la sauce maison grâce au Reinforcement Fine-Tuning (RFT) ?
On entre dans l’ère du sur-mesure pour l’IA d’entreprise, et ça va bien au-delà du simple tuning de base, visiblement !
OpenAI a récemment ouvert les vannes : désormais, n’importe quelle boîte (ou développeur solo un peu motivé) peut prendre le modèle public o4-mini et le façonner pour coller à ses propres besoins, son jargon, ses process, ses produits, son ADN, bref, tout ce qui fait sa singularité.
Comme si ton chatbot interne ne répondait plus à côté de la plaque quand tu lui demandes la dernière politique RH ou le pricing du produit X, mais te sortait une réponse millimétrée, alignée avec la culture et les règles maison. C’est ça, la promesse du RFT.
Comment ça marche ?
Oublie l’apprentissage supervisé classique où tu donnes des questions et des réponses toutes faites.
Ici, tu utilises un « grader » (un modèle qui note les ‘réponses candidates’ à chaque prompt), et l’algo va ajuster les poids du modèle pour favoriser les sorties les mieux notées.
Tu peux même définir tes propres critères de notation ou utiliser ceux proposés par OpenAI. Le tout se pilote via l’API ou un dashboard, avec suivi en temps réel, checkpoints, et possibilité de peaufiner au fil de l’eau.
Côté cas d’usage, ça commence à sentir le concret.
Accordance AI a boosté l’analyse fiscale de son modèle de 39% en précision, Ambience Healthcare a gagné 12 points sur l’assignation de codes médicaux, Harvey a explosé les scores sur l’analyse de documents juridiques…
Même Stripe, Thomson Reuters ou SafetyKit s’y mettent pour générer du code, modérer du contenu ou comparer des données structurées. La condition pour que ça marche ?
Avoir des tâches bien définies, des formats de sortie clairs, et des critères d’évaluation solides. Bref, pas du blabla, mais du mesurable.
Côté pricing, OpenAI joue la transparence : 100 dollars de l’heure de training effectif, facturé à la seconde.
Tu n’es pas facturé pour les files d’attente ou les phases d’initialisation, uniquement pour le boulot réel.
Et si tu utilises leurs modèles comme graders, tu paies les tokens consommés à part, sinon tu peux brancher tes propres modèles open source pour faire baisser la note.
Petit bonus : si tu partages ton dataset de training avec OpenAI, tu as 50% de remise sur la facture. Malin, non ? (si c’est presque gratuit, c’est presque toi le produit !)
Mais attention, tout n’est pas rose : les modèles fine-tunés sont plus vulnérables aux « jailbreaks » (contournements de sécurité) et aux hallucinations (réponses à côté de la plaque), donc il faut garder l’œil ouvert et tester sérieusement avant de déployer à grande échelle.
Ce mouvement vers le RFT s’inscrit dans une tendance plus large : rendre l’IA non seulement plus intelligente, mais surtout plus malléable, plus contrôlable, et adaptée à la réalité des entreprises.
On n’est plus dans la magie noire du prompt engineering, mais dans l’ajustement chirurgical, aligné sur les objectifs métiers, la conformité, la sécurité, et même le ton de la boîte.
En filigrane, c’est toute la question de la personnalisation de l’IA qui s’invite dans le débat. Jusqu’où peut-on aller pour que l’IA colle à nos besoins sans perdre en robustesse ou en sécurité ? Est-ce qu’on va voir émerger des IA d’entreprise aussi distinctes que des signatures vocales ?
Bref, si tu bosses dans une boîte qui a des problématiques pointues, des exigences de conformité, ou juste l’envie d’avoir une IA qui parle comme ton CEO, le RFT sur o4-mini, c’est peut-être le ticket d’entrée dans la cour des grands.
Mais comme toujours avec l’IA, le diable est dans les détails… et dans les datasets.
Chatbots, on en est où ? (étude Wharton)
Tu as déjà discuté avec un chatbot, c’est évident ! On l’a tous fait, volontairement ou pas !
La différence, c’est que depuis 2022, la plupart ne sont plus des arborescences débiles, mais des IA tournant sur des LLM plus ou moins entrainés…
Que ce soit pour commander une pizza, râler contre ta banque ou simplement parce que tu t’ennuyais un dimanche soir, ces assistants virtuels sont partout. Et ce n’est qu’un début : le marché mondial des chatbots va exploser, on parle de plus de 47 milliards de dollars d’ici 2030.
Mais la vraie question, c’est comment rendre ces robots à la fois efficaces et… humains. Spoiler : ce n’est pas juste une question de code ou de design, c’est un vrai casse-tête psychologique et technologique, comme vient de le montrer une étude très sérieuse de Wharton.
Avant même d’imaginer ton chatbot idéal, il faut se poser LA question : est-ce vraiment le bon outil pour le problème que tu veux résoudre ?
Les chercheurs de Wharton distinguent quatre grandes situations. Pour les tâches répétitives et à faible enjeu, comme suivre une commande ou vérifier un horaire de vol, le chatbot fait le job tout seul, sans supervision humaine. Dès qu’on touche à des domaines plus sensibles, comme la santé ou la finance, il vaut mieux que le chatbot soit supervisé de près, histoire d’éviter les boulettes. Pour les cas vraiment complexes - consultation médicale, conseil financier, réclamation d’assurance -, c’est l’humain qui garde la main, mais l’IA l’aide en coulisses.
Et pour tout ce qui touche au juridique ou à la conformité, là, pas de discussion : c’est l’humain, point barre. Ce qui est fou, c’est que 82% des consommateurs préfèrent aujourd’hui parler à un chatbot plutôt que d’attendre un humain. Oui, tu as bien lu, c’est 20% de plus qu’il y a deux ans !
Mais alors, comment faire pour que les gens aiment ton chatbot ? Première astuce, présente-le comme une IA “en apprentissage”. Les utilisateurs sont rassurés de savoir que la machine progresse, qu’elle apprend de ses erreurs, un peu comme un stagiaire qui deviendrait enfin utile.
Ensuite, il faut que ton chatbot soit meilleur qu’un humain, ou au moins moins cher. Si tu mets en avant sa rapidité ou son absence d’erreur, ou même si tu offres une petite réduction pour l’utiliser, les gens sont tout de suite plus indulgents. Et puis, il y a ce côté “magique” de l’IA : ceux qui n’y connaissent rien sont souvent les plus enthousiastes, ils voient l’algorithme comme un super-héros digital.
D’ailleurs, les entreprises qui personnalisent vraiment l’expérience avec leur chatbot voient leurs revenus grimper de 40%. Pas mal pour un robot qui ne prend jamais de pause café.
La confiance, c’est le nerf de la guerre. Les clients veulent que les chatbots règlent leurs problèmes tout seuls, mais ils ont besoin d’être rassurés. Montrer des exemples concrets de réussite, plutôt que d’étaler des explications techniques, ça marche bien mieux.
Par exemple, dire que “94% des utilisateurs ont adoré les recommandations de notre IA” inspire bien plus confiance qu’un laïus sur les réseaux de neurones. La rapidité, aussi, fait toute la différence : plus l’algorithme répond vite, plus il est perçu comme fiable.
Et n’hésite pas à rappeler qu’il y a des humains derrière la machine : un chatbot “conçu par des experts” rassure toujours plus qu’un robot laissé en roue libre.
Mais attention, trop de chatbot tue le chatbot. Des études du MIT montrent qu’on peut devenir accro à ces assistants virtuels, au point de préférer discuter avec eux qu’avec de vrais humains. On n’est pas loin du scénario de “Her” avec Joaquin Phoenix…
La vraie subtilité, c’est de savoir quand ton chatbot doit ressembler à un humain, et quand il doit assumer son côté machine. Pour annoncer une bonne nouvelle ou recommander un produit sympa, un chatbot un peu “humain” fait des merveilles.
Il est même prouvé qu’on fraude moins quand on a l’impression de parler à un robot qui nous comprend. Mais pour des sujets gênants - santé sexuelle, médicaments, finances -, les gens préfèrent largement que le chatbot soit clairement identifié comme une IA.
Ils se confient plus facilement, partagent des infos sensibles sans crainte d’être jugés. Et si tu dois gérer un client en colère, mieux vaut éviter le chatbot trop “mignon” ou trop “humain” : dans ces moments-là, les utilisateurs veulent une machine, pas un copain.
Il y a aussi des petits trucs qui font la différence. Un chatbot qui ponctue ses phrases d’interjections (“Oh !”, “Hmm”, “Wow”) paraît plus attentif, plus à l’écoute. Mais attention à ne pas en faire trop avec les avatars trop kawaï, surtout dans la finance ou la santé, où la confiance est reine. (D’ailleurs tu as essayé les nouveaux podcast de NotebookLM en FRANCAIS ??? ça me fait penser à ça, là ! Sorry !)
Et n’hésite pas à flatter un peu l’utilisateur : un compliment bien placé, et hop, il acceptera plus volontiers tes recommandations. D’ailleurs, une étude récente a montré que les réponses des IA sont perçues comme 16% plus empathiques que celles des humains, et préférées dans 68% des cas. De quoi faire réfléchir les psys et les DRH !
Bref, à l’heure où près d’un milliard de personnes discutent chaque jour avec des chatbots, il devient urgent de trouver le bon dosage entre efficacité algorithmique et chaleur humaine.
Comme le dit Stefano Puntoni, prof à Wharton : “L’IA peut générer des expressions émotionnelles parfaites, mais elle manque de la conscience de soi qui sous-tend les vraies émotions.” Un peu comme un acteur qui jouerait la tristesse sans jamais l’avoir ressentie. On n’est pas prêt d’en finir avec les “votre appel est important pour nous…” après 30 minutes d’attente !
« Food for Thought »
Reducto, l’improbable histoire !
On va parler d’un de ces contes modernes de la Silicon Valley où un “weekend hack” finit par devenir une boîte d’IA qui vaut des millions. (crédits First Round Review, comme toujours pour cette rubrique !)
Oui, ça existe vraiment, et c’est l’histoire d’Adit Abraham et de Reducto, racontée dans un podcast qui sent bon la sueur, l’intuition, et les nuits blanches devant des PDFs récalcitrants.
Si tu penses que le succès naît d’un business plan bien ficelé et de PowerPoints léchés, tu vas adorer ce récit où tout commence par une bonne vieille galère technique et beaucoup de “pourquoi pas ?”.
Adit Abraham, c’est le genre de mec qui, au lycée, bidouillait déjà des applis en rêvant de faire fortune comme le créateur de Flappy Bird (tu te souviens, ce jeu qui rapportait 50 000 $ par jour à son auteur, assez pour faire fantasmer toute une génération de codeurs en herbe).
Plus tard, il finit par bosser chez Google, mais l’ennui le gagne vite. Il retrouve Raunak Chowdhuri, génie du machine learning qu’il avait rencontré au MIT, et ensemble, ils se lancent dans des hackathons, dont un organisé par Anthropic (oui, ceux qui font Claude, le concurrent de ChatGPT).
L’alchimie est là : ils aiment bosser ensemble, ils sont complémentaires (l’un plus produit et go-to-market, l’autre ultra-technique), et surtout, ils n’ont pas peur de se planter.
L’idée de départ ? Rien à voir avec Reducto. Ils veulent créer une “mémoire à long terme” pour les modèles de langage. Problème : personne ne veut vraiment payer pour ça, à part quelques geeks enthousiastes.
Mais ils écoutent, ils itèrent, et surtout, ils posent LA question qui tue à leurs utilisateurs : “Qu’est-ce que ça vous apporte, concrètement ?” Silence gênant. Jusqu’au jour où un client leur demande s’ils peuvent aussi gérer les fichiers PDF que ses utilisateurs uploadent.
C’est là que la lumière jaillit : tout le monde galère avec l’extraction de données dans les PDFs, et les solutions existantes comme Textract d’AWS sont loin d’être parfaites.
Le déclic, c’est un week-end de hack où ils bricolent un outil de segmentation de documents. Rien de sexy : une app Streamlit moche, qui découpe les PDFs en petits blocs de texte. Ils postent ça sur le forum de Y Combinator, et là, c’est le feu d’artifice.
Les fondateurs affluent : “C’est mieux que Textract ! C’est où l’API ? Où je paie ?” Pour la première fois, ils sentent un vrai “pull” du marché. Ils pivotent, foncent, et Reducto naît ainsi, presque par accident, mais avec une clarté implacable : ils résolvent un vrai problème, mieux que les autres, et les clients sont prêts à sortir la CB.
En six mois, Reducto passe de zéro à sept chiffres d’ARR (revenu récurrent annuel), tout ça avec une équipe minuscule (quatre personnes quand ils franchissent le million).
Leur secret ?
Ne jamais se mentir sur l’utilité de ce qu’ils construisent, et surtout, rester ultra-proches de leurs clients. Pas d’onboarding automatisé : chaque client est accompagné à la main, ils écoutent chaque feedback, et priorisent les features qui servent le plus grand nombre.
“On a des Slack avec presque tous nos clients, beaucoup ont mon numéro de portable”, raconte Adit. Ambiance hotline VIP, mais c’est ce qui leur permet d’aller vite et de ne jamais perdre le fil de la vraie demande.
Leur approche technique est aussi rafraîchissante que leur go-to-market : ils traitent les PDFs comme des images, s’inspirant de la façon dont un humain lit un document (les espacements, les colonnes, les tableaux).
Résultat : leur parsing est bien plus précis que la concurrence, ce qui séduit aussi bien les startups que les mastodontes du Fortune 10.
D’ailleurs, l’un de ces géants leur tombe dessus par hasard, teste l’outil, et finit par organiser une journée entière de démo avec 14 ingénieurs. 154 jours, 20 heures de réunions, une tentative de rachat avortée et quelques centaines d’emails plus tard, le deal est signé.
Mais Reducto, ce n’est pas juste une techno qui marche.
C’est aussi une leçon de vente pour les fondateurs techniques : pas besoin d’être un vendeur né, il suffit de vraiment se soucier du produit et de ses clients. “Ton énergie de fondateur est contagieuse. Quand les gens voient à quel point tu tiens à ton produit, ils commencent à s’y attacher aussi”, dit Adit, qui n’a embauché personne en sales pendant un an, tout en signant des millions de dollars de contrats.
Côté stratégie, ils refusent de se verticaliser trop tôt. Pas question de devenir “le spécialiste santé” ou “le roi de l’assurance” : ils veulent rester horizontaux, pour apprendre de chaque secteur et bâtir un produit vraiment universel.
Leur mantra : “Ce qui compte, c’est d’être la meilleure solution, peu importe le type de document ou le secteur.” Ils avancent vite sur le produit, mais lentement sur les recrutements, privilégiant la qualité à la quantité.
Leur premier chercheur ML, par exemple, est une pointure du domaine, auteur des meilleurs modèles open source de parsing de documents.
Et le financement dans tout ça ? Levée de fonds express : pré-seed, seed, puis un énorme Series A de 24 millions de dollars, tout ça sans avoir dépensé le moindre dollar du seed.
Pourquoi lever alors ?
Pour s’entourer des bons investisseurs, ceux qui les challengent et les soutiennent vraiment. Leur conseil aux autres fondateurs : “N’oublie jamais que ce que tu offres, c’est rare. Ne sois pas dans la position du mendiant, choisis tes partenaires comme tu choisirais un co-fondateur”.
Leur culture d’entreprise est à l’image de leur produit : peu de process, beaucoup de responsabilité individuelle, et un focus obsessionnel sur ce qui compte vraiment.
Pas de daily standups inutiles, pas de reporting pour le plaisir, juste une question à se poser chaque semaine : “Est-ce que ce que je fais a un vrai impact ?”
Au final, Reducto, c’est la preuve vivante qu’on peut partir d’un projet du dimanche, écouter les signaux faibles, pivoter sans ego, et construire une boîte qui pèse lourd, sans jamais perdre le goût du concret.
Et si tu te demandes ce qui fait la différence entre une startup qui cartonne et une qui végète, retiens cette phrase d’Adit : “Tu vas te planter. C’est normal. Ce qui compte, c’est de recommencer, encore et encore, jusqu’à ce que tu deviennes bon.”
Un mantra à méditer, que tu sois fondateur, dev, ou juste allergique aux PDFs mal foutus.
Moi j’adore ce type d’histoires !
« Impact »
L’avenir de l’IA se conjugue au passé niveau energie ? Pentium II !!!
Toi le vieux, rappelle-toi les PC beige vintage 1997, écran cathodique qui grésille, clavier PS/2 qui claque sous les doigts, et ce doux parfum de Windows 98 qui flotte dans l’air.
On est en 2025, mais ce décor sent bon le XXème siècle.
Et pourtant, c’est bien une intelligence artificielle moderne qui tourne sur cette antiquité, défiant toutes les lois de la tech contemporaine.
Oui, tu as bien lu : une IA qui carbure sur un Pentium II à 350 MHz avec seulement 128 Mo de RAM, comme si c’était la chose la plus normale du monde.
Ce tour de force, on le doit à une bande de passionnés (EXO Labs, avec dans l’équipe Andrej Karpathy, rien que ça) qui se sont mis en tête de prouver que l’IA, ce n’est pas réservé aux data centers surpuissants et aux GPU hors de prix.
Leur arme secrète ?
BitNet, une architecture de réseau neuronal qui fait passer les modèles classiques pour des obèses numériques.
Au lieu de jongler avec des poids flottants (float32, pour les intimes), BitNet mise sur des poids ternaires : -1, 0 ou 1. Résultat ? Un modèle qui, normalement, pèserait plusieurs dizaines de gigas, tient dans… 1,38 Go. Oui, tu peux ranger ta clé USB de 1999, ça rentre.
Le modèle utilisé, stories260K, n’a pas la verve d’un ChatGPT, mais il génère du texte à 39 tokens par seconde.
Pas de quoi flamber sur Twitter, mais largement assez pour prouver que l’IA peut tourner sur du matos de récup.
Pour la petite histoire, ils ont dû ressortir Borland C++ 5.02 (sorti en 1998, époque où le bug de l’an 2000 faisait trembler la planète) pour compiler le code. Pas question de plugger une clé USB moderne ou un clavier dernier cri : retour au FTP et aux périphériques d’époque. On frôle l’archéologie numérique.
Mais au-delà du défi technique, il y a une vraie philosophie derrière ce hack rétro.
Aujourd’hui, la majorité des IA tournent sur des serveurs distants, dans des fermes de calcul qui engloutissent de l’énergie et laissent l’utilisateur dépendant des géants du cloud.
EXO Labs, eux, rêvent d’une IA locale, accessible, qui tourne sur le hardware de monsieur Tout-le-monde, même s’il date de la Coupe du Monde de 98.
Avec BitNet, ils promettent même qu’un modèle de 100 milliards de paramètres pourrait tourner sur un simple CPU, à une vitesse proche de la lecture humaine (5 à 7 tokens par seconde). On peut donc imaginer que demain, ton vieux ThinkPad ou même ton Nokia 3310 pourraient devenir ton assistant IA personnel, sans connexion, sans abonnement, sans surveillance.
…et presque sans énergie !
Cette prouesse ouvre des perspectives folles : IA embarquée dans des appareils oubliés, démocratisation de la technologie, réduction de l’empreinte carbone… et pourquoi pas, un retour du vintage dans la course à l’innovation.
Comme le résume l’équipe, un brin provoc’ : « Si ça tourne sur un PC de 1998, alors ça peut tourner n’importe où. »
On attend maintenant les outils open source promis pour hacker nos vieilles machines, et l’intégration de ces modèles ultra-compacts dans des domaines pointus, comme la modélisation des protéines.
Alors, prêt à ressortir ton vieux PC du grenier ? Parce qu’en matière de « light-tech », l’histoire ne fait que commencer.
Et qui sait, la prochaine révolution IA viendra peut-être d’un processeur qui a connu Windows 95 et les joies du modem 56k ?
Aux antipodes de la course au gigantisme de Nvidia, ce type d’incitatives montre qu’il est possible d’envisager une IA sans catastrophe !
« Friends and network ! »
Team GPT, le renouveau du “collaboratif” ?
J’ai découvert Team GPT via une communauté, L’Hacienda, dans laquelle l’un de ses représentants m’a tout de suite converti à l’IA collaborative telle que l’entreprise l’envisage !
Alors je t’en parle ici !
Team-GPT s’impose aujourd’hui comme l’allié discret mais redoutablement efficace des équipes marketing (c’est leur GTM !, mais le spectre est beaucoup plus large !) qui veulent concilier créativité, productivité et cohérence de marque, sans sacrifier leur santé mentale sur l’autel des deadlines.
La plateforme, tout juste auréolée d’une levée de fonds de 4,5 millions de dollars menée par True Ventures et des anciens d’OpenAI, se positionne à contre-courant des IA “one size fits all” qui inondent le marché de contenus tièdes et interchangeables.
Ce qui distingue Team-GPT, c’est sa capacité à orchestrer la collaboration entre humains et IA, non pas comme une promesse abstraite, mais comme une mécanique bien huilée.
Chaque membre de l’équipe accède à des espaces de travail partagés, des permissions sur-mesure, et une bibliothèque de prompts et de ressources qui s’adaptent à la voix et à la stratégie de la marque.
L’outil ne se contente pas de générer du texte : il s’intègre à Notion, Sharepoint, Google Drive, pour aller puiser dans les ressources internes et produire des contenus calibrés, du rapport d’analyse à la campagne marketing, en passant par le post LinkedIn qui ne ressemble pas à une pub pour une assurance obsèques.
La sécurité, loin d’être un argument cosmétique, est prise au sérieux : conformité SOC II, ISO27001, GDPR, et confidentialité des données garantie – rien ne sert à l’IA pour s’entraîner sur le dos des clients.
Même le plus pointilleux des DPO trouvera ici de quoi dormir sur ses deux oreilles. (A bon entendeur !!)
Les cas d’usage parlent d’eux-mêmes : une agence SEO qui publie 160 articles par mois sans embaucher une armée de rédacteurs, une équipe qui voit sa productivité grimper de 60%, un groupe SaaS qui économise 50 000 heures par an. Ou encore une équipe ‘sales’ de cycles longs qui répond avec précision et rapidité aux appels d’offre !
On n’est pas dans l’anecdote, mais dans la transformation structurelle du travail. Les retours utilisateurs sont dithyrambiques : simplicité d’adoption, qualité des résultats, et surtout, la possibilité de choisir le modèle d’IA le plus adapté à chaque tâche, comme on choisirait un stylo plume ou un crayon à papier selon l’humeur du jour.
La plateforme ne cesse d’évoluer : intégrations Microsoft, Split View pour la coédition, Prompt Builder pour affiner les requêtes, outils d’analyse de CSV, convertisseur image-texte, navigateur de vidéos YouTube… Une boîte à outils qui s’enrichit chaque mois, pour que chaque équipe puisse modeler son flux de travail sans se perdre dans les méandres de la technique.
Plus de 250 équipes marketing ont déjà franchi le pas (et tant d’autres BU dans des dizaines de grands comptes !), et la note de 4,9 sur Capterra témoigne d’un engouement rare dans un secteur où le scepticisme est souvent la règle.
Team-GPT ne promet pas de remplacer les marketeurs, mais de leur offrir un exosquelette numérique, une sorte de “super-pouvoir” pour affronter la jungle du contenu digital.
L’avenir reste ouvert : la plateforme pourrait bien s’étendre à d’autres métiers, d’autres industries, et s’adapter à la prochaine vague d’IA générative.
Comme dirait Desproges : quant à l’avenir de l’IA collaborative, “les opinions divergent et dix verges, c’est énorme !”
Il aurait dit ça, Desproges…
« And now for something completely different! »
Parce qu’il vaut mieux rire de tout !
J’aime beaucoup !
Enjoy!
« Y’a pas que la tech ! »
Osaka 2025
Je rentre du Japon et je n’ai pas poussé jusqu’à Osaka.
C’était peut-être une connerie, mais pour une première au Pays du Soleil Levant, il y avait déjà tant à faire entre Tokyo et Kyoto, que je n’ai pas poussé !
Et puis ce n’était pas donné, cette affaire : l’expo Universelle se vend cher ! Mais voici ce qu’apparemment, l’on peut en dire !
L’Expo universelle d’Osaka 2025, c’est un peu le grand festival mondial de la prospective, où l’humanité se donne rendez-vous pour imaginer demain, tout en se lançant des regards en coin pour voir qui a le plus beau robot ou la serre la plus verte.
Du 13 avril au 13 octobre 2025, sur l’île artificielle de Yumeshima, la baie d’Osaka se transforme en laboratoire géant : 155 hectares, 28 millions de visiteurs attendus, et plus de 160 pays qui jouent des coudes pour présenter leur vision du futur, le tout sous la bannière « Concevoir la société du futur, imaginer notre vie de demain » – un slogan qui sent bon les Objectifs de Développement Durable de l’ONU et les lendemains qui chantent.
Le Japon, qui avait déjà fait sensation en 1970 avec une Expo marquée par la première présentation publique du téléphone portable (eh oui, c’est à Osaka qu’on a commencé à rêver de téléphoner dans la rue sans fil à la patte), remet le couvert en mode XXIe siècle.
Le pays s’offre le luxe d’un site autour du « Grand Anneau » (Ôyane Ring), la plus grande structure en bois du monde, clin d’œil à la tradition et à la modernité, et surtout symbole d’union universelle. Ici, la robotique, l’intelligence artificielle et la mobilité urbaine futuriste (drones, eVTOL, taxis volants) sont les vraies stars, façon manga qui aurait pris vie.
Mais l’Expo, ce n’est pas qu’un concours de gadgets.
C’est aussi une immense agora où chaque pavillon national rivalise d’imagination pour montrer comment il compte sauver la planète, ou au moins la rendre plus sympa à vivre.
L’Allemagne, la Chine, la Tunisie, l’Australie, le Luxembourg, les États-Unis, la Suisse… tous sont là, chacun avec son storytelling, ses innovations, et son lot d’architectures qui font tourner les têtes (et parfois les budgets).
L’organisation du site n’est pas en reste : trois grandes zones – Monde Vert, Monde des Pavillons, Monde de l’Eau – pour flâner, s’émerveiller, ou recharger ses batteries (littéralement, car l’énergie verte est partout).
Les pavillons japonais, eux, se la jouent conceptuels, avec des thèmes comme la cohabitation, l’équilibre dynamique ou la protection de la planète, le tout signé par des designers locaux qui n’ont pas peur de l’audace.
Côté techno, c’est la fête à l’IA : robots-guides, diagnostic médical automatisé, expériences immersives à base de réalité virtuelle et d’hologrammes, et même des plantes bioluminescentes pour remplacer les lampadaires (on se croirait dans Avatar, mais en vrai). Et c’est plutôt une bonne nouvelle, parce que question « vie du quotidien », au Japon, l’IA n’est pas encore présente : j’en veux pour preuve l’étonnement quand j’utilisais ChatGPT pour traduire des choses ou quand Elodie filmait avec ses MetaGlasses… (interdites de vente au Japon)…
L’énergie n’est pas en reste : hydrogène produit par la force des vagues, carburants et aliments à base d’algues, cellules solaires transparentes… L’innovation médicale aussi fait son show, entre cœur artificiel à base de cellules souches et machine à laver humaine du futur, pilotée par IA (on attend la version qui plie le linge).
Et la France dans tout ça ? Elle n’est pas venue les mains vides. Son pavillon, stratégiquement placé face à l’entrée principale, se veut un « hymne à l’Amour » (oui, rien que ça !) : amour de soi, des autres, de la nature.
On y célèbre le savoir-faire hexagonal, l’art de vivre, la solidarité, l’inclusion, et la protection de la planète. L’architecture, signée Coldefy et CRA-Carlo Ratti Associati, est audacieuse, durable, et drapée de rubans qui n’auraient pas déplu à Christian Lacroix.
À l’intérieur, une expo permanente immersive, six expos temporaires, douze sessions thématiques autour des ODD, et même une version virtuelle pour les fans de metavers, grâce à Dassault Systèmes et son jumeau numérique.
Le pavillon France ne se contente pas de faire joli : il met en avant la réindustrialisation décarbonée, la souveraineté énergétique, et l’excellence dans les industries culturelles et créatives.
La scénographie, pensée par Justine Emard, tisse le fil rouge de l’innovation et de la poésie, histoire de rappeler que la French Touch, ce n’est pas qu’un mythe.
Bref, l’Expo universelle d’Osaka 2025, c’est un peu le Davos du cool, la Fashion Week de l’innovation, le Burning Man de la coopération internationale (sans les psychotropes !)…
Un grand show où l’on vient rêver, s’inspirer, et, qui sait, trouver des idées pour que le monde d’après ne ressemble pas trop au monde d’avant.
Et si tu veux vraiment voir à quoi ressemble le futur, c’est peut-être bien là qu’il faut traîner tes baskets. Et puis si ce n’est pour l’expo, ça sera pour la ville : cette « Marseille » Japonaise, cette ville de la street-food, cette mégapole, la plus « ouverte et cosmopolite » du pays, cette ville aux mille feux et qui ne dort presque jamais, suffira à émerveiller le visiteur geek comme le touriste néophyte !
Alors n’hésite plus ! Saute dans un avion et vas-y faire un tour !
J'adore ce style 😀