Le Thread de l’IA : révolution ou bulle?

Quelques remarques un peu en vrac — je vais peut-être enfoncer des portes ouvertes :

Je m’interroge sur la manière dont OpenAI compte réellement atteindre le break-even. Il me semble assez évident que les usages grand public ne suffiront pas à “scaler” le modèle économique : l’élasticité-prix de ce qu’un particulier est prêt à payer pour un service, même très utile, reste limitée.

Le potentiel de marge me paraît plutôt du côté de la licence de modèles aux éditeurs de logiciels métiers (SaaS), qui eux opèrent en B2B. C’est d’ailleurs là que se joue déjà une partie du business via Azure OpenAI Service, où Microsoft revend les API à d’autres entreprises. Mais OpenAI ne semble pas vouloir (pour l’instant) aller sur un modèle B2B2B direct, à la manière de Mistral, qui pousse une approche plus ouverte et plus intégrable : modèles personnalisables, déployables sur site, entraînés sur de la donnée privée, et branchables à des logiciels métiers très data (ERP, eQMS, eWMS, SIRH/Paie, GED/DMS, BI, comptabilité, etc.).

On n’en est encore qu’au balbutiement de cette intégration métier (si vous en utilisez au quotidien, vous verrez que l’IA est une surcouche ultra-superficielle aujourd’hui) et c’est probablement là que se trouve le vrai potentiel de création de valeur à moyen terme — bien plus que dans les interfaces de chat.

À plus grande échelle, on est encore dans une phase de dispersion typique des débuts de cycle : tout le monde cherche son champion, comme à l’époque de la ruée sur les apps de livraison, les VTC ou le free-floating. La consolidation viendra ensuite, il y aura nécessairement une sélection naturelle darwinienne quand les modèles économiques auront mûri et que les coûts d’inférence se seront stabilisés.

L’avantage d’OpenAI, c’est son branding, sa puissance de calcul et sa capacité à lever des fonds — mais rien ne garantit que ce modèle ne se fasse pas disrupter rapidement par des acteurs plus efficaces, plus ouverts, ou simplement moins dépendants d’une architecture hyperconsommatrice.

Comme l’a montré DeepSeek, il existe encore un gisement énorme d’efficacité énergétique et computationnelle, les rapports alarmistes façon Shift Project élude complètement ce sujet : en optimisant la structure, la distribution et la spécialisation des modèles, on peut obtenir des performances comparables pour un coût bien moindre. Et si cette tendance se confirme, ça pourrait rebattre les cartes beaucoup plus vite qu’on ne le pense.

2 « J'aime »

Petites réflexions sur la comparaison avec la bulle de la tech :

  • On est aujourd’hui dans une tendance haussière régulière, pas dans une envolée parabolique. Le marché monte, mais sans excès visible

  • Sur le plan psychologique, on ne sent pas d’euphorie collective. En 2000, tout le monde parlait de la tech, de l’argent facile et des IPOs (@ZakZak, @TonyB, @SebastienR_CFA à confirmer ?). Aujourd’hui, beaucoup restent méfiants

  • La bulle de 2000 est encore récente : elle date d’à peine 25 ans. La plupart des gérants, analystes et traders qui ont entre 45 et 65 ans l’ont vécue directement. La vigilance reste forte. En comparaison, entre 1929 et 2000, il y avait 70 ans d’écart : plus grand monde n’avait d’expérience directe du précédent grand krach

Bref comme souvent, les marchés montent en prenant l’escalier et descendent en prenant l’ascenseur.

Et le marché aussi, sinon la boîte vaudrait encore plus cher :grin: Comme tu le dis les changements liés à l’IA sont structurellement majeurs, encore dans une phase d’ajustement. On peine à définir les modèles économiques viables et à comprendre comment cette technologie va s’intégrer dans la société.

C’est comparable à l’informatique dans les années 1980-1990 : à l’époque, personne n’imaginait qu’on travaillerait un jour entièrement en ligne, qu’on pourrait collaborer ou se parler en visioconférence à l’autre bout du monde. Il a fallu du temps pour que la société et les entreprises se réorganisent autour de cette révolution.

Décidément :

  • Accord OpenAI-AMD pluriannuel : déploiement de 6 GW de GPUs AMD. Première tranche de 1 GW prévue au S2 2026

  • Bons de souscription pour OpenAI : droit d’acheter jusqu’à 160 M d’actions AMD (10 % du capital) à $0,01 l’action

  • Impact boursier : AMD +23,7 % à la clôture du 6 oct. 2025

  • Enjeu industriel : accélérer l’inférence chez OpenAI et réduire la dépendance à Nvidia. AMD vise des “dizaines de milliards” de revenus supplémentaires d’ici 2027 si les jalons sont atteints

Contexte deals OpenAI :

  • Nvidia : lettre d’intention pour ≥ 10 GW de systèmes, investissement jusqu’à $100 Md conditionné au déploiement
  • Oracle : accord $300 Md pour 4,5 GW de capacité “Stargate”

Liens :

En lisant ton poste @Zootime , il m apparaît que AI va se commoditiser très rapidement et donc etre de plus difficile à monétiser.
Clairement le marché du consommateur individuel est déjà mort. Personne ne va payer pour accéder un chat. Qui paierait pour un browser. Avec un peu de chance on réplique le modèle microsoft office. Mais la concurrence edt déjà telle dans une phase de early adopter que ça paraît mort.
En b2b adossé à des logiciels d entreprise de type erp,crm,hcm,supply chains il sera difficile d en faire un add on payant. Il fera parti du produit. On peut imaginer des accords de license entre les providers d AI et les éditeurs de logiciels classiques mais les uns ont besoin des autres et vice versa donc peu de pouvoir de négociation de la part des providers.
Bien sur il y aura toujours des niches, des customisations intenses dans certains domaines ou l on peut extraire beaucoup de valeurs (domaine financier) mais le volume restera limité.
Finalement le modèle course à l armement des cpus et l électricité nécessaire n est pas viable à long terme. Tout le monde le sait. L eclatement des bulles arrive quand il n y a plus d argent pour jouer. Assechement des liquidités, pas de revenus internet 2000, pas de remboursements des dettes crise financière 2008. Avec AI on risque les 2.
Et malheureusement tous les marchés suivront le marché AI.

Pour le moment, le marché n’a pas l’air de parier outre mesure là-dessus : l’indice SaaS Bessemer EM Cloud montre que les multiples de valorisation sont plutôt en bas de leur fourchette historique.

L’intégration de modèles à de nombreux produits SaaS me semble inéluctable, mais est-ce que ça augmentera les marges des éditeurs ? C’est pas dit.

Encore une vision bulle de l AI par Paul Krugman
The current AI boom resembles the 1990s tech boom in other ways besides the tidal wave of spending. To those of us of a certain age, the hype — this will change everything! — is distinctly familiar. Now as then, the feverishness of the hype is a good reason to suspect that we’re in the midst of a huge speculative bubble. Reinforcing this suspicion is the fact that big tech companies, which generate billions in cash flow, are spending more on AI than their gushers of dollars can support. So now they’re taking on lots of debt
My guess is that the current tech boom, like the 90s boom, will end in a painful bust.

avec traduction
L’essor actuel de l’IA ressemble à celui des technologies des années 1990 sur d’autres points, outre le raz-de-marée des dépenses. Pour ceux d’entre nous d’un certain âge, l’engouement généralisé – « cela va tout changer !» – est familier. Aujourd’hui comme hier, l’effervescence de cet engouement est une bonne raison de soupçonner que nous sommes au cœur d’une énorme bulle spéculative. Ce soupçon est renforcé par le fait que les grandes entreprises technologiques, qui génèrent des milliards de dollars de trésorerie, dépensent plus en IA que ne le permettent leurs flux de trésorerie. Elles s’endettent donc massivement.
Je parie que l’essor technologique actuel, comme celui des années 1990, se terminera par une crise douloureuse.

Un peu HS, mais vu la mort lente et progressive du moteur de recherche de Google, ce n’est pas évident qu’il ne puisse pas se développer une offre payante, un marché de niche certes, pour des produits que nous avons eu l’habitude d’avoir gratuit : moteur de recherche, réseaux sociaux (vous utilisez encore instagram pour poster vos photos perso vous ?) pollués par la pub.

Je connais énormément de gens qui n’utilisent plus Google et l’ont remplacé par chatgpt, qui est très imparfait sur le sujet car pas indexé régulièrement donc totalement à la masse sur l’actualité.

De façon assez évidente, je ne serais pas surpris qu’OpenAI “pour les particuliers” finisse également par être pourri par la pub.

1 « J'aime »

Inévitable. La seule façon de rentabiliser avec des searchs enrichis AI

Le marché (tous les actifs, pas que les actions d’ailleurs) était déjà très fortement valorisé avant la hype IA, boosté par une décennie de taux historiquement bas.

Je trouve au contraire qu’il y a beaucoup d’attentes irrationnelles. L’IA c’est de la magie, ça peut tout faire. Mais rien que le fait de parler d’IA, un terme vague qui englobe de nombreuses techniques algorithmiques, pour moi c’est qu’on ne sait déjà pas de quoi on parle.

C’est vrai mais je doute fort que la mémoire soit plus plus forte que l’avidité. Et il y a tous ceux qui ne l’ont pas vécu.

Je reviens sur ce modèle AI Paper2agent et ses implications dans le domaine de la recherche scientifique. C’est une véritable révolution.
Imaginer un papier de recherche biologique qui décrit les effets d’un génome et les différents variants. La première vérification est de pouvoir reproduire les résultas publiés avec le dataset. Avec Paper2agent, la vérification (le code pour reproduire les résultats) est complétement automatisé et les résultats reproduits. Dans le cas réel d’une telle expérimentation, l’agent AI généré depuis le papier original a été en désacord avec les auteurs du papier. Quand il a été demandé à l’agent de réanalyser un variant lié au cholestérol, l’'agent a proposé un diférent gène causant le variant. Il a défendu son choix en graphiques, avec des scores/quantiles et raisonements biologiques à l’appui. Maintenant imaginer l’utilisation d’un tel agent dans tous les domaines. Par exemple prise d’actions en fonction d’un texte de loi, allocation de portfolio à partir du papier de Merton. Et puis sans compter son application couplée à la robotique. Il faut bien intégrer que l’AI conversationel à la CHATgpt n’est qu’une toute partie de la révolution AI.
Dans le domaine de l’optimisation/allocation de portfolio on va voir des choses révolutionaires et je pense que de nouveaux instruments financiers auxquels on avaient pas encore pensé ou capable de mettre en oeuvre vont voir le jour. Attendez vous à une explosion des instruments, des modes de trading, etc… dans les 10 prochaines années. Une époque super excitante à vivre. (beaucoup plus intéressant que les rotomondades de notre PDR, excusez moi, je n’ai pas pu m’en empécher) :yawning_face:

2 « J'aime »

Un autre exemple de la révolution AI. L’automatisation quasi complète d’une organisation de trading par des agents multiples.Ici. Et en plus le code est disponible. C’est sur quoi je « bosse » en ce moment pour voir comment ça fonctionne.
Voici le résumé. De la quasi science fiction.
Des progrès significatifs ont été réalisés dans la résolution automatisée de problèmes grâce à des sociétés d’agents basées sur de grands modèles de langage (MLM) cad LLM (Large Language Models) . En finance, les efforts se sont principalement concentrés sur des systèmes mono-agent gérant des tâches spécifiques ou sur des cadres multi-agents collectant des données de manière indépendante. Cependant, le potentiel des systèmes multi-agents à reproduire la dynamique collaborative des sociétés de trading réelles reste sous-exploré. TradingAgents propose un nouveau cadre de trading boursier inspiré des sociétés de trading, mettant en scène des agents basés sur des LLM occupant des postes spécialisés tels que des analystes fondamentaux, des analystes du sentiment, des analystes techniques et des traders présentant des profils de risque variés. Ce cadre comprend des agents de recherche haussiers et baissiers évaluant les conditions de marché, une équipe de gestion des risques surveillant l’exposition, et des traders synthétisant les informations issues des débats et des données historiques pour prendre des décisions éclairées. En simulant un environnement de trading dynamique et collaboratif, ce cadre vise à améliorer les performances de trading. Une architecture détaillée et des expérimentations approfondies révèlent sa supériorité par rapport aux modèles de référence, avec des améliorations notables des rendements cumulés, du ratio de Sharpe et du drawdown maximal, soulignant le potentiel des frameworks LLM multi-agents pour le trading financier. TRADINGAGENTS est disponible sur GitHub - TauricResearch/TradingAgents: TradingAgents: Multi-Agents LLM Financial Trading Framework.

honneur aux inventeurs
Yijia Xiao 1,3, Edward Sun 1,3, Di Luo 1,2, Wei Wang 1,3
1University of California, Los Angeles (UCLA)
2Massachusetts Institute of Technology (MIT)
3Tauric Research*

1 « J'aime »

Un commentaire du graphique d’une source bien informée à ce sujet :

A noter que c’est leur plan mais ça nécessite tellement d’argent (et pas mal de négociation politique) que c’est improbable qu’ils y arrivent - surtout en étant très très très loin d’une trajectoire de profitabilite a la hauteur des capex investis.
1GW ça se chiffre entre 10 milliards $ (si t’as un méga discount) et 40 milliards.
Aussi à noter que s’ils veulent faire ça ça sera clairement pas aux renouvelables ou nucléaires (trop lent pour être produit et raccordé au réseau) donc ça sera aux turbines à gaz. Donc selon mes calculs, si ça arrive, OpenAI deviendrait l’entreprise la plus polluante du monde :expressionless_face:

250GW ça revient à construire, en 8 ans, l’équivalent de 4.5 fois le parc nucléaire français. Je veux bien qu’ils aient beaucoup de capital et probablement des gens très compétents, peut-être même un soutien politique sans faille, mais ça me semble un poil ambitieux cet objectif.

Par contre, je ne comprends pas les chiffres à droite sur le graphique, rien qu’en solaire l’allemagne a de l’ordre de 100GW de puissance installée, à cela s’ajoute 75GW d’éoliens, 30 de charbon et à peu près autant de gaz, je vois absolument pas comment ils peuvent arriver à 57GW.

En France comme on a un système avec plus de centrales pilotables, on a une puissance installée de l’ordre de 160GW, dont 60 de nucléaire, 20 de solaire/éolien/hydro et environ 30 de gaz.

Et rajoutons à ça que la source semble dire « Energy » et pas « Electricity », ce qui me fait encore plus douter du graphique.

Vous pouvez voir les puissances installées, et l’énergie produite en temps réel ici : FR | App | Electricity Maps

2 « J'aime »

Bien vu, les données de la droite du graphiques semblent fausses. Je n’arrive pas à comprendre à quoi energy capacity fait référence ?

En creusant un peu, je tombe sur des données d’« energy storage » qui pourraient correspondre pour l’Allemagne ici si on additionne certaines données : Energy storage - Open Energy Tracker

Mais ça n’a rien à voir avec le type de capacité que souhaite développer OpenAI :sweat_smile:

En revanche, les chiffres du graphique principal semblent justes, si la citation d’Altman l’est.


1 « J'aime »


Pour le reposte LinkedIn, je vais être honnête : je ne suis pas étonné une seconde, vu que Google est un fournisseur de Cloud.

Après, perso je trouve que OpenAI fait un peu trop d’annonces pour au final des améliorations pas si ouf : entre GPT-5 et Claude 4.5, je préfère largement les résultats de Claude quand j’utilise un Agent IA pour copilot : il a moins tendance à perdre le fil de ce qu’il était en train de faire lui même. :stuck_out_tongue:

1 « J'aime »

To meet its more than $1t in spending commitments, OpenAI is looking at « creative » debt options

Un billet d’opinion qui m’a été recommandé :

Points clés en français :

  • L’article soutient que OpenAI a annoncé ou conclu des engagements massifs pour construire de nombreux centres de données (capacités à la hauteur des gigawatts) avec des partenaires comme NVIDIA, AMD et Broadcom.
  • L’auteur estime que le coût pour construire une seule “gigawatt” de capacité de centre de données s’élève à environ 50 milliards USD.
  • En cumulant les différents projets (1 GW chez Broadcom, 1 GW chez NVIDIA, 1 GW chez AMD, plus les coûts de puces, de marketing, de conversion de statut juridique, etc.), l’auteur avance qu’OpenAI a besoin d’environ 400 milliards USD dans les 12 prochains mois pour tenir ses promesses.
  • Il met en doute la crédibilité de cet agenda : manque de temps, manque de ressources (transformateurs, acier, infrastructures électriques, talent), incertitude quant à la rentabilité et à la demande.
  • Il affirme que cet effort pourrait avoir des implications systémiques dangereuses pour le système financier global s’il échoue ou ne peut pas être financé.

Current AI Models have 3 Unfixable Problems

Sabine Hossenfelder :

If you’ve used current AI models, you know that they can’t reason like a human. “But so what?,” you might say, “they’ll get there eventually.” I don’t think so. Today I have a look at three major problems blocking current AI tech progress that I think are fundamentally unsolvable.

1 « J'aime »