<?xml version="1.0" encoding="utf-8"?>
<feed xmlns="http://www.w3.org/2005/Atom"><title>Food and Tech (or the other way) - ai</title><link href="https://pe.becue.phd/" rel="alternate"/><link href="https://pe.becue.phd/feeds/ai.atom.xml" rel="self"/><id>https://pe.becue.phd/</id><updated>2026-04-04T22:30:00+02:00</updated><entry><title>On a atteint l’AGI</title><link href="https://pe.becue.phd/agi-now-fr.html" rel="alternate"/><published>2026-04-04T22:30:00+02:00</published><updated>2026-04-04T22:30:00+02:00</updated><author><name>PEB</name></author><id>tag:pe.becue.phd,2026-04-04:/agi-now-fr.html</id><summary type="html">&lt;p&gt;You said&amp;nbsp;putaclic?&lt;/p&gt;</summary><content type="html">&lt;div class="toc"&gt;&lt;span class="toctitle"&gt;Table of Contents&lt;/span&gt;&lt;ul&gt;
&lt;li&gt;&lt;a href="#agi"&gt;&lt;span class="caps"&gt;AGI&lt;/span&gt;&amp;nbsp;?&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="#les-mauvais-arguments"&gt;Les mauvais arguments&lt;/a&gt;&lt;ul&gt;
&lt;li&gt;&lt;a href="#ce-nest-que-du-pattern-matching"&gt;« Ce n&amp;#8217;est que du pattern matching&amp;nbsp;»&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="#le-raisonnement-humain-cest-pas-ca"&gt;« Le raisonnement humain c&amp;#8217;est pas ça&amp;nbsp;»&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;a href="#les-mauvais-arguments-pour-lagi"&gt;Les mauvais arguments pour l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt;&lt;/a&gt;&lt;ul&gt;
&lt;li&gt;&lt;a href="#linformation-2d-nest-pas-dans-les-donnees-1d"&gt;« L&amp;#8217;information 2D n&amp;#8217;est pas dans les données 1D&amp;nbsp;»&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="#si-un-humain-faisait-ca-on-appellerait-ca-du-raisonnement"&gt;« Si un humain faisait ça, on appellerait ça du raisonnement&amp;nbsp;»&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;a href="#ma-these-un-espace-de-connaissances-fixe"&gt;Ma thèse : un espace de connaissances fixe&lt;/a&gt;&lt;ul&gt;
&lt;li&gt;&lt;a href="#lanalogie-des-edp"&gt;L&amp;#8217;analogie des &lt;span class="caps"&gt;EDP&lt;/span&gt;&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="#ma-position"&gt;Ma&amp;nbsp;position&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="#bonus-le-piege-de-la-productivite-x10"&gt;Bonus : le piège de la productivité&amp;nbsp;x10&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;p&gt;Récemment, j&amp;#8217;ai malgré moi eu un échange sur un réseau social, qui m&amp;#8217;a amené à
formaliser ma thèse : les LLMs, si développés soient-ils, avec les capacités
agentiques qu&amp;#8217;on leur connaît actuellement, ne constituent actuellement pas ce
qui était initialement qualifié d&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt;.&lt;/p&gt;
&lt;p&gt;N&amp;#8217;aimant pas les échanges de ce genre sur les réseaux sociaux, où souvent le
point n&amp;#8217;est pas tant d&amp;#8217;apporter des arguments solides, mais plutôt de gagner le
débat par accumulation de sophismes, d&amp;#8217;insultes, et critiques vides, et par
matraquage argumentatif, j&amp;#8217;ai néanmoins fait une entorse, et la discussion que
j&amp;#8217;ai eue a été passionnante. J&amp;#8217;essaie ici de résumer mes arguments et
réflexions, mais aussi les contre-arguments que j&amp;#8217;ai vus et que je trouve&amp;nbsp;pertinents.&lt;/p&gt;
&lt;div class="admonition warning"&gt;
&lt;p class="admonition-title"&gt;Warning&lt;/p&gt;
&lt;p&gt;Je ne me lance pas dans des explications trop complexes, et je ne compte
pas inspecter en profondeur les aspects mathématiques que&amp;nbsp;j&amp;#8217;évoque.&lt;/p&gt;
&lt;p&gt;Bien que j&amp;#8217;en comprenne une grande partie, je ne suis pas expert du domaine
de l&amp;#8217;apprentissage profond ou des réseaux de neurones, et une partie de ce
que je décris me demanderait plusieurs heures pour être étayé. Je redoute
que le nombre de gens que ça intéresse soit trop faible pour justifier le
travail que cela représente, et qui surtout a été mieux fait par bien
d&amp;#8217;autres en&amp;nbsp;ligne.&lt;/p&gt;
&lt;/div&gt;
&lt;h1 id="agi"&gt;&lt;span class="caps"&gt;AGI&lt;/span&gt;&amp;nbsp;?&lt;/h1&gt;
&lt;p&gt;Le terme « intelligence artificielle générale » n&amp;#8217;a pas de définition
consensuelle, et c&amp;#8217;est une partie du problème. La &lt;a href="https://openai.com/charter/"&gt;charte
d&amp;#8217;OpenAI&lt;/a&gt; la définit vaguement comme des
« systèmes hautement autonomes qui surpassent les humains dans la plupart des
tâches économiquement utiles ». Google DeepMind a tenté de formaliser les
choses dans &lt;a href="https://arxiv.org/abs/2311.02462"&gt;Levels of &lt;span class="caps"&gt;AGI&lt;/span&gt;&lt;/a&gt; (Morris et al.,
2023), en proposant une taxonomie à cinq niveaux de performance: Emerging,
Competent, Expert, Virtuoso, Superhuman, croisés avec une dimension de
généralité (narrow vs. general). Dans cette grille, les &lt;span class="caps"&gt;LLM&lt;/span&gt; actuels se situent
au niveau 1, « Emerging &lt;span class="caps"&gt;AGI&lt;/span&gt; ». Aucun système n&amp;#8217;a encore atteint le niveau&amp;nbsp;2.&lt;/p&gt;
&lt;p&gt;Mais cette taxonomie est purement behavioriste : elle se concentre sur ce que
le système &lt;em&gt;fait&lt;/em&gt;, pas sur &lt;em&gt;comment&lt;/em&gt; il le fait. François Chollet propose une
approche radicalement différente dans &lt;a href="https://arxiv.org/abs/1911.01547"&gt;On the Measure of
Intelligence&lt;/a&gt; (2019) : l&amp;#8217;intelligence n&amp;#8217;est
pas la compétence sur une tâche donnée mais serait plutôt l&amp;#8217;&lt;em&gt;efficacité
d&amp;#8217;acquisition de compétences&lt;/em&gt; sur des tâches inconnues. Dit autrement, la
capacité de généralisation hors distribution. C&amp;#8217;est cette définition qui
sous-tend le benchmark &lt;a href="https://arcprize.org/"&gt;&lt;span class="caps"&gt;ARC&lt;/span&gt;-&lt;span class="caps"&gt;AGI&lt;/span&gt;&lt;/a&gt;, sur lequel les &lt;span class="caps"&gt;LLM&lt;/span&gt;
actuels peinent encore&amp;nbsp;significativement.&lt;/p&gt;
&lt;p&gt;Ici, je m&amp;#8217;intéresse à l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt; au sens fort. Un système qui performe bien sur un
large éventail de benchmarks (ce que les &lt;span class="caps"&gt;LLM&lt;/span&gt; font déjà ou feront bientôt) ne
m&amp;#8217;intéresse pas (c&amp;#8217;est un super outil, et je m&amp;#8217;en sers déjà, entendons-nous).
Ce qui m&amp;#8217;intéresse, c&amp;#8217;est une intelligence véritablement générale, capable
d&amp;#8217;apprentissage autonome, d&amp;#8217;auto-extension conceptuelle, et de transfert
robuste à des domaines jamais rencontrés. La distinction entre les deux est, à
mon humble avis, au cœur de nombreux&amp;nbsp;désaccords.&lt;/p&gt;
&lt;h1 id="les-mauvais-arguments"&gt;Les mauvais&amp;nbsp;arguments&lt;/h1&gt;
&lt;p&gt;Allez, je me lance, je débunke des arguments que j&amp;#8217;ai lus, et même certains que
j&amp;#8217;ai pu avoir à l&amp;#8217;emporte-pièce, parce qu&amp;#8217;avant de défendre une thèse, c&amp;#8217;est
bien de faire le ménage des approches&amp;nbsp;simplistes.&lt;/p&gt;
&lt;h2 id="ce-nest-que-du-pattern-matching"&gt;« Ce n&amp;#8217;est que du pattern matching&amp;nbsp;»&lt;/h2&gt;
&lt;p&gt;L&amp;#8217;un des arguments les plus fréquents que je lis est que, dans la mesure où les
LLMs actuels sont construits de façon à prolonger un échange par prédiction
itérative des mots suivants, ils ne seraient que des outils faisant du
pattern-matching, peut-être sophistiqués, mais limités à cette&amp;nbsp;fonction.&lt;/p&gt;
&lt;p&gt;Bien qu&amp;#8217;elle soit biaisée, on peut citer les travaux récents d&amp;#8217;Anthropic sur
les &lt;a href="https://transformer-circuits.pub/2025/attribution-graphs/biology.html"&gt;attribution
graphs&lt;/a&gt;
qui tendent à montrer que les modèles développent des représentations
conceptuelles internes qui transcendent les langues, et ce qu&amp;#8217;elles aient ou
non été vues ensemble dans les données d&amp;#8217;entraînement. Cela implique que, quand
bien même l&amp;#8217;essence de construction de ces outils serait du pattern-matching,
il a permis d&amp;#8217;atteindre un certain niveau&amp;nbsp;d&amp;#8217;abstraction.&lt;/p&gt;
&lt;p&gt;De même, le travail sur &lt;a href="https://arxiv.org/abs/2309.00941"&gt;Othello-&lt;span class="caps"&gt;GPT&lt;/span&gt;&lt;/a&gt;
démontre qu&amp;#8217;un modèle entraîné uniquement sur des séquences 1D de coups
développe une représentation interne structurée du plateau 2D. Le modèle a
inféré la structure générative derrière les données sans jamais voir de
plateau. On peut souligner que les règles qui sont fournies au modèle décrivent
implicitement une géométrie 2D et donc permettent cette abstraction, mais le
fond&amp;nbsp;demeure.&lt;/p&gt;
&lt;p&gt;Dire que c&amp;#8217;est « juste du pattern matching » revient à ignorer ce genre de
résultat, pourtant novateur. La question serait donc de savoir si
l&amp;#8217;intelligence humaine fait plus que du pattern-matching sophistiqué. C&amp;#8217;est
actuellement une question de sciences cognitives qui, à ma connaissance, est
ouverte. Autrement dit, « on ne sait pas&amp;nbsp;».&lt;/p&gt;
&lt;h2 id="le-raisonnement-humain-cest-pas-ca"&gt;« Le raisonnement humain c&amp;#8217;est pas ça&amp;nbsp;»&lt;/h2&gt;
&lt;p&gt;J&amp;#8217;ai envie de répondre « ok, alors c&amp;#8217;est quoi » ? On ne sait pas si le
raisonnement humain est fondamentalement différent du pattern matching ou juste
un pattern matching biologique plus riche. C&amp;#8217;est le cœur du problème. Les
humains font des choses que les &lt;span class="caps"&gt;LLM&lt;/span&gt; ne font toujours pas bien, par exemple, des
raisonnements causal robustes, de la planification à très long terme ou encore
de la découverte scientifique ab initio, mais ça pourrait être une question de
degré plutôt que de&amp;nbsp;nature.&lt;/p&gt;
&lt;p&gt;Je trouve à ce titre les tests &lt;a href="https://arcprize.org/arc-agi/3"&gt;&lt;span class="caps"&gt;ARC&lt;/span&gt;-&lt;span class="caps"&gt;AGI&lt;/span&gt;-3&lt;/a&gt;
intéressants (je sais, je débunke un peu mon propre débunkage), car ces tests
sont intrinsèquement simples pour des humains, sans énoncé, sans rien, et pour
l&amp;#8217;instant même les meilleurs modèles ont des résultats catastrophiques. Cela ne
change pas fondamentalement ce qui est écrit au dessus, mais cela pose une
question (un peu hors sujet) sur la quantité d&amp;#8217;énergie qu&amp;#8217;on met vis-à-vis des
résultats qu&amp;#8217;on obtient. S&amp;#8217;il y a bien un point sur lequel les humains ont de
la marge, c&amp;#8217;est l&amp;#8217;énergie consommée pour produire l&amp;#8217;intelligence qu&amp;#8217;ils&amp;nbsp;ont.&lt;/p&gt;
&lt;h1 id="les-mauvais-arguments-pour-lagi"&gt;Les mauvais arguments pour l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt;&lt;/h1&gt;
&lt;h2 id="linformation-2d-nest-pas-dans-les-donnees-1d"&gt;« L&amp;#8217;information 2D n&amp;#8217;est pas dans les données 1D&amp;nbsp;»&lt;/h2&gt;
&lt;p&gt;On m&amp;#8217;a objecté que la représentation 2D apprise par Othello-&lt;span class="caps"&gt;GPT&lt;/span&gt; serait « un
comportement émergent, car en dehors de l&amp;#8217;enveloppe convexe des données ». En
effet, la dimension du plateau n&amp;#8217;existerait pas dans les&amp;nbsp;inputs.&lt;/p&gt;
&lt;p&gt;À mon humble avis, c&amp;#8217;est une confusion. Comme écrit au-dessus, la spatialité en
2D est encodée dans les séquences, car les contraintes de légalité des coups
encodent probablement en partie la topologie d&amp;#8217;un plateau. Ainsi, le réseau joue
avec une structure latente qui existe déjà dans la somme d&amp;#8217;heuristiques
apprises (amies statistiques, bonjour). Avec suffisamment de paramètres, un
réseau de neurones est, en théorie, un approximateur universel (cf théorèmes de
Cybenko et Hornik). Il peut donc en théorie approcher n&amp;#8217;importe quelle fonction
continue sur un compact de ℝᵈ. C&amp;#8217;est donc assez attendu qu&amp;#8217;il connaisse une
structure 2D à partir de séquences&amp;nbsp;1D.&lt;/p&gt;
&lt;p&gt;Mais l&amp;#8217;histoire ne s&amp;#8217;arrête pas là. Les travaux initiaux de &lt;a href="https://arxiv.org/abs/2210.13382"&gt;Li et
al.&lt;/a&gt; avaient besoin de &lt;em&gt;probes non-linéaires&lt;/em&gt;
pour décoder l&amp;#8217;état du plateau depuis les activations internes. Cela posait
problème, car l&amp;#8217;hypothèse est devenue que c&amp;#8217;étaient les probes plutôt que le
réseau qui faisaient le travail. Neel Nanda a ensuite montré que des probes
&lt;em&gt;linéaires&lt;/em&gt; suffisaient, à condition de reformuler les labels en «
mine/yours/empty » plutôt que « black/white/empty », ce qui est un résultat
nettement plus&amp;nbsp;convaincant.&lt;/p&gt;
&lt;p&gt;Cependant, un &lt;a href="https://www.lesswrong.com/posts/gcpNuEZnxAPayaKBY/othellogpt-learned-a-bag-of-heuristics-1"&gt;travail plus
récent&lt;/a&gt;
a montré que cette représentation interne n&amp;#8217;est probablement pas un modèle
abstrait et cohérent du plateau, mais un agrégat de règles heuristiques
localisées. Par exemple, un neurone spécifique encode « si A4 vient d&amp;#8217;être
joué &lt;span class="caps"&gt;ET&lt;/span&gt; B4 est occupé &lt;span class="caps"&gt;ET&lt;/span&gt; C4 est occupé, alors mettre à jour B4, C4 et D4 ». Ces
heuristiques se contredisent parfois, mais leur agrégation produit des
prédictions correctes dans la grande majorité des cas. Comme le résume Melanie
Mitchell dans &lt;a href="https://aiguide.substack.com/p/llms-and-world-models-part-2"&gt;son
analyse&lt;/a&gt;, c&amp;#8217;est
plus Ptolémée et ses épicycles qu&amp;#8217;un vrai modèle du&amp;nbsp;monde.&lt;/p&gt;
&lt;p&gt;Ce résultat est structurellement important : un &lt;span class="caps"&gt;LLM&lt;/span&gt; avec des milliards de
paramètres peut se permettre de stocker des millions d&amp;#8217;heuristiques spécifiques
&lt;em&gt;au lieu&lt;/em&gt; de généraliser. Les humains, contraints par leur mémoire de travail
et leur énergie limitées, sont &lt;em&gt;forcés&lt;/em&gt; de former des modèles abstraits. Plus
de scale ne mène pas automatiquement à plus d&amp;#8217;abstraction. Rien n&amp;#8217;interdit
d&amp;#8217;ailleurs d&amp;#8217;imaginer que cela puisse même être l&amp;#8217;inverse. (ce qui resterait&amp;nbsp;puissant)&lt;/p&gt;
&lt;h2 id="si-un-humain-faisait-ca-on-appellerait-ca-du-raisonnement"&gt;« Si un humain faisait ça, on appellerait ça du raisonnement&amp;nbsp;»&lt;/h2&gt;
&lt;p&gt;Dans les échanges que j&amp;#8217;ai eus, on m&amp;#8217;a opposé que si un humain faisait la même
chose que ce qu&amp;#8217;on observe chez un &lt;span class="caps"&gt;LLM&lt;/span&gt; avec fonctions agentiques, on
appellerait ça du&amp;nbsp;raisonnement.&lt;/p&gt;
&lt;p&gt;Cet argument a une structure circulaire. Il définit le raisonnement par le
comportement observable, puis constate que le &lt;span class="caps"&gt;LLM&lt;/span&gt; reproduit ce comportement, et
conclut qu&amp;#8217;il raisonne. C&amp;#8217;est une position philosophique qu&amp;#8217;on appelle
behaviorisme. Elle est défendable, mais selon moi elle trouve ses limites&amp;nbsp;ici.&lt;/p&gt;
&lt;p&gt;Pour illustrer : &lt;span class="caps"&gt;PCA&lt;/span&gt; aussi extrait une structure latente des données et en fait
une représentation explicite. On n&amp;#8217;appelle pas ça du raisonnement. Une réponse
pourrait être « oui mais &lt;span class="caps"&gt;PCA&lt;/span&gt; c&amp;#8217;est linéaire, c&amp;#8217;est plus simple ». C&amp;#8217;est tout à
fait possible, auquel cas on revient au du &lt;em&gt;degré&lt;/em&gt; par opposition à la
&lt;em&gt;nature&lt;/em&gt;. Et un débat de degré ne permet pas à mon avis de mener à l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt;.&lt;/p&gt;
&lt;p&gt;Par ailleurs, même en acceptant le cadre behavioriste, les &lt;span class="caps"&gt;LLM&lt;/span&gt; échouent encore
sur des tâches qui &lt;em&gt;devraient&lt;/em&gt; être triviales si l&amp;#8217;abstraction interne était du
vrai raisonnement général : le raisonnement spatial, la planification
multi-étapes avec contraintes, ou les problèmes
&lt;a href="https://arcprize.org/"&gt;&lt;span class="caps"&gt;ARC&lt;/span&gt;-&lt;span class="caps"&gt;AGI&lt;/span&gt;&lt;/a&gt; simples montrent que l&amp;#8217;abstraction apprise est
fragile et spécifique au&amp;nbsp;domaine.&lt;/p&gt;
&lt;h1 id="ma-these-un-espace-de-connaissances-fixe"&gt;Ma thèse : un espace de connaissances&amp;nbsp;fixe&lt;/h1&gt;
&lt;p&gt;Voici ce qui, selon moi, constitue l&amp;#8217;argument le plus solide contre la thèse
&lt;span class="caps"&gt;AGI&lt;/span&gt;.&lt;/p&gt;
&lt;p&gt;Un &lt;span class="caps"&gt;LLM&lt;/span&gt;, une fois entraîné, est une fonction fixe f : ℝᵈ → ℝᵈ. Les poids sont
gelés. L&amp;#8217;&lt;em&gt;in-context learning&lt;/em&gt; donne l&amp;#8217;illusion que la fonction change, on
fournit des exemples et le modèle s&amp;#8217;adapte à ceux-ci, mais mécaniquement, c&amp;#8217;est
toujours la même fonction f évaluée sur un input plus riche. C&amp;#8217;est f(contexte +
question), pas une nouvelle&amp;nbsp;f.&lt;/p&gt;
&lt;p&gt;Le réseau peut structurer ℝᵈ de façon remarquable. Ses représentations internes
sont organisées sur ce qui s&amp;#8217;apparente à des sous-variétés dont la topologie
reflète des structures complexes. Mais il ne peut pas &lt;em&gt;étendre&lt;/em&gt; son propre
espace de représentation. La dimension d est fixée à la&amp;nbsp;conception.&lt;/p&gt;
&lt;p&gt;Un humain fait, à mon avis, quelque chose de structurellement différent : il
invente de nouveaux concepts (nombres complexes, espaces de Hilbert,
catégories) qui étendent son espace de représentation. Ma thèse est que la
question portant sur l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt; au sens fort passe de « le réseau peut-il atteindre
tout point de ℝᵈ ? » à quelque chose comme « le système peut-il augmenter d
lui-même ? ». Et la réponse, pour un &lt;span class="caps"&gt;LLM&lt;/span&gt; à poids gelés, semble être non. Je ne
vois d&amp;#8217;ailleurs aucun monde où cela&amp;nbsp;changerait.&lt;/p&gt;
&lt;p&gt;Pour moi, si on espère atteindre l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt; au sens fort, il va falloir ajouter
plusieurs axes aux outils déjà existants, parmi lesquels une mémoire
épisodique, une capacité d&amp;#8217;adaptation des poids en fonction des nouvelles
découvertes, mais surtout une capacité à créer &lt;em&gt;de nouveaux poids&lt;/em&gt;. Cela me
semble structurellement impossible avec la théorie sur laquelle ces modèles ont
été créés et&amp;nbsp;entraînés.&lt;/p&gt;
&lt;h2 id="lanalogie-des-edp"&gt;L&amp;#8217;analogie des &lt;span class="caps"&gt;EDP&lt;/span&gt;&lt;/h2&gt;
&lt;p&gt;Le raisonnement humain est-il modélisable ? Peut-être. Mais même si c&amp;#8217;est le
cas, je me raccroche au fait que les équations de réaction-diffusion (ma thèse
reposait sur un tel modèle) nous échappent toujours analytiquement. Même si
l&amp;#8217;on construisait un modèle mathématique du raisonnement humain, une &lt;span class="caps"&gt;IA&lt;/span&gt; qui
n&amp;#8217;en serait qu&amp;#8217;une discrétisation, aussi fine soit-elle, pourrait ne jamais
le représenter&amp;nbsp;exactement.&lt;/p&gt;
&lt;p&gt;&lt;span class="caps"&gt;MAIS&lt;/span&gt;, cet argument a une limite : les discrétisations fines de Navier-Stokes
&lt;em&gt;suffisent&lt;/em&gt; largement pour concevoir des avions ou comprendre de nombreux
comportements. On n&amp;#8217;a pas besoin de la solution exacte pour être extrêmement
utile. De même, un &lt;span class="caps"&gt;LLM&lt;/span&gt; pourrait s&amp;#8217;approcher du raisonnement humain avec une
précision telle que distinguer les deux serait pratiquement&amp;nbsp;impossible.&lt;/p&gt;
&lt;p&gt;Néanmoins, ces discrétisations échouent aux singularités, à savoir les points
où le phénomène continu a un comportement non régulier. Si le raisonnement
humain a de telles singularités, par exemple des moments de rupture créative ou
de saut d&amp;#8217;abstraction, alors c&amp;#8217;est peut-être exactement là qu&amp;#8217;une
discrétisation, aussi fine soit-elle, rate l&amp;#8217;essentiel. Mais encore une fois,
on en sait&amp;nbsp;rien.&lt;/p&gt;
&lt;h2 id="ma-position"&gt;Ma&amp;nbsp;position&lt;/h2&gt;
&lt;p&gt;Je pense que dans 10 à 20 ans, on aura des modèles qui, même en tant que
discrétisations, seront plus performants que les humains sur la plupart des
tâches cognitives. Surhumain par accumulation de scale et de raffinements
architecturaux, ça semble plausible. Ils consommeront bien plus de ressources
pour ce niveau de qualité que chaque humain en consomme pour lui-même avec un
niveau de qualité somme-toute très&amp;nbsp;bonne.&lt;/p&gt;
&lt;p&gt;Mais l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt; au sens fort, à savoir un système qui s&amp;#8217;auto-étend, reformule ses
propres cadres conceptuels, et augmente sa propre dimensionnalité, à mon avis
ça reste un saut qualitatif pour lequel on n&amp;#8217;a pas de raison claire de croire
que les approches actuelles&amp;nbsp;suffisent.&lt;/p&gt;
&lt;p&gt;La position la plus honnête est probablement celle-ci : on aura des systèmes
&lt;em&gt;pratiquement indistinguables&lt;/em&gt; de l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt; bien avant d&amp;#8217;avoir l&amp;#8217;&lt;span class="caps"&gt;AGI&lt;/span&gt; au sens fort.
Peut-être même que cette distinction n&amp;#8217;aura plus de sens. Mais en attendant, on
n&amp;#8217;a absolument aucune certitude. Et c&amp;#8217;est ma position : les pro sont dans
l&amp;#8217;excès, les anti sont dans l&amp;#8217;excès. Réjouissons-nous de ce que nous avons,
essayons de nous en servir intelligemment, et suivons le chemin pour les
prochains sauts. En acceptant qu&amp;#8217;ils puissent ne pas&amp;nbsp;arriver.&lt;/p&gt;
&lt;h2 id="bonus-le-piege-de-la-productivite-x10"&gt;Bonus : le piège de la productivité&amp;nbsp;x10&lt;/h2&gt;
&lt;p&gt;En marge de ce débat, j&amp;#8217;ai aussi échangé sur la promesse du « x10 de
productivité grâce à l&amp;#8217;&lt;span class="caps"&gt;IA&lt;/span&gt; ». La réponse standard est « si la qualité baisse,
c&amp;#8217;est qu&amp;#8217;on utilise mal l&amp;#8217;&lt;span class="caps"&gt;IA&lt;/span&gt; ». C&amp;#8217;est un peu comme dire que si on le voulait
très fort, on pourrait supprimer tous les morts au travail, ou tous les
accidents de la&amp;nbsp;route.&lt;/p&gt;
&lt;p&gt;En pratique, je pense que c&amp;#8217;est un mirage. Si on ne relit pas tout ce que les
agents produisent, et, soyons honnêtes, on ne le fait pas, la probabilité
d&amp;#8217;introduire des erreurs tend vers 1. Les études disponibles convergent vers un
constat : les gains de productivité réels sont bien en deçà du x10 annoncé, et
s&amp;#8217;accompagnent souvent de compromis sur la&amp;nbsp;qualité.&lt;/p&gt;
&lt;p&gt;Les chiffres sont parlants. L&amp;#8217;essai randomisé contrôlé de &lt;a href="https://arxiv.org/abs/2507.09089"&gt;&lt;span class="caps"&gt;METR&lt;/span&gt;
(2025)&lt;/a&gt;, portant sur 16 développeurs
open-source expérimentés et 246 tâches, a trouvé que l&amp;#8217;&lt;span class="caps"&gt;IA&lt;/span&gt; &lt;em&gt;augmentait&lt;/em&gt; le temps
de complétion de 19%, alors même que les développeurs eux-mêmes estimaient
gagner 20%. Le &lt;span class="caps"&gt;RCT&lt;/span&gt; interne de Google (2024) mesure un gain plus modeste de ~21%
sur une tâche réaliste. Une étude multi-entreprises (Microsoft, Accenture,
Fortune 100) trouve ~26% avec Copilot, mais avec une distribution très
inégale : 35-39% pour les juniors, 8-16% pour les seniors. Une &lt;a href="https://arxiv.org/abs/2507.03156"&gt;méta-analyse de 37
études&lt;/a&gt; confirme des gains sur les tâches
répétitives, mais aussi une délégation cognitive accrue, une réduction de la
collaboration, et des effets inconsistants sur la qualité du&amp;nbsp;code.&lt;/p&gt;
&lt;p&gt;Et même quand les gains individuels sont réels, ils ne se traduisent pas au
niveau système. Le rapport &lt;a href="https://addyo.substack.com/p/the-reality-of-ai-assisted-software"&gt;&lt;span class="caps"&gt;DORA&lt;/span&gt;/Faros « &lt;span class="caps"&gt;AI&lt;/span&gt; Productivity Paradox »
(2025)&lt;/a&gt;
montre que les développeurs avec &lt;span class="caps"&gt;IA&lt;/span&gt; créent ~98% de pull requests en plus, mais
que le temps de review augmente de ~91%. Le goulot d&amp;#8217;étranglement se déplace,
le gain net se dissipe. C&amp;#8217;est un peu un variant de la loi d&amp;#8217;Amdahl appliquée
aux&amp;nbsp;organisations.&lt;/p&gt;
&lt;p&gt;Le x10 des juniors (ou des seniors hypés) qui vibecodent du code sans review,
c&amp;#8217;est du throughput, pas de la qualité. C&amp;#8217;est produire 10x plus de code quitte
à produire dix fois plus de&amp;nbsp;déchet.&lt;/p&gt;
&lt;p&gt;Bien évidemment, le dire, c&amp;#8217;est être un rabat-joie obsolète et bientôt&amp;nbsp;remplacé.&lt;/p&gt;</content><category term="ai"/><category term="ai"/><category term="agi"/><category term="tech"/><category term="social"/></entry></feed>