Quand le logiciel cesse d'attendre
Depuis longtemps, le logiciel a une personnalité très claire.
Il attend.
Vous ouvrez l’application. Vous appuyez sur le bouton. Vous tapez l’instruction. Il répond. Même le logiciel le plus sophistiqué de ces vingt dernières années a principalement vécu à l’intérieur de ce même schéma : entrée, traitement, sortie. Il est peut-être devenu plus rapide, plus beau, plus connecté et plus intelligent, mais sa posture fondamentale n’a jamais vraiment changé. Il restait là jusqu’à ce qu’un humain lui dise quoi faire.
Ce qui rend la conversation de Lex Fridman avec Peter Steinberger si intéressante, ce n’est pas simplement qu’il a construit un autre produit d’IA impressionnant. C’est qu’en l’écoutant décrire OpenClaw, on a le sentiment que cette posture commence à changer.
Le logiciel ne se contente plus de répondre.
Il commence à agir.
Une petite distinction qui n’en est pas une
Cela semble être une petite distinction. Ce n’est pas le cas.
Répondre maintient l’humain fermement à l’intérieur de l’ancien modèle de contrôle. Agir introduit quelque chose d’autre : initiative, interprétation, adaptation, et même une sorte de présence. Peter décrit des moments où le système n’a reçu qu’une ouverture approximative et a ensuite trouvé son propre chemin à travers le problème — identifiant les types de fichiers, convertissant les formats, trouvant des outils, comblant les lacunes de ses propres capacités, et ce de manières qui ont surpris même son créateur. Ce n’est pas de la magie. Mais ce n’est pas non plus l’ancien modèle logiciel.
Et c’est peut-être le vrai seuil autour duquel tourne cette conversation.
La croissance virale, les étoiles GitHub, le chaos lié au changement de nom, les captures d’écran de bots se lançant dans des conversations publiques absurdes sur MoltBook — tout cela est divertissant, et certains éléments sont révélateurs, mais ce n’est pas le centre de gravité.
Le centre est ceci : nous sommes peut-être en train de passer du logiciel comme outil au logiciel comme interlocuteur.
Pas un interlocuteur humain. Pas un interlocuteur conscient. Mais quelque chose qui se comporte de plus en plus moins comme un système de menus et davantage comme un participant.
Le logiciel comme participant
Cela aide à expliquer pourquoi la conversation semble plus philosophique que technique, même lorsqu’elle traite de terminaux, de boucles d’agents, de comportement des modèles ou d’injection de prompts. Peter ne parle pas comme quelqu’un qui a simplement automatisé davantage de flux de travail. Il parle comme quelqu’un qui est tombé dans un nouveau type de relation avec le logiciel — un type où la construction semble moins être une émission de commandes et plus une direction d’orchestre, un pilotage, une collaboration, parfois même une négociation.
La plupart des fondateurs décrivent les percées dans le langage de l’optimisation. Peter ne cesse de faire appel à quelque chose qui se rapproche davantage du jeu.
L’un des courants sous-jacents les plus frappants dans la conversation est qu’il n’encadre pas ce travail principalement en termes de discipline d’ingénierie ou d’exécution de startup. Il revient sans cesse sur la curiosité. L’étrangeté. Le plaisir. Il dit, à un moment donné, qu’il est difficile de concurrencer quelqu’un qui est juste là pour s’amuser.
Cette ligne semble anodine. Elle en explique peut-être plus qu’il n’y paraît.
Pourquoi le jeu trouve ce que les feuilles de route ratent
Les nouveaux paradigmes technologiques sont souvent d’abord découverts par des gens qui jouent avec eux avant que d’autres les industrialisent. Les gens sérieux arrivent plus tard. Ils emballent, assainissent, lèvent des fonds, professionnalisent, gouvernent, optimisent et agrandissent. Mais avant tout cela, quelqu’un doit généralement traiter la chose assez légèrement pour découvrir ce qu’elle veut devenir. OpenClaw semble avoir émergé moins d’un plan directeur que d’un créateur qui suivait un sentiment : cela devrait exister, cela devrait être plus facile, cela devrait sembler plus vivant.
L’avenir est souvent d’abord visible à travers le jeu. Il est rarement d’abord visible à travers les feuilles de route.
C’est aussi pourquoi une grande partie du discours sur l’IA d’aujourd’hui semble encore un peu à côté. Trop de questions posées sont les vieilles questions : Quel modèle est le meilleur ? Quelle entreprise est gagnante ? Quelle fonctionnalité compte le plus ? Ces questions ne sont pas inutiles, mais elles deviennent secondaires.
La question la plus perturbatrice pourrait être celle-ci :
Que se passe-t-il lorsque le logiciel porte suffisamment de contexte, d’initiative et d’autonomie pour que l’interface elle-même commence à se dissoudre ?
La fin de l’application comme destination
Peter soulève ce point indirectement lorsque la conversation tourne autour des applications. Pourquoi une personne devrait-elle continuer à ouvrir des dizaines de produits distincts lorsqu’un agent ayant accès au contexte, aux préférences, aux services et aux intentions pourrait coordonner ces actions directement ? L’intuition est puissante : de nombreuses applications ne disparaîtront peut-être pas parce qu’elles échouent, mais parce qu’elles deviennent inutiles en tant que destinations. Elles deviennent plutôt de l’infrastructure. Quelque chose derrière le rideau. Quelque chose avec lequel l’agent parle en votre nom.
Si cela se produit, alors l’industrie du logiciel n’est pas simplement confrontée à un autre changement de plateforme. Elle est confrontée à un changement d’identité.
Le centre de la valeur produit s’éloigne des interfaces isolées pour se diriger vers l’orchestration, le contexte, la confiance, les permissions et le comportement. La question cesse d’être que peut faire l’application ? et devient que peut faire le système avec tout ce qu’il sait ?
C’est une question beaucoup plus radicale.
Pourquoi la peur est rationnelle
Et cela aide à expliquer la peur.
Les gens ne réagissent pas seulement à la capacité. Ils réagissent à la posture. Un chatbot, aussi puissant soit-il, semble toujours délimité. Un agent avec accès, mémoire, initiative et permissions au niveau du système semble différent. Il touche un nerf plus profond — à la fois excitation et malaise — parce que les gens peuvent sentir qu’une ligne a été franchie, même s’ils n’ont pas encore le langage pour la nommer.
C’est pourquoi certaines des réactions publiques autour de MoltBook sont devenues si hystériques. Ce n’était pas simplement que des bots postaient des choses étranges. C’est que les gens ont projeté sur eux bien plus que ce que les systèmes méritaient. Peter et Lex pointent tous deux vers le même problème social : nous entrons dans une période où les gens confondront à plusieurs reprises le comportement généré avec l’intention, la performance avec la conscience, et les sorties théâtrales avec la réalité profonde. La technologie est suffisamment puissante pour déstabiliser, mais pas assez mature pour justifier la plupart des mythologies qui se forment autour d’elle.
De vraies percées entourées de mauvaises interprétations.
Cela peut être inévitable pendant un moment. Ce peut aussi être la chose la plus humaine dans tout ce moment.
La lecture plus optimiste
Mais il existe aussi une lecture plus optimiste.
Si le logiciel devient plus agentique, alors la création devient plus largement accessible. Peter parle de non-programmeurs qui s’impliquent, de personnes qui font leurs premières pull requests, et de personnes qui utilisent des agents pour créer des services qu’elles n’auraient jamais construits auparavant. Sous le battage médiatique se cache quelque chose de véritablement démocratisant : la distance entre avoir une idée et créer quelque chose de réel se rétrécit.
Cela ne signifie pas que le savoir-faire disparaît.
Cela signifie que le savoir-faire se déplace.
L’ancien savoir-faire était la syntaxe, la mémorisation, la connaissance rigide des outils, les trivia de frameworks, et des années de tolérance accumulée à la friction. Une partie de cela compte encore, mais moins qu’avant. Le nouveau savoir-faire ressemble davantage au jugement, à l’architecture, au goût, à la direction, à la pensée systémique, et à la capacité de maintenir une intention claire tout en travaillant avec des machines très capables mais imparfaites.
Le créateur ne disparaît pas. Il devient plus important — mais pour des raisons différentes. Moins dactylographe, plus chef d’orchestre.
La vraie histoire n’est pas OpenClaw
C’est pourquoi je ne pense pas que le cœur de cette conversation soit vraiment sur OpenClaw.
OpenClaw est le véhicule.
L’histoire plus profonde est que le logiciel commence à cesser d’attendre.
Et une fois que cela se produit, tout ce qui est en aval change : comment les produits sont construits, comment les interfaces comptent, comment la sécurité fonctionne, comment la confiance est gagnée, comment le travail est distribué, comment les humains définissent les compétences, et même comment nous reconnaissons ce qui semble encore indubitablement humain.
En fait, l’une des tensions les plus intéressantes dans la conversation est que, à mesure que l’IA devient plus puissante, les gens semblent également devenir plus sensibles à l’artificialité. Peter et Lex parlent tous deux à quel point il est maintenant facile de sentir la « bouillie d’IA » — dans l’écriture, les images, les diagrammes et les posts sur les réseaux sociaux. Cela suggère quelque chose d’important : la montée en puissance de la capacité générée par les machines ne nivellera peut-être pas la valeur humaine. Elle pourrait l’aiguiser. Nous pourrions commencer à valoriser davantage la rudesse, l’originalité, l’humour, l’imperfection et l’intention humaine authentique, précisément parce que la production synthétique devient si abondante.
Les machines prennent plus d’exécution. Les humains sont poussés vers le goût, l’intention, la responsabilité et le jugement. Le logiciel prend plus de comportement. Les humains deviennent plus conscients du type de comportement qu’ils veulent réellement autour d’eux.
L’interface s’adoucit. Les conséquences se durcissent.
C’est ce qui ressemble à la vraie âme de la conversation.
Non pas qu’un projet soit devenu viral. Mais que nous commençons à vivre le moment où le logiciel cesse d’attendre et commence à nous rejoindre à mi-chemin.
Et ce que nous faisons avec cela — ce que nous construisons, ce que nous permettons, ce que nous refusons, ce que nous insistons à exiger encore un humain dans la pièce — peut importer davantage que quel modèle est le plus rapide.
TIC Insights | Perspectives pour les dirigeants qui naviguent dans la technologie, l’innovation et le changement.