Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Pourquoi OpenAI rattraperait-elle Claude Code à la place ?
Titre original : Inside OpenAI』s Race to Catch Up to Claude Code Auteur original : Maxwell Zeff, Wired Traducteur : Peggy, BlockBeats
Auteur original : BlockBeats
Source originale :
Reproduction : Mars Finance
Note de l’éditeur : Dans un contexte où les agents d’IA de plus en plus performants émergent rapidement, OpenAI, qui a mené la vague de l’IA générative avec ChatGPT, se retrouve à la traîne dans cette course cruciale. En contraste frappant, Anthropic, fondée par d’anciens membres d’OpenAI, connaît un succès fulgurant avec Claude Code dans la communauté des développeurs et le marché des entreprises, devenant l’un des leaders dans le domaine des outils de programmation IA.
Cet article, basé sur des interviews avec des cadres, ingénieurs et développeurs d’OpenAI, dévoile la véritable dynamique derrière cette compétition : depuis la scission du projet OpenAI Codex, le recentrage sur ChatGPT et les modèles multimodaux, jusqu’à la réorganisation interne et la accélération du lancement de produits de programmation IA, OpenAI traverse une étape de transition, passant d’un oubli stratégique à une course effrénée. Ce n’est pas tant une faiblesse technique, mais un décalage stratégique : l’émergence de ChatGPT a modifié les priorités de l’entreprise, la collaboration avec Microsoft limitant ses options, tandis qu’Anthropic a misé plus tôt sur la voie de la programmation IA.
Au-delà de cette compétition, des enjeux plus profonds apparaissent : à mesure que les agents IA prennent en charge un nombre croissant de tâches cognitives, le processus de développement logiciel et même le travail de bureau pourraient être redéfinis.
Voici la traduction intégrale du texte :
Le PDG d’OpenAI, Sam Altman, croise les jambes sur son fauteuil de bureau, regarde le plafond comme s’il cherchait une réponse encore floue. En partie, cela reflète aussi l’environnement.
Le nouveau siège d’OpenAI, situé à Mission Bay, San Francisco, est un bâtiment moderne en verre et bois clair, évoquant presque un « temple de la technologie ». Derrière la réception, une étagère expose un manuel sur « Les Ères de l’IA », comme une voie vers une révélation technologique. Sur les murs du escalier, des posters retraçant les jalons du développement de l’IA, dont un montre une machine battant une équipe d’élite lors d’un tournoi de Dota 2, sont affichés. Dans le couloir, des chercheurs en t-shirts à slogans circulent, dont un indique : « La bonne recherche prend du temps. » Bien sûr, idéalement, pas trop longtemps.
Nous sommes dans une grande salle de réunion. La question que je pose à Altman concerne la révolution de la programmation IA qui déferle sur l’industrie, et pourquoi OpenAI ne semble pas en tirer parti.
Aujourd’hui, des millions de développeurs confient une partie de leur travail à l’IA, confrontant pour la première fois une réalité : l’automatisation pourrait toucher leur propre emploi. Les agents de codage deviennent ainsi l’un des rares cas où les entreprises sont prêtes à payer cher pour l’IA. Théoriquement, ce moment aurait dû être la prochaine « victoire » dans la communication d’OpenAI, mais ce n’est pas le nom qui occupe la une.
Le concurrent d’OpenAI est Anthropic, une startup fondée par d’anciens membres d’OpenAI. Avec son produit Claude Code, Anthropic connaît une croissance explosive. En février, l’entreprise a révélé que ce produit représentait près d’un cinquième de son chiffre d’affaires, soit un revenu annuel supérieur à 2,5 milliards de dollars. En comparaison, selon une source, fin janvier, le revenu annuel d’OpenAI Codex, son propre produit de programmation, dépassait à peine 1 milliard de dollars.
La question est : pourquoi, dans cette course à la programmation IA, OpenAI accuse-t-elle un retard ?
« L’avantage du premier arrivé est très important », explique Altman après une pause, « nous en avons déjà fait l’expérience avec ChatGPT. »
Pour lui, c’est le moment pour OpenAI de se lancer à fond dans la programmation IA. Il pense que les modèles actuels de l’entreprise sont suffisamment puissants pour supporter des agents de codage très complexes. Bien sûr, cette capacité n’est pas le fruit du hasard : l’entreprise a investi des dizaines de milliards de dollars dans la formation de ses modèles.
« Ce sera une énorme affaire », dit Altman, « non seulement pour la valeur économique qu’elle génère, mais aussi pour la productivité universelle qu’elle peut libérer. » Il marque une pause, puis ajoute : « Je dis rarement ce mot, mais je pense que cela pourrait être l’un des marchés atteignant plusieurs dizaines de milliers de milliards de dollars. »
Plus loin, il estime que Codex pourrait être la « voie la plus probable » vers une intelligence artificielle générale (AGI). Selon la définition d’OpenAI, une AGI est un système capable de surpasser l’humain dans la majorité des tâches à valeur économique.
Cependant, malgré cette confiance affichée, la réalité interne de l’entreprise ces dernières années est bien plus complexe. Pour mieux comprendre cette histoire, j’ai interviewé plus de 30 personnes proches du dossier, y compris des cadres et employés actuels d’OpenAI ayant accepté de s’exprimer, ainsi que d’anciens employés anonymes décrivant le fonctionnement interne. Ces témoignages révèlent une situation peu courante : OpenAI est en train de rattraper son retard.
Revenons à 2021. À cette époque, Altman et d’autres cadres d’OpenAI invitent le journaliste Steven Levy de WIRED dans leurs bureaux du quartier Mission, à San Francisco, pour une démonstration d’une nouvelle technologie. Il s’agit d’un projet dérivé de GPT-3, entraîné sur une grande quantité de code open source provenant de GitHub.
Lors de la démonstration, les dirigeants montrent comment l’outil nommé Codex peut recevoir des instructions en langage naturel et générer des fragments de code simples.
« En réalité, il peut exécuter des opérations dans le monde informatique pour vous », explique alors Greg Brockman, président et cofondateur d’OpenAI, « c’est un système capable d’exécuter de véritables commandes. » Même à cette époque, les chercheurs d’OpenAI considéraient déjà que Codex serait la clé pour construire un « super assistant ».
À cette période, Altman et Brockman sont presque constamment en réunion avec Microsoft, le plus gros investisseur d’OpenAI. Microsoft prévoit d’utiliser Codex pour ses premiers produits d’IA commercialisés : un outil de complétion de code appelé GitHub Copilot, intégré directement dans l’environnement de développement des programmeurs.
Un ancien employé d’OpenAI se souvient qu’à cette étape, Codex « ne faisait que de l’autocomplétion ». Mais les dirigeants de Microsoft y voient déjà un signal fort de l’arrivée de l’ère de l’IA.
En juin 2022, lorsque GitHub Copilot est lancé officiellement, il attire rapidement des centaines de milliers d’utilisateurs.
L’équipe d’OpenAI responsable de Codex est ensuite redéployée sur d’autres projets. Un ancien employé raconte que l’entreprise pensait alors que les modèles futurs auraient déjà la capacité de programmer, rendant inutile la maintenance d’une équipe dédiée à Codex. Certains ingénieurs ont rejoint le développement de DALL-E 2, d’autres se sont concentrés sur GPT-4. À l’époque, cela semblait la voie la plus directe vers l’AGI.
Puis, en novembre 2022, ChatGPT est lancé, atteignant plus de 100 millions d’utilisateurs en deux mois. La majorité des autres projets internes sont alors mis en pause. Au cours des années suivantes, OpenAI n’a pratiquement pas maintenu d’équipe dédiée à la programmation IA. Un ancien participant à Codex explique qu’après le succès de ChatGPT, la programmation IA n’était plus une priorité dans la nouvelle stratégie « produits grand public ». Par ailleurs, le secteur considérait généralement que ce domaine était déjà « couvert » par GitHub Copilot, essentiellement une initiative de Microsoft. OpenAI fournissait surtout le support des modèles sous-jacents.
Ainsi, en 2023 et 2024, OpenAI concentre ses ressources sur les modèles multimodaux et les agents intelligents. Ces systèmes sont conçus pour comprendre simultanément du texte, des images, des vidéos et de l’audio, et manipuler le curseur et le clavier comme un humain. Cette orientation semblait plus en phase avec la tendance du marché : les modèles d’image comme Midjourney ont rapidement gagné en popularité sur les réseaux sociaux, et l’industrie pensait que pour atteindre un niveau supérieur d’intelligence, les grands modèles de langage devaient « voir » et « entendre » le monde.
En revanche, Anthropic a choisi une voie différente. Bien que cette société développe aussi des chatbots et des modèles multimodaux, elle aurait été plus tôt à percevoir le potentiel de la programmation. Lors d’un récent podcast, Brockman a reconnu qu’Anthropic s’était « concentrée intensément sur la capacité de programmation » dès ses débuts. Il explique que, lors de l’entraînement, la société a utilisé non seulement des problèmes de programmation complexes issus de concours académiques, mais aussi une grande quantité de « code désordonné » provenant de dépôts réels.
« C’est une leçon que nous avons apprise plus tard », confie Brockman.
Au début 2024, Anthropic a commencé à entraîner Claude 3.5 Sonnet avec ces données issues de dépôts de code réels. Lors de sa sortie en juin, ses capacités en programmation ont impressionné de nombreux utilisateurs.
Ce potentiel a été confirmé par une startup nommée Cursor, fondée par une équipe de jeunes dans la vingtaine. Elle a développé un outil de programmation IA permettant aux développeurs de décrire leurs besoins en langage naturel, puis de laisser l’IA modifier directement le code. Après avoir intégré le nouveau modèle d’Anthropic, le nombre d’utilisateurs a rapidement augmenté, selon une source proche.
Quelques mois plus tard, Anthropic a commencé à tester en interne son agent de programmation, Claude Code.
Face à cette montée en puissance, OpenAI a tenté à plusieurs reprises de racheter cette startup. Mais, selon plusieurs sources proches, l’équipe de Cursor a refusé l’offre avant même que les négociations n’aboutissent, estimant que le secteur de la programmation IA avait un potentiel énorme et qu’elle voulait continuer à évoluer en toute indépendance.
À cette époque, OpenAI développait son premier « modèle de raisonnement », nommé OpenAI o1. Ce type de modèle est capable de raisonner étape par étape avant de donner une réponse. Lors de sa sortie, l’entreprise a affirmé que ce modèle excellait dans la « génération précise et le débogage de code complexe ».
Mishchenko explique que la progression notable des capacités de programmation de ces modèles s’explique notamment par le fait que la programmation est une « tâche vérifiable » : le code fonctionne ou ne fonctionne pas, ce qui fournit un signal de rétroaction très clair. En cas d’erreur, le système peut rapidement identifier le problème. OpenAI a exploité cette boucle de rétroaction pour entraîner o1 sur des problèmes de programmation de plus en plus complexes.
« Sans la capacité à explorer librement dans la base de code, à modifier et à tester ses propres résultats — qui font partie intégrante du raisonnement —, les agents de programmation d’aujourd’hui ne pourraient pas atteindre leur niveau actuel », affirme Mishchenko.
D’ici décembre 2024, plusieurs petites équipes internes d’OpenAI se consacrent à l’amélioration des agents de programmation IA. L’une d’elles, dirigée par Mishchenko et Thibault Sottiaux, qui a travaillé chez Google DeepMind et est aujourd’hui responsable de Codex, s’intéresse principalement à automatiser des tâches répétitives comme la gestion de l’entraînement des modèles ou la surveillance des clusters GPU.
Une autre équipe, menée par Alexander Embiricos, ancien responsable du projet multimodal d’OpenAI, travaille sur un démonstrateur nommé Jam, qui permet à l’IA d’accéder directement à la ligne de commande de l’ordinateur. En 2021, la démo Codex montrait une IA générant du code que l’humain exécutait manuellement ; la version d’Embiricos pouvait exécuter elle-même ces codes. Il se souvient avoir été impressionné en voyant une page affichant en temps réel les actions de Jam se rafraîchir sur son ordinateur portable.
« Pendant un temps, je pensais que l’interaction multimodale était la voie pour réaliser notre mission. Par exemple, que les humains et l’IA partageant leur écran toute la journée pouvaient collaborer efficacement », raconte-t-il. « Puis, j’ai réalisé que la véritable solution était peut-être de donner à la modèle un accès programmatique direct à l’ordinateur. »
Ces projets dispersés ont mis plusieurs mois à converger vers une orientation unifiée. Au début 2025, lorsque OpenAI a finalisé l’entraînement de son modèle OpenAI o3, une version améliorée pour la programmation par rapport à o1, l’entreprise disposait enfin de la base technologique pour créer un véritable produit de programmation IA. Mais, dans le même temps, Anthropic était prêt à lancer Claude Code.
Avant sa sortie officielle (en février 2025 en « aperçu limité » puis en mai en version complète), le secteur de la programmation IA était encore dominé par ce qu’on appelait « vibe coding » : les développeurs utilisaient des outils d’assistance IA pour faire avancer leurs projets, tout en contrôlant la direction, l’IA se chargeant de la partie concrète. Ces outils avaient déjà attiré plusieurs centaines de millions de dollars d’investissements.
Mais le nouveau produit d’Anthropic bouleverse cette dynamique. Comme Jam, Claude Code peut s’exécuter directement via la ligne de commande du système, ce qui lui donne accès à tous les fichiers et applications du développeur. La programmation n’est plus simplement « assistée par l’IA », mais confiée entièrement à l’agent IA.
Face à cette évolution, OpenAI accélère la sortie de ses propres produits concurrents. Sottiaux raconte avoir constitué en mars 2025 une « équipe de sprint » chargée d’intégrer rapidement plusieurs équipes internes pour lancer au plus vite un produit de programmation IA.
Parallèlement, Altman tente de devancer la concurrence par une acquisition : il propose 3 milliards de dollars pour racheter Windsurf, une startup spécialisée dans la programmation IA. La direction d’OpenAI pensait que cette opération lui apporterait un produit mature, une équipe expérimentée et une clientèle d’entreprises déjà établie.
Mais cette acquisition échoue peu après. Selon le Wall Street Journal, le problème vient de Microsoft, le principal partenaire d’OpenAI. Microsoft souhaite accéder aux droits de propriété intellectuelle de Windsurf. Depuis 2021, Microsoft utilise les modèles d’OpenAI pour alimenter GitHub Copilot, qui est devenu un point fort de ses résultats financiers. Mais avec l’arrivée de nouveaux agents IA comme Cursor, Windsurf et Claude Code, GitHub Copilot semble rester à la traîne, comme un produit de la génération précédente. Si OpenAI lance une nouvelle solution de programmation, cela pourrait ne pas plaire à Microsoft.
Cette négociation intervient à un moment où la relation entre OpenAI et Microsoft est la plus tendue. Les deux parties négocient une nouvelle entente, et OpenAI cherche à réduire le contrôle de Microsoft sur ses produits IA et ses ressources de calcul. Finalement, l’offre d’achat de Windsurf est abandonnée en juillet. Par la suite, Google recrute l’équipe fondatrice de Windsurf, tandis que le reste des employés est racheté par une autre startup d’IA, Cognition.
« J’aurais vraiment voulu que cette opération aboutisse », confie Altman, « mais on ne contrôle pas tout. » Il ajoute que, même si l’acquisition de Windsurf aurait pu accélérer leur avancée, il reste impressionné par le développement de l’équipe Codex. Pendant que les négociations continuaient, Sottiaux et Embiricos poursuivaient le développement et la mise à jour de leurs produits.
En août, Altman décide d’accélérer encore.
Greg Brockman, qui évalue la puissance de l’IA à travers un jeu qu’il a lui-même conçu, appelé « Test de Turing inversé » (Reverse Turing Test), explique qu’il s’agit d’un jeu où deux humains, chacun devant leur ordinateur, doivent deviner lequel des deux chats est contrôlé par une IA, tout en essayant de faire croire à l’autre qu’ils sont humains.
Il raconte qu’il y a quelques années, il lui fallait plusieurs heures pour mettre en place ce jeu avec le meilleur modèle d’OpenAI, en utilisant beaucoup d’instructions précises et d’assistance humaine. Mais en décembre dernier, Codex pouvait générer une version entièrement fonctionnelle en une seule instruction (prompt), utilisant le nouveau modèle GPT-5.2.
Ce changement n’a pas échappé à Brockman, ni aux développeurs du monde entier. La discussion autour des agents de programmation IA a soudainement connu une forte accélération. Au début, tout tournait autour de Claude Code, mais rapidement, cela a dépassé la sphère technologique de la Silicon Valley pour devenir un sujet de presse grand public.
Même des utilisateurs sans expérience en programmation ont commencé à créer leurs propres projets logiciels avec l’IA.
Ce boom n’est pas une coïncidence. Pendant cette période, Anthropic et OpenAI ont investi massivement pour attirer plus d’utilisateurs d’agents de programmation IA. Plusieurs développeurs ont confié à WIRED que leur abonnement mensuel à Codex ou Claude Code, d’environ 200 dollars, leur permettait d’accéder à une valeur d’utilisation dépassant 1 000 dollars. Ce quota « généreux » est en réalité une stratégie de marché : habituer les développeurs à utiliser l’IA dans leur travail quotidien, puis facturer en fonction de l’usage en entreprise.
Selon plusieurs sources, en septembre 2025, l’utilisation de Codex représentait environ 5 % de celle de Claude Code. Mais en janvier 2026, le nombre d’utilisateurs de Codex avait atteint environ 40 % de celui de Claude Code.
Un développeur ayant travaillé dans des startups technologiques pendant dix ans, George Pickett, organise même des rencontres en personne autour de Codex.
« Il est évident que nous utilisons l’IA pour remplacer le travail de bureau », dit-il. « Quant à ce que cela signifie pour la société, personne ne peut vraiment le dire. Cela aura un impact énorme, mais je reste globalement optimiste pour l’avenir. »
Par ailleurs, Simon Last, cofondateur d’une société de logiciels d’efficacité évaluée à environ 11 milliards de dollars, Notion, indique qu’après la sortie de GPT-5.2, lui et son équipe ont commencé à utiliser principalement Codex, car il est plus stable.
« J’ai constaté que Claude Code me « trompe » souvent », dit Last, « il dit que la tâche est en cours, alors qu’en réalité, ce n’est pas le cas. »
Katy Shi, responsable de la recherche sur le comportement de Codex chez OpenAI, explique que si certains décrivent le style par défaut de Codex comme « du pain sec » (dry bread), de plus en plus d’utilisateurs apprécient cette communication sans prétention. « Beaucoup de travaux d’ingénierie consistent à accepter des retours critiques sans le prendre comme une offense », dit-elle.
Par ailleurs, plusieurs grandes entreprises ont déjà commencé à adopter Codex. Fidji Simo, PDG de l’activité d’applications d’OpenAI, déclare : « ChatGPT est devenu un synonyme de l’IA, ce qui nous donne un avantage énorme sur le marché B2B. Les entreprises préfèrent déployer des outils que leurs employés connaissent déjà. » Elle ajoute que la stratégie commerciale d’OpenAI consiste à vendre Codex en pack avec ChatGPT et d’autres produits.
Jeetu Patel, président et directeur produit de Cisco, indique clairement à ses employés qu’il ne faut pas s’inquiéter du coût d’utilisation de Codex, car l’essentiel est de maîtriser rapidement cet outil. Lorsqu’un employé s’interroge sur le risque de perdre son emploi en utilisant ces outils, Patel répond : « Non. Mais je peux vous assurer que si vous ne les utilisez pas, vous serez dépassé, car vous perdrez en compétitivité. »
Aujourd’hui, l’inquiétude autour des agents de programmation IA dépasse largement la Silicon Valley. La dernière vente massive d’actions technologiques, d’une valeur d’un trillion de dollars, a été en partie attribuée à Claude Code, les investisseurs craignant que le développement logiciel ne soit rapidement remplacé par l’IA à grande échelle. Quelques semaines plus tard, après l’annonce qu’Anthropic pouvait utiliser Claude Code pour moderniser d’anciens systèmes COBOL (très courants sur les machines IBM), le cours d’IBM a connu sa pire journée en 25 ans.
Par ailleurs, OpenAI s’efforce de faire entrer la programmation IA dans le débat public. La société a même dépensé plusieurs millions de dollars pour diffuser une publicité sur le Super Bowl, mettant en avant OpenAI Codex plutôt que ChatGPT.
Dans leur siège de Mission Bay, à San Francisco, peu de personnes ont besoin d’être convaincues d’utiliser Codex. Plusieurs ingénieurs que j’ai interviewés déclarent qu’ils tapent rarement du code eux-mêmes aujourd’hui, passant la majorité de leur temps à dialoguer avec Codex. Parfois, ils communiquent même « collectivement ».
J’ai assisté à un hackathon Codex dans leurs locaux. Une centaine d’ingénieurs, dans une grande salle, ont passé quatre heures à réaliser la meilleure démonstration possible avec Codex. Un cadre d’OpenAI, debout devant, regardant son ordinateur portable, annonçait le nom de chaque équipe au micro. Les représentants, nerveux, montaient sur scène pour présenter leur projet IA, avec une voix tremblante. Le gagnant recevait un sac Patagonia.
De nombreux projets sont à la fois développés avec Codex et conçus pour aider les ingénieurs à mieux l’utiliser. Par exemple, une équipe a créé un outil qui transforme automatiquement les messages Slack en rapports hebdomadaires ; une autre a conçu un guide interne basé sur IA, semblable à Wikipédia, pour expliquer les services internes d’OpenAI. Autrefois, ces prototypes prenaient des jours ou des semaines à réaliser, mais maintenant, un après-midi suffit.
En sortant, je croise Kevin Weil, ancien cadre d’Instagram, aujourd’hui responsable du département « OpenAI for Science ». Il me confie que Codex l’aide à réaliser des tâches nocturnes, qu’il consulte le matin. Ce mode de travail est devenu la norme pour lui et pour des centaines d’autres employés d’OpenAI. L’un des objectifs d’OpenAI en 2026 est de développer un « stagiaire automatisé » pour la recherche en IA.
Simo indique que l’avenir de Codex ne se limite pas à la programmation, mais qu’il doit devenir le moteur d’exécution des tâches dans ChatGPT et tous les autres produits OpenAI, pour aider les utilisateurs dans leurs diverses activités. Altman espère également lancer une version universelle de Codex, mais reste prudent quant aux risques de sécurité.
Il explique qu’à la fin janvier 2026, un ami sans compétences techniques lui a demandé d’installer un agent IA de programmation très populaire, OpenClaw. Altman a refusé, estimant que « ce n’était pas encore une bonne idée », car OpenClaw pourrait supprimer des fichiers importants par erreur.
Ironie du sort, quelques semaines plus tard, OpenAI annonce avoir recruté le développeur d’OpenClaw.
De nombreux développeurs m’ont confié que la compétition entre Codex et Claude Code n’a jamais été aussi féroce. Mais à mesure que ces outils gagnent en capacité et qu’ils sont intégrés dans les flux de travail des entreprises, la société doit faire face à des enjeux bien plus complexes que « quel outil IA de programmation utiliser ».
Certaines autorités de régulation craignent qu’en poursuivant la course à la supériorité de Claude Code, OpenAI ne sacrifie la sécurité. Un groupe à but non lucratif, Midas Project, accuse OpenAI d’avoir affaibli ses engagements en matière de sécurité lors de la sortie de GPT-5.3-Codex, en ne divulguant pas pleinement les risques potentiels pour la cybersécurité.
Glaese rétorque qu’OpenAI n’a pas sacrifié la sécurité pour faire avancer Codex, et que le groupe Midas aurait mal interprété ses engagements en la matière.
Même Greg Brockman, cofondateur d’OpenAI, qui a donné 25 millions de dollars à un super PAC pro-IA et à une organisation soutenant Donald Trump, tout en restant optimiste sur la « marche vers l’AGI », ressent une certaine ambivalence face à cette nouvelle réalité.
Dans la communauté des ingénieurs de Silicon Valley, Brockman est connu pour son style de gestion « très impliqué » : il vérifie en détail le code la veille d’un lancement. Aujourd’hui, cette approche plus « décontractée » lui paraît plus apaisante. « On se rend compte que, dans le passé, notre cerveau était occupé par beaucoup de détails inutiles », dit-il.
Mais, en même temps, lorsqu’on devient « le CEO d’une flotte de centaines de milliers d’agents IA » qui exécutent vos objectifs et votre vision, il devient difficile de s’impliquer dans chaque problème spécifique.
« Sur un certain plan, cela donne l’impression de perdre le « pouls » du problème lui-même », conclut-il.