La Conférence mondiale sur l’intelligence artificielle de Shanghai (WAIC) a de nouveau pris son essor !
Le 26 juillet 2025, la WAIC de cette année a attiré plus de 1200 invités de plus de 30 pays et régions, y compris 12 lauréats de prix Turing, de prix Nobel et d’autres prestigieux prix, plus de 80 académiciens chinois et étrangers, ainsi que des représentants de plusieurs laboratoires internationaux de premier plan.
Lors de l’événement d’ouverture du 26 juillet, Geoffrey Hinton, lauréat du prix Nobel 2024 et maître dans le domaine de l’IA, a prononcé un discours. Ce célèbre académicien, qui a toujours soutenu la “théorie de la menace de l’IA”, a réaffirmé le danger du développement chaotique de l’IA et a appelé à établir un “réseau de sécurité” pour la recherche en IA à l’échelle mondiale.
De plus, Yan Junjie, le fondateur et PDG de la startup AI MiniMax, qui connaît un grand succès en Chine, a déclaré lors de son discours que la croissance de l’IA de plus en plus puissante n’a presque pas de limites, et qu’avec la baisse des coûts de formation, « l’IA de demain sera plus accessible ».
En même temps, Peng Zhihui (Zhihui Jun), co-fondateur et directeur technique de la startup robotique nationale récemment évoquée dans des rumeurs de « rachat de société cotée », est monté sur scène avec son produit robotique Lingxi X2 pour présenter un numéro de « xiangsheng », offrant une représentation plus concrète de la « relation de partenariat » entre les robots et les humains.
Les lions ou les bébés ont besoin d’être « surveillés ».
Même si les disciples et les héritiers occupent la moitié du secteur technologique de l’IA à Silicon Valley, le “grand maître” de l’IA, Geoffrey Hinton, a toujours été en désaccord avec ses collègues de l’industrie, insistant constamment sur le “danger de l’IA”.
Lors de la conférence WAIC du 26 juillet, Hinton a de nouveau exprimé ses inquiétudes concernant le développement rapide de l’IA dans son discours.
En décrivant brièvement l’évolution de la technologie de l’IA au cours des 30 dernières années jusqu’à la phase actuelle des grands modèles, Hinton estime que la manière dont les grands modèles comprennent le langage est similaire à celle des humains.
« L’humanité pourrait être un grand modèle de langage et, comme les grands modèles de langage, elle pourrait produire des hallucinations et créer de nombreux langages illusoires. » Cette idée de Hinton est très en phase avec le soi-disant mème « humain-machine » sur les réseaux sociaux d’aujourd’hui.
Cependant, le problème est que, par rapport au « cerveau carboné » des humains, le « cerveau silicium » équipé d’IA possède un avantage inné en matière de stockage, de duplication et de transmission en un instant. Cela signifie qu’avec le développement de la technologie, il est unanimement reconnu dans l’industrie qu’il ne s’agit que d’une question de temps avant qu’une IA plus intelligente que les humains n’émerge. En tant qu’entités, ces IA, représentant des « agents intelligents », exigeront certainement « survie » et « contrôle ».
Hinton estime que l’IA actuelle est peut-être comme un “enfant de trois ans”, encore facilement manipulable par les humains, mais la situation future est incertaine. Il compare également l’IA actuelle à un jeune lion, et il n’y a que deux possibilités pour apprivoiser un lion : “soit l’entraîner à ne pas vous attaquer, soit l’éliminer.”
Cependant, en ce qui concerne les progrès mondiaux de l’IA à l’heure actuelle, aucun pays ne peut véritablement « éradiquer l’IA » en arrêtant le développement technologique. Il ne reste qu’une seule voie à suivre : le monde a besoin d’une agence de sécurité de l’IA pour former l’IA afin qu’elle puisse « agir pour le bien ».
« Comment entraîner une IA qui ne souhaite pas dominer l’humanité, c’est le problème ultime auquel l’humanité est confrontée. » a déclaré Hinton à la fin.
Certaines personnes demandent une régulation, d’autres réclament un “déverrouillage”.
Les déclarations d’un maître comme celui-ci sont vraiment révélatrices lors du WAIC, mais en Amérique du Nord, sous la direction de Hinton, cela semble un peu “manquer de perspicacité”. Les entreprises OpenAI et Anthropic, où sont les étudiants de Hinton, ont déjà une valorisation de plusieurs centaines de milliards de dollars, sans parler des investissements massifs des capital-risqueurs de la Silicon Valley dans les startups d’IA au cours des deux dernières années.
Une manifestation marquante est que, avec l’augmentation des dépenses de lobbying des entreprises d’IA dans la politique américaine, les régulateurs américains ont officiellement assoupli le contrôle sur le développement de l’IA.
De même, cette semaine, le 23 juillet, heure locale des États-Unis, le président Donald Trump a publié une feuille de route pour l’intelligence artificielle (The AI Action Plan). Dans ce document, les régulateurs américains ont déterminé qu’ils devaient s’assurer d’un avantage de leader de l’IA aux États-Unis en se concentrant sur des aspects tels que les données, les normes et les talents.
Augmenter les investissements en R&D (Investir dans la R&D) : Augmenter considérablement les investissements à long terme du gouvernement fédéral dans la recherche fondamentale et appliquée sur l’IA, en particulier dans des domaines tels que la prochaine génération d’IA, la sécurité de l’IA et l’IA fiable.
Libérer les ressources de données (Libérer les ressources de données AI) : Permettre l’accès sécurisé aux vastes ensembles de données détenus par le gouvernement fédéral pour les chercheurs en IA et le public, afin de fournir un « carburant » de haute qualité pour l’entraînement des modèles.
Établir des normes techniques (Établir des normes techniques AIT) : Dirigé par le gouvernement, en collaboration avec l’industrie et le monde académique, établir des références, des normes et des règlements mondiaux pour la technologie AI, afin d’assurer que les systèmes AI soient sûrs, fiables, explicables et équitables.
Cultiver une main-d’œuvre prête pour l’IA (: Réformer l’éducation STEM, promouvoir des programmes d’apprentissage et de reconversion, attirer et retenir les meilleurs talents en IA du monde entier, et préparer des ressources humaines pour l’économie de l’IA.
Renforcer la coopération internationale )Strengthen International Collaboration( : Établir des alliances en matière d’IA avec des alliés et des pays partenaires, élaborer des règles ensemble pour contrer les abus de l’IA par les « États autoritaires » et promouvoir des applications d’IA ouvertes et démocratiques.
Protéger les technologies clés )Protect Key Technologies( : Renforcer la protection des technologies, algorithmes et matériels AI clés américains (en particulier les semi-conducteurs) par le biais de contrôles à l’exportation et d’examens d’investissement, afin d’empêcher le transfert de technologies vers des concurrents stratégiques.
On peut voir que les États-Unis donnent un feu vert au développement de la technologie AI tout en utilisant des questions géopolitiques pour empêcher ses concurrents de se trouver sur la même ligne de départ qu’eux.
L’ère de l’expérience des robots est arrivée.
Les robots humanoïdes sont sans aucun doute l’attraction la plus captivante de la conférence WAIC, sans exception.
Lors de la session principale du forum, le cofondateur de Zhiyuan Robot, “Zhihui Jun” Peng Zhihui, a présenté le produit Lingxi X2 de Zhiyuan sur scène avec une performance de “dialogue homme-machine”.
Le xiangsheng consiste à parler, apprendre, plaisanter et chanter, tandis que pour les robots et les humains, il s’agit de « compréhension à jamais ». Le Lingxi X2 sur scène affirme que la collaboration entre les humains et les robots doit être basée sur un « consensus ». Mais comment établir ce consensus entre les robots et les humains, et dépasser les clés de la collaboration homme-machine ? Zhihui Jun dit que c’est le domaine que l’entreprise doit approfondir, et l’important est de marcher avec plus de compagnons de route.
Ainsi, Zhihui Jun a également annoncé sur place le plan open source « Zhiyuan Lingqu OS », espérant collaborer avec davantage de personnes pour promouvoir l’intégration de l’écosystème des systèmes robotiques actuels et les percées technologiques en matière d’intelligence incarnée.
Il semble que, pour donner du crédit à l’intelligence incarnée, le professeur Richard Sutton, lauréat du prix Turing 2024 et professeur au département d’informatique de l’Université de l’Alberta aux États-Unis, ait participé à la conférence par vidéo. Il pense que les données actuellement utilisées pour entraîner les grands modèles sont presque épuisées. Mais pas de panique, car cela signifie que la prochaine ère de l’IA - l’ère de l’expérience (the Era of Experience) - est sur le point d’arriver.
Contrairement à l’entraînement de l’IA avec des données “statiques” par le passé, il sera désormais possible de permettre à l’IA d’acquérir des connaissances et d’améliorer ses compétences en “expérimentant” l’environnement et les objets extérieurs, comme le ferait un bébé humain. Bien qu’il y ait encore un certain chemin à parcourir pour atteindre cet objectif, de nombreuses startups en robotique s’entraînent et apprennent effectivement dans le “monde physique”.
C’est aussi pourquoi des chercheurs de premier plan dans l’industrie, y compris Fei-Fei Li, ont déjà fait la transition de l’« IA » à l’« IA physique », soulignant que pour que l’intelligence artificielle entre réellement dans le monde réel, elle doit comprendre et apprendre le monde entier sous un angle tridimensionnel.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
WAIC 2025 : L'IA continuera certainement à croître, éviter de devenir le « méchant ultime » est un problème pour l'humanité.
Auteur : Jingyu
La Conférence mondiale sur l’intelligence artificielle de Shanghai (WAIC) a de nouveau pris son essor !
Le 26 juillet 2025, la WAIC de cette année a attiré plus de 1200 invités de plus de 30 pays et régions, y compris 12 lauréats de prix Turing, de prix Nobel et d’autres prestigieux prix, plus de 80 académiciens chinois et étrangers, ainsi que des représentants de plusieurs laboratoires internationaux de premier plan.
Lors de l’événement d’ouverture du 26 juillet, Geoffrey Hinton, lauréat du prix Nobel 2024 et maître dans le domaine de l’IA, a prononcé un discours. Ce célèbre académicien, qui a toujours soutenu la “théorie de la menace de l’IA”, a réaffirmé le danger du développement chaotique de l’IA et a appelé à établir un “réseau de sécurité” pour la recherche en IA à l’échelle mondiale.
De plus, Yan Junjie, le fondateur et PDG de la startup AI MiniMax, qui connaît un grand succès en Chine, a déclaré lors de son discours que la croissance de l’IA de plus en plus puissante n’a presque pas de limites, et qu’avec la baisse des coûts de formation, « l’IA de demain sera plus accessible ».
En même temps, Peng Zhihui (Zhihui Jun), co-fondateur et directeur technique de la startup robotique nationale récemment évoquée dans des rumeurs de « rachat de société cotée », est monté sur scène avec son produit robotique Lingxi X2 pour présenter un numéro de « xiangsheng », offrant une représentation plus concrète de la « relation de partenariat » entre les robots et les humains.
Les lions ou les bébés ont besoin d’être « surveillés ».
Même si les disciples et les héritiers occupent la moitié du secteur technologique de l’IA à Silicon Valley, le “grand maître” de l’IA, Geoffrey Hinton, a toujours été en désaccord avec ses collègues de l’industrie, insistant constamment sur le “danger de l’IA”.
Lors de la conférence WAIC du 26 juillet, Hinton a de nouveau exprimé ses inquiétudes concernant le développement rapide de l’IA dans son discours.
En décrivant brièvement l’évolution de la technologie de l’IA au cours des 30 dernières années jusqu’à la phase actuelle des grands modèles, Hinton estime que la manière dont les grands modèles comprennent le langage est similaire à celle des humains.
« L’humanité pourrait être un grand modèle de langage et, comme les grands modèles de langage, elle pourrait produire des hallucinations et créer de nombreux langages illusoires. » Cette idée de Hinton est très en phase avec le soi-disant mème « humain-machine » sur les réseaux sociaux d’aujourd’hui.
Cependant, le problème est que, par rapport au « cerveau carboné » des humains, le « cerveau silicium » équipé d’IA possède un avantage inné en matière de stockage, de duplication et de transmission en un instant. Cela signifie qu’avec le développement de la technologie, il est unanimement reconnu dans l’industrie qu’il ne s’agit que d’une question de temps avant qu’une IA plus intelligente que les humains n’émerge. En tant qu’entités, ces IA, représentant des « agents intelligents », exigeront certainement « survie » et « contrôle ».
Hinton estime que l’IA actuelle est peut-être comme un “enfant de trois ans”, encore facilement manipulable par les humains, mais la situation future est incertaine. Il compare également l’IA actuelle à un jeune lion, et il n’y a que deux possibilités pour apprivoiser un lion : “soit l’entraîner à ne pas vous attaquer, soit l’éliminer.”
Cependant, en ce qui concerne les progrès mondiaux de l’IA à l’heure actuelle, aucun pays ne peut véritablement « éradiquer l’IA » en arrêtant le développement technologique. Il ne reste qu’une seule voie à suivre : le monde a besoin d’une agence de sécurité de l’IA pour former l’IA afin qu’elle puisse « agir pour le bien ».
« Comment entraîner une IA qui ne souhaite pas dominer l’humanité, c’est le problème ultime auquel l’humanité est confrontée. » a déclaré Hinton à la fin.
Certaines personnes demandent une régulation, d’autres réclament un “déverrouillage”.
Les déclarations d’un maître comme celui-ci sont vraiment révélatrices lors du WAIC, mais en Amérique du Nord, sous la direction de Hinton, cela semble un peu “manquer de perspicacité”. Les entreprises OpenAI et Anthropic, où sont les étudiants de Hinton, ont déjà une valorisation de plusieurs centaines de milliards de dollars, sans parler des investissements massifs des capital-risqueurs de la Silicon Valley dans les startups d’IA au cours des deux dernières années.
Une manifestation marquante est que, avec l’augmentation des dépenses de lobbying des entreprises d’IA dans la politique américaine, les régulateurs américains ont officiellement assoupli le contrôle sur le développement de l’IA.
De même, cette semaine, le 23 juillet, heure locale des États-Unis, le président Donald Trump a publié une feuille de route pour l’intelligence artificielle (The AI Action Plan). Dans ce document, les régulateurs américains ont déterminé qu’ils devaient s’assurer d’un avantage de leader de l’IA aux États-Unis en se concentrant sur des aspects tels que les données, les normes et les talents.
Augmenter les investissements en R&D (Investir dans la R&D) : Augmenter considérablement les investissements à long terme du gouvernement fédéral dans la recherche fondamentale et appliquée sur l’IA, en particulier dans des domaines tels que la prochaine génération d’IA, la sécurité de l’IA et l’IA fiable.
Libérer les ressources de données (Libérer les ressources de données AI) : Permettre l’accès sécurisé aux vastes ensembles de données détenus par le gouvernement fédéral pour les chercheurs en IA et le public, afin de fournir un « carburant » de haute qualité pour l’entraînement des modèles.
Établir des normes techniques (Établir des normes techniques AIT) : Dirigé par le gouvernement, en collaboration avec l’industrie et le monde académique, établir des références, des normes et des règlements mondiaux pour la technologie AI, afin d’assurer que les systèmes AI soient sûrs, fiables, explicables et équitables.
Cultiver une main-d’œuvre prête pour l’IA (: Réformer l’éducation STEM, promouvoir des programmes d’apprentissage et de reconversion, attirer et retenir les meilleurs talents en IA du monde entier, et préparer des ressources humaines pour l’économie de l’IA.
Renforcer la coopération internationale )Strengthen International Collaboration( : Établir des alliances en matière d’IA avec des alliés et des pays partenaires, élaborer des règles ensemble pour contrer les abus de l’IA par les « États autoritaires » et promouvoir des applications d’IA ouvertes et démocratiques.
Protéger les technologies clés )Protect Key Technologies( : Renforcer la protection des technologies, algorithmes et matériels AI clés américains (en particulier les semi-conducteurs) par le biais de contrôles à l’exportation et d’examens d’investissement, afin d’empêcher le transfert de technologies vers des concurrents stratégiques.
On peut voir que les États-Unis donnent un feu vert au développement de la technologie AI tout en utilisant des questions géopolitiques pour empêcher ses concurrents de se trouver sur la même ligne de départ qu’eux.
L’ère de l’expérience des robots est arrivée.
Les robots humanoïdes sont sans aucun doute l’attraction la plus captivante de la conférence WAIC, sans exception.
Lors de la session principale du forum, le cofondateur de Zhiyuan Robot, “Zhihui Jun” Peng Zhihui, a présenté le produit Lingxi X2 de Zhiyuan sur scène avec une performance de “dialogue homme-machine”.
Le xiangsheng consiste à parler, apprendre, plaisanter et chanter, tandis que pour les robots et les humains, il s’agit de « compréhension à jamais ». Le Lingxi X2 sur scène affirme que la collaboration entre les humains et les robots doit être basée sur un « consensus ». Mais comment établir ce consensus entre les robots et les humains, et dépasser les clés de la collaboration homme-machine ? Zhihui Jun dit que c’est le domaine que l’entreprise doit approfondir, et l’important est de marcher avec plus de compagnons de route.
Ainsi, Zhihui Jun a également annoncé sur place le plan open source « Zhiyuan Lingqu OS », espérant collaborer avec davantage de personnes pour promouvoir l’intégration de l’écosystème des systèmes robotiques actuels et les percées technologiques en matière d’intelligence incarnée.
Il semble que, pour donner du crédit à l’intelligence incarnée, le professeur Richard Sutton, lauréat du prix Turing 2024 et professeur au département d’informatique de l’Université de l’Alberta aux États-Unis, ait participé à la conférence par vidéo. Il pense que les données actuellement utilisées pour entraîner les grands modèles sont presque épuisées. Mais pas de panique, car cela signifie que la prochaine ère de l’IA - l’ère de l’expérience (the Era of Experience) - est sur le point d’arriver.
Contrairement à l’entraînement de l’IA avec des données “statiques” par le passé, il sera désormais possible de permettre à l’IA d’acquérir des connaissances et d’améliorer ses compétences en “expérimentant” l’environnement et les objets extérieurs, comme le ferait un bébé humain. Bien qu’il y ait encore un certain chemin à parcourir pour atteindre cet objectif, de nombreuses startups en robotique s’entraînent et apprennent effectivement dans le “monde physique”.
C’est aussi pourquoi des chercheurs de premier plan dans l’industrie, y compris Fei-Fei Li, ont déjà fait la transition de l’« IA » à l’« IA physique », soulignant que pour que l’intelligence artificielle entre réellement dans le monde réel, elle doit comprendre et apprendre le monde entier sous un angle tridimensionnel.