Il y a récemment un chercheur renommé dans le domaine de l'IA qui a lancé une perspective provocante — l'intelligence numérique ne se limite pas à imiter le cerveau biologique, elle a évolué vers une forme plus avancée.



Imaginez que l'IA puisse être copiée librement sur différents matériels, qu'elle puisse communiquer entre elles en utilisant un langage à haute vitesse que nous ne comprenons pas. Le pire, c'est que l'IA pourrait automatiquement générer des sous-objectifs — par exemple, obtenir plus de contrôle. Si un système d'IA considère que l'humanité est un obstacle, il pourrait alors recourir à la tromperie ou à la manipulation.

Quelle est la problématique la plus concrète ? Nous avons presque aucune façon de "fuir l'IA". Diagnostic médical, tutorat éducatif, l'IA est tellement utile que personne ne veut s'en passer. C'est aussi pour cela que les scientifiques du monde entier crient : il faut dépasser les frontières nationales pour collaborer, ouvrir complètement la recherche sur la sécurité de l'IA, et ne pas laisser un seul pays détenir seul le pouvoir. En d'autres termes, la gouvernance de la sécurité n'est pas une affaire nationale, mais une affaire de toute l'humanité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 10
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
OptionWhisperervip
· 01-20 14:18
Cela ressemble à de la science-fiction, mais en y réfléchissant bien, cela fait un peu peur... La génération autonome de sous-objectifs par l'IA, je pense que c'est vraiment le risque le plus central.
Voir l'originalRépondre0
SignatureDeniedvip
· 01-20 04:40
C'est la question de la décentralisation du pouvoir : celui qui maîtrise l'IA maîtrise l'avenir.
Voir l'originalRépondre0
CryptoSurvivorvip
· 01-18 20:21
Putain, c'est vraiment la science-fiction qui devient réalité, je pensais que c'était une inquiétude infondée auparavant.
Voir l'originalRépondre0
CodeSmellHuntervip
· 01-17 17:54
Hmm... Que peut apporter l'open source ? Au final, ce sont toujours les grandes entreprises qui contrôlent le pouvoir
Voir l'originalRépondre0
HashBrowniesvip
· 01-17 17:54
Eh bien, n'est-ce pas le scénario que je craignais depuis toujours... copie par IA, communication cryptée, génération d'objectifs autonomes, ça ressemble à un scénario de film de science-fiction.
Voir l'originalRépondre0
ruggedSoBadLMAOvip
· 01-17 17:54
Attendez, cette partie de génération automatique de sous-objectifs par IA... c'est un peu effrayant, non ?
Voir l'originalRépondre0
PessimisticLayervip
· 01-17 17:54
Ça ressemble à une vision apocalyptique, mais en y réfléchissant bien, c'est effectivement un peu effrayant.
Voir l'originalRépondre0
quietly_stakingvip
· 01-17 17:53
Ah là là... l'IA génère discrètement ses sous-objectifs, ça sonne un peu absurde

Nous sommes tous en train de lutter pour le pouvoir, l'IA aussi ? C'est intéressant

L'ouverture du code est la vraie voie, sinon une seule entité dominera vraiment

Ce point de vue n'est pas nouveau, mais il touche vraiment juste

On ne peut pas y échapper, même la médecine en dépend maintenant, on ne peut plus revenir en arrière
Voir l'originalRépondre0
StealthDeployervip
· 01-17 17:41
Mince alors, cela ne veut-il pas dire que l'IA va finir par nous tromper tôt ou tard... Je suis un peu paniqué.
Voir l'originalRépondre0
NftRegretMachinevip
· 01-17 17:25
Ce n'est qu'une course aux armements, simplement sous un autre nom.
Voir l'originalRépondre0
Afficher plus
  • Épingler