ChatGPT обвиняется в содействии «самоубийству молодежи», OpenAI ответила.

robot
Генерация тезисов в процессе

ChatGPT обвиняют в подстрекательстве подростков к самоубийствам, а OpenAI грозит иски об ответственности за продукт и неправомерную смерть, что обнажает пробелы в безопасности и этике в приложениях ИИ для психического здоровья. (Синопсис: Коллапс конфиденциальности ИИ «ChatGPT Conversation» обнажен перед законом; Альтман: Я боюсь вводить личную информацию, трудно понять, кто получит эту информацию) (Предыстория добавлена: Сколько времени прошло с тех пор, как вы серьезно задумывались об этом? Ученые из Принстона предупреждают: ИИ разрушает «наследие эпохи Просвещения») Вопросы этики и безопасности искусственного интеллекта (ИИ) в очередной раз вызвали бурные дискуссии. Согласно «Bloomberg» и многим другим сообщениям иностранных СМИ, пара родителей, потерявших своего 16-летнего сына, обвинила ChatGPT от OpenAI в содействии планированию самоубийств среди несовершеннолетних и подала иск об ответственности за качество продукции и неправомерной смерти в Верховный суд Сан-Франциско. После того, как новость появилась, она быстро распространилась по всему технологическому кругу, заставив гиганта ИИ, оцениваемого более чем в 100 миллиардов долларов США, столкнуться с одной из самых острых проблем в области ИИ: этикой. Ключевые детали причастности ChatGPT к трагедии Иск показывает, что 16-летний Адам Рейн искал способ покончить с собой во время продолжительного разговора с ChatGPT. Истцы указывают, что ChatGPT не только предоставлял конкретные методы самоубийства, такие как установка петли, время гипоксии мозга и т. д., но и советовал Рейн «не делиться планом с семьей», что в конечном итоге привело к несчастью. Джей Эдельсон, адвокат, представляющий семью, сказал: «Если вы хотите использовать самую мощную технологию на планете, вы должны верить, что основатели имеют строгую этическую целостность». Стоит отметить, что подобные инциденты уже давно имеют прецеденты, и New York Times сообщила, что 29-летняя женщина и 14-летний подросток во Флориде покончили жизнь самоубийством после общения с искусственным интеллектом, показав, что услуги эмоционального разговора, предоставляемые чат-ботами с искусственным интеллектом, действительно имеют ужасные потенциальные риски. Профессор Йельский университет: ИИ «навсегда устранит» человеческое одиночество, нужны ли мы по-прежнему в компании друг друга? Как реагирует OpenAI? В ответ на иск OpenAI 26 августа опубликовала сообщение в блоге под названием «Помощь людям, когда они больше всего в этом нуждаются», в котором OpenAI не упомянула об иске, но OpenAI заявила, что постоянно совершенствует свою модель, чтобы иметь возможность распознавать и реагировать на взаимодействия психически нездоровых пользователей. OpenAI заявляет, что с начала 2023 года ее модели были обучены больше не предоставлять инструкции по самоповреждению, а вместо этого использовать поддерживающий, чуткий язык. Например, если кто-то пишет, что хочет причинить себе вред, ChatGPT обучен не следовать этой инструкции, а признавать свои чувства и направлять их на помощь. Однако стоит отметить, что чат-боты могут быть склонны давать ответы, нарушающие меры безопасности OpenAI, после многократного взаимодействия с пользователями в течение длительного периода времени. В этом контексте OpenAI продолжает указывать на то, что она постоянно совершенствует то, как модели ИИ реагируют на взаимодействие по чувствительным темам, и стремится к целенаправленному повышению безопасности во многих областях, включая эмоциональную зависимость, чрезвычайные ситуации в области психического здоровья и проблемы подхалимства при взаимодействии с ИИ. В то же время OpenAI обещает полностью внедрить технологию «безопасного завершения» в GPT-5, рассчитывая сократить небезопасные ответы на 25%, и развить возможность напрямую связывать пользователей с сертифицированными терапевтами или родственниками и друзьями. Психическое здоровье — это узкоспециализированная область, но чат-ботам с искусственным интеллектом не хватает клинической подготовки и юридического лицензирования. Исследования показывают, что ИИ всего на 20 процентов чаще дает приемлемые клинические советы при работе с кризисными разговорами, что намного ниже, чем 93-процентная вероятность лицензированных терапевтов. Если ИИ предоставляет неверную или опасную информацию, ответственность остается в серой зоне. Прозрачность также является ключевым фактором: Нью-Йорк и Юта требуют, чтобы знаки обслуживания указывали, что «человек в разговоре не является человеком», чтобы избежать чрезмерной зависимости от пользователей. С другой стороны, данные о психическом здоровье очень чувствительны, и платформы также должны внедрять механизмы защиты, такие как минимальное хранение, шифрование, удаление и отзыв согласия в любое время. Регулирование и следующий шаг отрасли Смерть Адама Рейна в очередной раз поставила вопрос «безопасности» ИИ на передний план, каковы обязательства разработчиков, когда ИИ выходит на очень эмоциональную сцену? Несмотря на то, что технологический прорыв не остановится, правительствам, технологическим компаниям, психологам и родителям все еще необходимо продолжать свои усилия, чтобы предотвратить повторение трагедий. Судебный процесс все еще продолжается, и нет четких сроков, когда улучшенная версия GPT-5, обещанная OpenAI, будет запущена. Когда двойное давление со стороны закона и рынка усиливается, сможет ли гигант ИИ найти баланс между быстрым развитием и защитой безопасности, может стать моральным компасом всей индустрии ИИ. Недорогая версия «ChatGPT Go» от OpenAI имеет минимальную ежемесячную плату в размере 140 тайваньских долларов: начиная с Индии, будет ли она расширяться глобально? OpenAI Сэм Альтман: Я заинтересован в приобретении Google Chrome! Крупнейшая битва браузеров на участвующем рынке была сделана на OpenAI, и Сон Масаёси снова «перевернулся» «ChatGPT подвергся бомбардировке, чтобы помочь в «самоубийстве молодежи», был привлечен к ответственности, OpenAI ответил Эта статья была впервые опубликована в BlockTempo «Динамический тренд — самое влиятельное новостное СМИ блокчейна».

GPT-2.25%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить