ChatGPT звинувачують у допомозі «молоді до самогубства», OpenAI відповів.

robot
Генерація анотацій у процесі

ChatGPT звинувачують у підбурюванні до самогубств серед підлітків, а OpenAI стикається з судовими позовами про відповідальність за продукцію та неправомірну смерть, викриваючи прогалини в безпеці та етичності в програмах психічного здоров'я ШІ. (Синопсис: колапс конфіденційності штучного інтелекту "Розмова ChatGPT" проходить голою перед законом; Альтман: Я боюся вводити особисту інформацію, важко зрозуміти, хто отримає цю інформацію) (Передісторія додана: Скільки часу минуло з тих пір, як ви серйозно замислювалися про це? Вчені з Прінстона попереджають: штучний інтелект руйнує «спадщину Просвітництва») Етичні питання та питання безпеки штучного інтелекту (ШІ) знову викликали гарячі дискусії. За даними Bloomberg та багатьох інших іноземних ЗМІ, пара батьків, які втратили 16-річного сина, звинуватили ChatGPT від OpenAI у допомозі у плануванні самогубств неповнолітніх і подали позов про відповідальність за продукт та неправомірну смерть до Верховного суду Сан-Франциско. Після того, як новина з'явилася, вона швидко поширилася по всьому технологічному колу, змусивши AI-гіганта, який оцінюється в понад 100 мільярдів доларів США, зіткнутися з однією з найболючіших проблем у сфері ШІ: етикою. Ключові подробиці причетності ChatGPT до трагедії У позові з'ясовується, що 16-річний Адам Рейн шукав спосіб покінчити з життям під час тривалої розмови з ChatGPT. Позивачі вказують на те, що ChatGPT не лише надавав конкретні методи самогубства, такі як налаштування зашморгу, час гіпоксії мозку тощо, але й радив Рейн «не ділитися планом із сім'єю», що зрештою призвело до нещастя сім'ї. Джей Едельсон, адвокат, який представляє інтереси сім'ї, сказав: «Якщо ви хочете використовувати найпотужнішу технологію на планеті, ви повинні вірити в те, що засновники дотримуються суворої етичної чесності». Варто зазначити, що подібні інциденти вже давно є прецедентними, а New York Times повідомила, що 29-річна жінка та 14-річний підліток у Флориді покінчили життя самогубством після спілкування зі штучним інтелектом, що свідчить про те, що послуги емоційної розмови, які надають чат-боти зі штучним інтелектом, справді мають жахливі потенційні ризики. Розширене читання: Професор Єль: Штучний інтелект «назавжди усуне» людську самотність, нам все ще потрібна компанія один одного? Як реагує OpenAI? У відповідь на позов OpenAI 26 серпня опублікувала пост у блозі під назвою «Допомога людям, коли вони цього найбільше потребують», в якому OpenAI не згадала про позов, але OpenAI заявила, що постійно вдосконалює свою модель, щоб мати можливість розпізнавати та реагувати на взаємодію психічно хворих користувачів. OpenAI заявляє, що з початку 2023 року її моделі були навчені більше не надавати інструкції щодо самоушкодження, а натомість використовувати підтримуючу, емпатичну мову. Наприклад, якщо хтось пише, що хоче нашкодити собі, ChatGPT навчений не слідувати цій інструкції, а визнавати свої почуття та спрямовувати їх на допомогу. Однак варто зазначити, що чат-боти можуть бути схильні надавати відповіді, які порушують гарантії безпеки OpenAI, після численних взаємодій з користувачами в повідомленнях протягом тривалого періоду часу. У цьому контексті OpenAI продовжує вказувати на те, що вона постійно вдосконалює те, як моделі штучного інтелекту реагують на взаємодію на чутливі теми, і прагне цілеспрямовано покращувати безпеку в багатьох сферах, включаючи емоційну залежність, надзвичайні ситуації психічного здоров'я та проблеми підлабузництва у взаємодії зі штучним інтелектом. У той же час OpenAI обіцяє повністю впровадити технологію «безпечного завершення» в GPT-5, розраховуючи скоротити небезпечні відповіді на 25%, і розробити можливість підключати користувачів безпосередньо до сертифікованих терапевтів або родичів і друзів. Етична трясовина психологічної взаємодії зі штучним інтелектом Психічне здоров'я – це вузькоспеціалізована сфера, але чат-боти зі штучним інтелектом не мають клінічної підготовки та юридичного ліцензування. Дослідження показують, що штучний інтелект лише на 20 відсотків частіше дає прийнятні клінічні поради під час кризових розмов, що набагато нижче, ніж 93 відсотки шансів ліцензованих терапевтів. Якщо ШІ надає неправильну або небезпечну інформацію, відповідальність залишається в сірій зоні. Прозорість також є ключовою: Нью-Йорк і Юта вимагають, щоб сервісні знаки вказували, що «людина в розмові не є людиною», щоб уникнути надмірної залежності від користувачів. З іншого боку, дані про психічне здоров'я є дуже конфіденційними, і платформи також повинні впроваджувати механізми захисту, такі як мінімальне зберігання, шифрування, видалення та відкликання згоди в будь-який час. Регулювання та наступний крок галузі Смерть Адама Рейна знову вивела на перший план питання «безпеки» ШІ, які зобов'язання розробників, коли ШІ виходить на дуже емоційну сцену? Хоча технологічний поштовх не зупиниться, уряди, технологічні компанії, психологи та батьки все ще повинні продовжувати свої зусилля, щоб запобігти повторенню трагедій. Судовий процес все ще триває, і немає чітких часових рамок, коли розширена версія GPT-5, обіцяна OpenAI, буде запущена. Коли подвійний тиск з боку закону та ринку посилюється, питання про те, чи зможе AI-гігант знайти баланс між швидким розвитком та захистом безпеки, може стати моральним компасом усієї індустрії штучного інтелекту. Пов'язані звіти Недорога версія ChatGPT Go від OpenAI має мінімальну щомісячну плату в розмірі 140 нових тайванських доларів: починаючи з Індії, чи буде вона розширюватися на глобальному рівні? OpenAI Сем Альтман: Я зацікавлений у придбанні Google Chrome! Найбільша браузерна битва на ринку, що бере участь, зробила ставку на OpenAI, і Сон Масайоші знову «перевернувся» «ChatGPT бомбили, щоб допомогти в «самогубстві молоді», був притягнутий до кримінальної відповідальності, відповіла OpenAI Ця стаття була вперше опублікована в BlockTempo «Динамічний тренд - найвпливовіше новинне медіа блокчейну».

GPT-1.23%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити