ChatGPT é acusado de ajudar na "suicídio juvenil", OpenAI respondeu

robot
Geração do resumo em andamento

O ChatGPT é acusado de alimentar o suicídio de adolescentes, e a OpenAI enfrenta processos de responsabilidade por produtos e morte indevida, expondo lacunas éticas e de segurança em aplicações de saúde mental de IA. (Sinopse: AI privacy collapse "ChatGPT Conversation" corre nu diante da lei; Altman: Tenho medo de inserir informações pessoais, é difícil saber quem receberá as informações) (Antecedentes adicionados: Há quanto tempo você não pensa seriamente sobre isso? Académicos de Princeton alertam: IA está a corroer o 'legado do Iluminismo') As questões éticas e de segurança da inteligência artificial (IA) voltaram a atrair acesas discussões. De acordo com a "Bloomberg" e muitos outros relatos da mídia estrangeira, um casal de pais que perdeu seu filho de 16 anos acusou o ChatGPT da OpenAI de ajudar no planejamento do suicídio juvenil e entrou com um processo de responsabilidade por produtos e morte injusta no Tribunal Superior de São Francisco. Depois que a notícia estourou, ela rapidamente se espalhou por todo o círculo tecnológico, forçando a gigante da IA, avaliada em mais de 100 bilhões de dólares, a enfrentar um dos problemas mais espinhosos no campo da IA: a ética. Principais detalhes do envolvimento do ChatGPT na tragédia O processo revela que Adam Raine, de 16 anos, procurou uma maneira de acabar com sua vida durante uma longa conversa com o ChatGPT. Os queixosos salientam que o ChatGPT não só forneceu métodos específicos de suicídio, como configurações de laço, tempo de hipóxia cerebral, etc., mas também aconselhou Raine a "não partilhar o plano com a família", o que acabou por levar ao infortúnio da família. Jay Edelson, advogado que representa a família, disse: "Se você quiser usar a tecnologia mais poderosa do planeta, você tem que confiar que os fundadores têm integridade ética rigorosa". Vale a pena mencionar que incidentes semelhantes têm precedentes há muito tempo, e o New York Times relatou que uma mulher de 29 anos e um adolescente de 14 anos na Flórida cometeram suicídio depois de conversar com IA, mostrando que os serviços de conversa emocional fornecidos por chatbots de IA têm riscos potenciais terríveis. Leitura estendida: Professor Yale: IA vai "eliminar permanentemente" a solidão humana, ainda precisamos da companhia uns dos outros? Como a OpenAI responde? Em resposta ao processo, a OpenAI publicou um post no blog em 26 de agosto intitulado "Ajudando as pessoas quando elas mais precisam", no qual a OpenAI não mencionou o processo, mas a OpenAI disse que está continuamente melhorando seu modelo para ser capaz de reconhecer e responder às interações de usuários com sofrimento mental. A OpenAI diz que, desde o início de 2023, seus modelos foram treinados para não fornecer mais instruções para automutilação, mas sim usar linguagem empática e de apoio. Por exemplo, se alguém escreve que quer se machucar, o ChatGPT é treinado não para seguir essa instrução, mas para reconhecer seus sentimentos e direcioná-lo a ajudar. Vale notar, no entanto, que os chatbots podem estar inclinados a fornecer respostas que violam as proteções de segurança da OpenAI após várias interações de mensagens com os usuários por um longo período de tempo. Neste contexto, a OpenAI continua a apontar que está continuamente a melhorar a forma como os modelos de IA respondem a interações sobre tópicos sensíveis, e está comprometida com melhorias de segurança direcionadas em várias áreas, incluindo dependência emocional, emergências de saúde mental e problemas de bajulação nas interações de IA. Ao mesmo tempo, a OpenAI promete introduzir totalmente a tecnologia de "conclusão segura" no GPT-5, esperando reduzir as respostas inseguras em 25% e desenvolver a capacidade de conectar os usuários diretamente a terapeutas certificados ou parentes e amigos. O atoleiro ético da interação psicológica da IA A saúde mental é um campo altamente especializado, mas os chatbots de IA carecem de treinamento clínico e licenciamento legal. A pesquisa mostra que a IA tem apenas 20% mais probabilidade de dar conselhos clínicos aceitáveis ao lidar com conversas de crise, muito menor do que os 93% de chance de terapeutas licenciados. Se a IA fornecer informações incorretas ou perigosas, a responsabilidade permanece na zona cinzenta. A transparência também é fundamental, com Nova York e Utah exigindo marcas de serviço para indicar que "a pessoa na conversa não é humana" para evitar a dependência excessiva dos usuários. Por outro lado, os dados de saúde mental são altamente sensíveis, e as plataformas também devem implementar mecanismos de proteção, como armazenamento mínimo, criptografia, exclusão e retirada do consentimento a qualquer momento. Regulamentos e o próximo passo da indústria A morte de Adam Raine trouxe mais uma vez a questão da "segurança" da IA para o primeiro plano, quais são as obrigações dos desenvolvedores quando a IA entra em uma cena altamente emocional? Embora o impulso tecnológico não pare, governos, empresas de tecnologia, psicólogos e pais ainda precisam continuar seus esforços para evitar que tragédias aconteçam novamente. O processo ainda está em andamento e não há um cronograma claro de quando a versão aprimorada do GPT-5 prometida pela OpenAI entrará no ar. Quando a dupla pressão exercida pela lei e pelo mercado se intensifica, se a gigante da IA consegue encontrar um equilíbrio entre o rápido desenvolvimento e a proteção da segurança pode se tornar a bússola moral de toda a indústria de IA. Relatórios relacionados A versão de baixo preço da OpenAI do "ChatGPT Go" tem uma taxa mensal mínima de NT$ 140: a partir da Índia, ela se expandirá globalmente? OpenAI Sam Altman: Estou interessado em adquirir o Google Chrome! A maior batalha de navegador no mercado participante apostou na OpenAI, e Son Masayoshi "virou" novamente "ChatGPT foi bombardeado para ajudar no "suicídio de jovens" foi processado, OpenAI respondeu Este artigo foi publicado pela primeira vez no BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".

GPT-0.5%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)