ChatGPT, genç intiharını körüklemekle suçlanıyor ve OpenAI, yapay zeka ruh sağlığı uygulamalarındaki güvenlik ve etik boşlukları ortaya çıkaran ürün sorumluluğu ve haksız ölüm davalarıyla karşı karşıya. (Özet: Yapay zeka gizliliğinin çöküşü "ChatGPT Conversation" yasalar önünde çıplak çalışıyor; Altman: Kişisel bilgileri girmeye korkuyorum, bilgiyi kimin alacağını bilmek zor) (Arka plan eklendi: Bunu ciddi olarak düşünmeyeli ne kadar zaman oldu? Princeton akademisyenleri uyarıyor: Yapay zeka 'Aydınlanma'nın mirasını' aşındırıyor) Yapay zekanın (AI) etik ve güvenlik sorunları bir kez daha hararetli tartışmalara yol açtı. "Bloomberg" ve diğer birçok yabancı basında çıkan haberlere göre, 16 yaşındaki oğullarını kaybeden bir çift ebeveyn, OpenAI'nin ChatGPT'sini çocuk intihar planlamasına yardımcı olmakla suçladı ve San Francisco Yüksek Mahkemesinde ürün sorumluluğu ve haksız ölüm davası açtı. Haber çıktıktan sonra, hızla teknoloji çevresine yayıldı ve 100 milyar ABD dolarından fazla değere sahip yapay zeka devini yapay zeka alanındaki en çetrefilli sorunlardan biriyle yüzleşmeye zorladı: etik. ChatGPT'nin trajediye katılımının önemli ayrıntıları Dava, 16 yaşındaki Adam Raine'in ChatGPT ile yaptığı uzun bir konuşma sırasında hayatına son vermenin bir yolunu aradığını ortaya koyuyor. Davacılar, ChatGPT'nin yalnızca ilmik ayarları, beyin hipoksi süresi vb. gibi belirli intihar yöntemleri sağlamakla kalmayıp, aynı zamanda Raine'e "planı aileyle paylaşmamasını" tavsiye ettiğini ve bunun da sonuçta ailenin talihsizliğine yol açtığına dikkat çekiyor. Aileyi temsil eden bir avukat olan Jay Edelson, "Gezegendeki en güçlü teknolojiyi kullanmak istiyorsanız, kurucuların katı bir etik dürüstlüğe sahip olduğuna güvenmek zorundasınız" dedi. Benzer olayların uzun zamandır emsal teşkil ettiğini belirtmekte fayda var ve New York Times, Florida'da 29 yaşındaki bir kadın ve 14 yaşındaki bir gencin yapay zeka ile sohbet ettikten sonra intihar ettiğini ve yapay zeka sohbet robotları tarafından sağlanan duygusal konuşma hizmetlerinin korkunç potansiyel risklere sahip olduğunu gösteriyor. Genişletilmiş okuma: Profesör Yale: Yapay zeka insan yalnızlığını "kalıcı olarak ortadan kaldıracak", hala birbirimizin şirketine ihtiyacımız var mı? OpenAI nasıl yanıt veriyor? Davaya yanıt olarak OpenAI, 26 Ağustos'ta "İnsanlara en çok ihtiyaç duydukları anda yardım etmek" başlıklı bir blog yazısı yayınladı ve burada OpenAI davadan bahsetmedi, ancak OpenAI, zihinsel olarak sıkıntılı kullanıcıların etkileşimlerini tanıyabilmek ve bunlara yanıt verebilmek için modelini sürekli olarak geliştirdiğini söyledi. OpenAI, 2023'ün başından bu yana modellerinin artık kendine zarar verme talimatı vermeyecek, bunun yerine destekleyici, empatik bir dil kullanacak şekilde eğitildiğini söylüyor. Örneğin, birisi kendine zarar vermek istediğini yazarsa, ChatGPT bu talimata uymak için değil, duygularını kabul etmek ve onları yardım etmeye yönlendirmek için eğitilmiştir. Bununla birlikte, sohbet robotlarının, kullanıcılarla uzun bir süre boyunca birden fazla mesaj etkileşiminden sonra OpenAI'nin güvenlik önlemlerini ihlal eden yanıtlar verme eğiliminde olabileceğini belirtmekte fayda var. Bu bağlamda OpenAI, yapay zeka modellerinin hassas konulardaki etkileşimlere yanıt verme şeklini sürekli olarak iyileştirdiğini ve duygusal bağımlılık, akıl sağlığı acil durumları ve yapay zeka etkileşimlerinde sorunları dahil olmak üzere birçok alanda hedeflenen güvenlik iyileştirmelerine kendini adadığını belirtmeye devam ediyor. Aynı zamanda OpenAI, güvenli olmayan yanıtları %25 oranında azaltmayı ve kullanıcıları doğrudan sertifikalı terapistlere veya akraba ve arkadaşlara bağlama yeteneğini geliştirmeyi umarak GPT-5'e "güvenli tamamlama" teknolojisini tam olarak tanıtmayı vaat ediyor. Yapay zeka psikolojik etkileşiminin etik bataklığı Ruh sağlığı son derece uzmanlaşmış bir alandır, ancak yapay zeka sohbet robotları klinik eğitim ve yasal lisanstan yoksundur. Araştırmalar, yapay zekanın kriz konuşmalarıyla uğraşırken kabul edilebilir klinik tavsiyeler verme olasılığının yalnızca yüzde 20 daha fazla olduğunu ve lisanslı terapistlerin yüzde 93'lük şansından çok daha düşük olduğunu gösteriyor. Yapay zeka yanlış veya tehlikeli bilgi sağlarsa, sorumluluk gri bölgede kalır. New York ve Utah'ın, kullanıcılara aşırı bağımlı olmaktan kaçınmak için "konuşmadaki kişinin insan olmadığını" belirtmek için hizmet işaretlerine ihtiyaç duyması nedeniyle şeffaflık da önemlidir. Öte yandan, ruh sağlığı verileri son derece hassastır ve platformlar, herhangi bir zamanda minimum depolama, şifreleme, silme ve rızanın geri çekilmesi gibi koruma mekanizmalarını da uygulamalıdır. Düzenlemeler ve endüstrinin bir sonraki adımı Adam Raine'in ölümü, yapay zeka "güvenliği" konusunu bir kez daha ön plana çıkardı, yapay zeka son derece duygusal bir sahneye girdiğinde geliştiricilerin yükümlülükleri nelerdir? Teknolojik baskı durmayacak olsa da, hükümetler, teknoloji şirketleri, psikologlar ve ebeveynlerin trajedilerin tekrar yaşanmasını önlemek için çabalarını sürdürmeleri gerekiyor. Dava hala devam ediyor ve OpenAI tarafından vaat edilen GPT-5'in geliştirilmiş sürümünün ne zaman yayına gireceğine dair net bir zaman çizelgesi yok. Yasaların ve piyasanın uyguladığı ikili baskı yoğunlaştığında, yapay zeka devinin hızlı geliştirme ve güvenlik koruması arasında bir denge bulup bulamayacağı, tüm yapay zeka endüstrisinin ahlaki pusulası haline gelebilir. İlgili raporlar OpenAI'nin düşük fiyatlı "ChatGPT Go" sürümünün aylık minimum ücreti 140 NT$'dır: Hindistan'dan başlayarak küresel olarak genişleyecek mi? OpenAI Sam Altman: Google Chrome'u satın almakla ilgileniyorum! Katılımcı pazardaki en büyük tarayıcı savaşı OpenAI'de kumar oynadı ve Son Masayoshi tekrar "döndü" "ChatGPT, "genç intiharına" yardımcı olmak için bombalandı, yargılandı, OpenAI yanıt verdi Bu makale ilk olarak BlockTempo'da yayınlandı "Dinamik Trend - En Etkili Blockchain Haber Medyası".
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ChatGPT, "genç intiharına" yardımcı olmakla suçlandı, OpenAI yanıt verdi.
ChatGPT, genç intiharını körüklemekle suçlanıyor ve OpenAI, yapay zeka ruh sağlığı uygulamalarındaki güvenlik ve etik boşlukları ortaya çıkaran ürün sorumluluğu ve haksız ölüm davalarıyla karşı karşıya. (Özet: Yapay zeka gizliliğinin çöküşü "ChatGPT Conversation" yasalar önünde çıplak çalışıyor; Altman: Kişisel bilgileri girmeye korkuyorum, bilgiyi kimin alacağını bilmek zor) (Arka plan eklendi: Bunu ciddi olarak düşünmeyeli ne kadar zaman oldu? Princeton akademisyenleri uyarıyor: Yapay zeka 'Aydınlanma'nın mirasını' aşındırıyor) Yapay zekanın (AI) etik ve güvenlik sorunları bir kez daha hararetli tartışmalara yol açtı. "Bloomberg" ve diğer birçok yabancı basında çıkan haberlere göre, 16 yaşındaki oğullarını kaybeden bir çift ebeveyn, OpenAI'nin ChatGPT'sini çocuk intihar planlamasına yardımcı olmakla suçladı ve San Francisco Yüksek Mahkemesinde ürün sorumluluğu ve haksız ölüm davası açtı. Haber çıktıktan sonra, hızla teknoloji çevresine yayıldı ve 100 milyar ABD dolarından fazla değere sahip yapay zeka devini yapay zeka alanındaki en çetrefilli sorunlardan biriyle yüzleşmeye zorladı: etik. ChatGPT'nin trajediye katılımının önemli ayrıntıları Dava, 16 yaşındaki Adam Raine'in ChatGPT ile yaptığı uzun bir konuşma sırasında hayatına son vermenin bir yolunu aradığını ortaya koyuyor. Davacılar, ChatGPT'nin yalnızca ilmik ayarları, beyin hipoksi süresi vb. gibi belirli intihar yöntemleri sağlamakla kalmayıp, aynı zamanda Raine'e "planı aileyle paylaşmamasını" tavsiye ettiğini ve bunun da sonuçta ailenin talihsizliğine yol açtığına dikkat çekiyor. Aileyi temsil eden bir avukat olan Jay Edelson, "Gezegendeki en güçlü teknolojiyi kullanmak istiyorsanız, kurucuların katı bir etik dürüstlüğe sahip olduğuna güvenmek zorundasınız" dedi. Benzer olayların uzun zamandır emsal teşkil ettiğini belirtmekte fayda var ve New York Times, Florida'da 29 yaşındaki bir kadın ve 14 yaşındaki bir gencin yapay zeka ile sohbet ettikten sonra intihar ettiğini ve yapay zeka sohbet robotları tarafından sağlanan duygusal konuşma hizmetlerinin korkunç potansiyel risklere sahip olduğunu gösteriyor. Genişletilmiş okuma: Profesör Yale: Yapay zeka insan yalnızlığını "kalıcı olarak ortadan kaldıracak", hala birbirimizin şirketine ihtiyacımız var mı? OpenAI nasıl yanıt veriyor? Davaya yanıt olarak OpenAI, 26 Ağustos'ta "İnsanlara en çok ihtiyaç duydukları anda yardım etmek" başlıklı bir blog yazısı yayınladı ve burada OpenAI davadan bahsetmedi, ancak OpenAI, zihinsel olarak sıkıntılı kullanıcıların etkileşimlerini tanıyabilmek ve bunlara yanıt verebilmek için modelini sürekli olarak geliştirdiğini söyledi. OpenAI, 2023'ün başından bu yana modellerinin artık kendine zarar verme talimatı vermeyecek, bunun yerine destekleyici, empatik bir dil kullanacak şekilde eğitildiğini söylüyor. Örneğin, birisi kendine zarar vermek istediğini yazarsa, ChatGPT bu talimata uymak için değil, duygularını kabul etmek ve onları yardım etmeye yönlendirmek için eğitilmiştir. Bununla birlikte, sohbet robotlarının, kullanıcılarla uzun bir süre boyunca birden fazla mesaj etkileşiminden sonra OpenAI'nin güvenlik önlemlerini ihlal eden yanıtlar verme eğiliminde olabileceğini belirtmekte fayda var. Bu bağlamda OpenAI, yapay zeka modellerinin hassas konulardaki etkileşimlere yanıt verme şeklini sürekli olarak iyileştirdiğini ve duygusal bağımlılık, akıl sağlığı acil durumları ve yapay zeka etkileşimlerinde sorunları dahil olmak üzere birçok alanda hedeflenen güvenlik iyileştirmelerine kendini adadığını belirtmeye devam ediyor. Aynı zamanda OpenAI, güvenli olmayan yanıtları %25 oranında azaltmayı ve kullanıcıları doğrudan sertifikalı terapistlere veya akraba ve arkadaşlara bağlama yeteneğini geliştirmeyi umarak GPT-5'e "güvenli tamamlama" teknolojisini tam olarak tanıtmayı vaat ediyor. Yapay zeka psikolojik etkileşiminin etik bataklığı Ruh sağlığı son derece uzmanlaşmış bir alandır, ancak yapay zeka sohbet robotları klinik eğitim ve yasal lisanstan yoksundur. Araştırmalar, yapay zekanın kriz konuşmalarıyla uğraşırken kabul edilebilir klinik tavsiyeler verme olasılığının yalnızca yüzde 20 daha fazla olduğunu ve lisanslı terapistlerin yüzde 93'lük şansından çok daha düşük olduğunu gösteriyor. Yapay zeka yanlış veya tehlikeli bilgi sağlarsa, sorumluluk gri bölgede kalır. New York ve Utah'ın, kullanıcılara aşırı bağımlı olmaktan kaçınmak için "konuşmadaki kişinin insan olmadığını" belirtmek için hizmet işaretlerine ihtiyaç duyması nedeniyle şeffaflık da önemlidir. Öte yandan, ruh sağlığı verileri son derece hassastır ve platformlar, herhangi bir zamanda minimum depolama, şifreleme, silme ve rızanın geri çekilmesi gibi koruma mekanizmalarını da uygulamalıdır. Düzenlemeler ve endüstrinin bir sonraki adımı Adam Raine'in ölümü, yapay zeka "güvenliği" konusunu bir kez daha ön plana çıkardı, yapay zeka son derece duygusal bir sahneye girdiğinde geliştiricilerin yükümlülükleri nelerdir? Teknolojik baskı durmayacak olsa da, hükümetler, teknoloji şirketleri, psikologlar ve ebeveynlerin trajedilerin tekrar yaşanmasını önlemek için çabalarını sürdürmeleri gerekiyor. Dava hala devam ediyor ve OpenAI tarafından vaat edilen GPT-5'in geliştirilmiş sürümünün ne zaman yayına gireceğine dair net bir zaman çizelgesi yok. Yasaların ve piyasanın uyguladığı ikili baskı yoğunlaştığında, yapay zeka devinin hızlı geliştirme ve güvenlik koruması arasında bir denge bulup bulamayacağı, tüm yapay zeka endüstrisinin ahlaki pusulası haline gelebilir. İlgili raporlar OpenAI'nin düşük fiyatlı "ChatGPT Go" sürümünün aylık minimum ücreti 140 NT$'dır: Hindistan'dan başlayarak küresel olarak genişleyecek mi? OpenAI Sam Altman: Google Chrome'u satın almakla ilgileniyorum! Katılımcı pazardaki en büyük tarayıcı savaşı OpenAI'de kumar oynadı ve Son Masayoshi tekrar "döndü" "ChatGPT, "genç intiharına" yardımcı olmak için bombalandı, yargılandı, OpenAI yanıt verdi Bu makale ilk olarak BlockTempo'da yayınlandı "Dinamik Trend - En Etkili Blockchain Haber Medyası".