تمت مقاضاة ChatGPT بتهمة المساعدة في "انتحار الشباب" ، وعلقت OpenAI على ذلك.

robot
إنشاء الملخص قيد التقدم

ChatGPT متهم بتأجيج انتحار المراهقين ، وتواجه OpenAI مسؤولية المنتج ودعاوى القتل الخطأ ، مما يكشف عن الثغرات في السلامة والأخلاقيات في تطبيقات الصحة العقلية في الذكاء الاصطناعي. (ملخص: انهيار خصوصية الذكاء الاصطناعي "ChatGPT Conversation" يركض عاريا أمام القانون ؛ ألتمان: أخشى إدخال المعلومات الشخصية ، من الصعب معرفة من سيحصل على المعلومات) (تمت إضافة الخلفية: كم من الوقت مرت منذ أن فكرت فيها بجدية؟ يحذر الأكاديميون في جامعة برينستون: الذكاء الاصطناعي يقوض "إرث عصر التنوير" اجتذبت القضايا الأخلاقية والسلامة للذكاء الاصطناعي (الذكاء الاصطناعي) مناقشات ساخنة مرة أخرى. وفقا ل "بلومبرج" والعديد من تقارير وسائل الإعلام الأجنبية الأخرى ، اتهم زوجان من الآباء فقدا ابنهما البالغ من العمر 16 عاما ChatGPT من OpenAI بالمساعدة في التخطيط لانتحار الأحداث ورفعوا دعوى قضائية ضد المسؤولية عن المنتج والقتل الخطأ في محكمة سان فرانسيسكو العليا. بعد انتشار الأخبار ، انتشرت بسرعة في جميع أنحاء دائرة التكنولوجيا ، مما أجبر عملاق الذكاء الاصطناعي ، الذي تقدر قيمته بأكثر من 100 مليار دولار أمريكي ، على مواجهة واحدة من أكثر المشاكل الشائكة في مجال الذكاء الاصطناعي: الأخلاق. التفاصيل الرئيسية لتورط ChatGPT في المأساة تكشف الدعوى القضائية أن آدم راين البالغ من العمر 16 عاما سعى إلى إيجاد طريقة لإنهاء حياته خلال محادثة مطولة مع ChatGPT. يشير المدعون إلى أن ChatGPT لم يوفر فقط طرقا انتحارية محددة مثل إعدادات حبل المشنقة ، ووقت نقص الأكسجة في الدماغ ، وما إلى ذلك ، ولكنه نصح أيضا رين "بعدم مشاركة الخطة مع العائلة" ، مما أدى في النهاية إلى سوء حظ الأسرة. وقال جاي إديلسون، المحامي الذي يمثل الأسرة: "إذا كنت ترغب في استخدام أقوى تقنية على هذا الكوكب، فعليك أن تثق في أن المؤسسين يتمتعون بنزاهة أخلاقية صارمة". من الجدير بالذكر أن حوادث مماثلة سابقت منذ فترة طويلة ، وذكرت صحيفة نيويورك تايمز أن امرأة تبلغ من العمر 29 عاما ومراهقا يبلغ من العمر 14 عاما في فلوريدا انتحرا بعد الدردشة مع الذكاء الاصطناعي ، مما يدل على أن خدمات المحادثة العاطفية التي تقدمها روبوتات الدردشة الذكاء الاصطناعي تنطوي على مخاطر محتملة رهيبة. قراءة ممتدة: البروفيسور ييل: الذكاء الاصطناعي "سيقضي بشكل دائم" على الشعور بالوحدة البشرية ، هل ما زلنا بحاجة إلى رفقة بعضنا البعض؟ كيف يستجيب OpenAI؟ ردا على الدعوى القضائية ، نشرت OpenAI منشورا على مدونة في 26 أغسطس بعنوان "مساعدة الناس عندما هم في أمس الحاجة إليها" ، حيث لم تذكر OpenAI الدعوى القضائية ، لكن OpenAI قالت إنها تعمل باستمرار على تحسين نموذجها لتكون قادرة على التعرف على تفاعلات المستخدمين المضطربين عقليا والاستجابة لها. تقول OpenAI إنه منذ أوائل عام 2023 ، تم تدريب نماذجها على عدم تقديم تعليمات لإيذاء النفس ، ولكن بدلا من ذلك استخدام لغة داعمة ومتعاطفة. على سبيل المثال ، إذا كتب شخص ما أنه يريد إيذاء نفسه ، فإن ChatGPT مدرب على عدم اتباع هذه التعليمات ، ولكن على الاعتراف بمشاعره وتوجيهه للمساعدة. ومع ذلك ، تجدر الإشارة إلى أن روبوتات المحادثة قد تميل إلى تقديم إجابات تنتهك الضمانات الأمنية ل OpenAI بعد تفاعلات الرسائل المتعددة مع المستخدمين على مدى فترة طويلة من الزمن. في هذا السياق ، تواصل OpenAI الإشارة إلى أنها تعمل باستمرار على تحسين الطريقة التي تستجيب بها نماذج الذكاء الاصطناعي للتفاعلات حول الموضوعات الحساسة ، وتلتزم بتحسينات السلامة المستهدفة في مجالات متعددة ، بما في ذلك الاعتماد العاطفي ، وحالات طوارئ الصحة العقلية ، وقضايا التملق في تفاعلات الذكاء الاصطناعي. في الوقت نفسه ، تعد OpenAI بإدخال تقنية "الإكمال الآمن" بالكامل إلى GPT-5 ، مع توقع تقليل الاستجابات غير الآمنة بنسبة 25٪ ، وتطوير القدرة على ربط المستخدمين مباشرة بالمعالجين المعتمدين أو الأقارب والأصدقاء. المستنقع الأخلاقي للتفاعل النفسي الذكاء الاصطناعي الصحة العقلية هي مجال عالي التخصص ، لكن روبوتات الدردشة الذكاء الاصطناعي تفتقر إلى التدريب السريري والترخيص القانوني. تظهر الأبحاث أن الذكاء الاصطناعي أكثر عرضة بنسبة 20 في المائة فقط لتقديم نصائح سريرية مقبولة عند التعامل مع محادثات الأزمات ، وهو أقل بكثير من فرصة 93 في المائة للمعالجين المرخصين. إذا قدم الذكاء الاصطناعي معلومات غير صحيحة أو خطيرة ، فستظل المسؤولية في المنطقة الرمادية. الشفافية هي المفتاح أيضا ، حيث تطلب نيويورك ويوتا علامات الخدمة للإشارة إلى أن "الشخص في المحادثة غير بشري" لتجنب الاعتماد المفرط على المستخدمين. من ناحية أخرى ، فإن بيانات الصحة العقلية حساسة للغاية ، ويجب على المنصات أيضا تنفيذ آليات حماية مثل الحد الأدنى من التخزين والتشفير والحذف وسحب الموافقة في أي وقت. اللوائح والخطوة التالية للصناعة أدت وفاة آدم رين مرة أخرى إلى تسليط الضوء على قضية "أمن" الذكاء الاصطناعي في المقدمة ، ما هي التزامات المطورين عندما يدخل الذكاء الاصطناعي في مشهد عاطفي للغاية؟ في حين أن الدفعة التكنولوجية لن تتوقف، لا تزال الحكومات وشركات التكنولوجيا وعلماء النفس والآباء بحاجة إلى مواصلة جهودهم لمنع حدوث المآسي مرة أخرى. لا تزال الدعوى مستمرة ، ولا يوجد جدول زمني واضح لموعد إطلاق الإصدار المحسن من GPT-5 الذي وعدت به OpenAI. عندما يشتد الضغط المزدوج الذي يمارسه القانون والسوق ، فإن ما إذا كان عملاق الذكاء الاصطناعي يمكنه إيجاد توازن بين التطور السريع والحماية الأمنية قد يصبح البوصلة الأخلاقية لصناعة الذكاء الاصطناعي بأكملها. تقارير ذات صلة نسخة OpenAI منخفضة السعر من "ChatGPT Go" لها رسوم شهرية لا تقل عن 140 دولارا تايوانياوانيا: بدءا من الهند ، هل ستتوسع عالميا؟ OpenAI Sam Altman: أنا مهتم بالحصول على Google Chrome! راهنت أكبر معركة متصفح في السوق المشاركة على OpenAI ، و Son Masayoshi "انقلب" مرة أخرى "تم قصف ChatGPT للمساعدة في" انتحار الشباب "، وردت OpenAI تم نشر هذه المقالة لأول مرة في BlockTempo "الاتجاه الديناميكي - وسائل الإعلام الإخبارية الأكثر نفوذا في Blockchain".

GPT-0.5%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت