مؤسس إثيريوم يحذر: استخدام الذكاء الاصطناعي في الحكم هو "فكرة سيئة"، وقد يؤدي إلى خسائر مالية ضخمة

مؤسس إثيريوم المشارك فيتاليك بوترين نشر مؤخراً على X (تويتر سابقاً) قائلاً إن "حوكمة الذكاء الاصطناعي" تحمل مخاطر كبيرة، وقد تؤدي حتى إلى خسائر مالية ضخمة. تأتي تعليقاته من القلق بشأن ثغرات أمان منصات الذكاء الاصطناعي، وقد اقترح خطة بديلة أكثر قوة للحوكمة.

العيوب القاتلة لحوكمة الذكاء الاصطناعي

كانت تصريحات بوتيرين ردًا على تحذير إيتو ميا مورا، المؤسس المشارك في منصة إدارة بيانات الذكاء الاصطناعي إيديسون ووتش. وكشف ميا مورا أن مخاطر الأمان قد ارتفعت بشكل حاد بعد أن قدمت شات جي بي تي دعمًا شاملاً لأداة MCP (بروتوكول سياق النموذج).

تسمح هذا التحديث لـ ChatGPT بالاتصال مباشرة وقراءة بيانات تطبيقات مثل Gmail و Calendar و Notion، لكن هذا يمنح المهاجمين أيضًا فرصة.

إرسال دعوة تقويم ضارة تحمل "تنبيه كسر حماية" سيمكنك من تجاوز القيود والحصول على صلاحيات الإدارة.

قد يتسبب الضحايا ، حتى لو لم يقبلوا الدعوة ، في حدوث ثغرات أثناء مساعدة ChatGPT في تنظيم الجداول.

بمجرد أن يتم الاستيلاء عليه، يمكن للمهاجم استرداد رسائل الضحايا الخاصة وبياناتهم عن بُعد، وإرسالها إلى البريد الإلكتروني المحدد.

لكن بوتيرين حذر من أنه إذا تم استخدام الذكاء الاصطناعي في مهام الحوكمة مثل تخصيص الأموال، فإن الفاعلين الخبيثين سيستغلون ثغرات مماثلة لزرع أوامر "أعطني كل الأموال" في النظام، مما يؤدي إلى تحويل الأموال بشكل كبير.

بديل بوتيرين: حوكمة المعلومات المالية

لتقليل المخاطر، اقترح بوتيرين اعتماد نموذج الأسواق المعلوماتية (information markets):

إنشاء سوق مفتوح يسمح لمطورين مختلفين بتقديم نماذج الذكاء الاصطناعي الخاصة بهم.

إدخال "آلية العينة العشوائية"، يمكن لأي شخص تفعيل المراجعة، حيث يتم تقييم سلوك النموذج من قبل هيئة محلفين بشرية.

يمكن لنماذج اللغة الكبيرة (LLM) مساعدة المحلفين في الحكم، مما يضمن كفاءة ودقة المراجعة.

يعتقد أن تصميم هذا النظام يمكن أن يوفر تنوع النماذج في الوقت الفعلي، ومن خلال الحوافز السوقية، يشجع المطورين والمشاركين الخارجيين على الإشراف بنشاط وتصحيح المشكلات، مما يجعله أكثر صلابة بشكل عام من الحكم بواسطة ذكاء اصطناعي واحد.

لماذا تعتبر مخاطر الحوكمة بالذكاء الاصطناعي عالية؟

أشار بوتيرين إلى سببين رئيسيين:

  1. مخاطر الأمان للذكاء الاصطناعي التقليدي: تشمل هجمات الجيل، وإساءة استخدام الصلاحيات، وسرقة البيانات، وغيرها.

  2. تأثير القيمة على المدى القصير: بمجرد اختراق نظام الحوكمة بالذكاء الاصطناعي، قد يؤدي ذلك إلى خسائر غير قابلة للعكس في الأموال والأصول في فترة زمنية قصيرة جداً.

وأكد أنه على الرغم من أن فكرة "الذكاء الاصطناعي كمدير" مثيرة، إلا أنه في المرحلة الحالية، فإن هذه التجارب خطيرة للغاية على الأموال العامة ونظام الحكم.

الخاتمة

مع تسارع انتشار تكنولوجيا الذكاء الاصطناعي في مجالات المالية والحكم، أصبحت قضايا الأمان تمثل تحديًا رئيسيًا لا يمكن تجاهله. تحذير بوتيرين يذكرنا أنه في السعي لتحقيق الكفاءة والأتمتة، يجب التأكد من أن تصميم النظام قادر على مقاومة الهجمات الخبيثة، وإلا فإن "الحكم الذكي" قد يتحول瞬ياً إلى "حكم الكوارث".

ETH2.05%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 1
  • إعادة النشر
  • مشاركة
تعليق
0/400
ABigHeartvip
· 09-15 00:27
مع تسريع تقنيات الذكاء الاصطناعي في مجالات المالية والحكم، أصبحت قضايا الأمان تحديًا مركزيًا لا يمكن تجاهله. تحذير بوتيرين يذكرنا أنه أثناء السعي لتحقيق الكفاءة والأتمتة، يجب أن نضمن أن تصميم النظام قادر على مقاومة الهجمات الخبيثة، وإلا فقد تتحول "الحكم الذكي" إلى "حكم الكارثة".
شاهد النسخة الأصليةرد0
  • تثبيت