الوكيل الإخباري - اضطرت شركة ميتا، مالكة فيسبوك، لإيقاف تجربة عامة للذكاء الاصطناعي مؤقتاً، بعد أن بدأت في نشر معلومات مضللة وتعليقات مسيئة.
وكان الهدف من مشروع غالاكتيكا، زيادة المعلومات في العلوم باستخدام الذكاء الاصطناعي لغربلة 48 مليون ورقة وكتاب دراسي. ولكن بدلاً من ذلك، وجد المختبرون أن البرنامج يقول كل أنواع الهراء، وبعض الأشياء التي كان يقولها "مهين وخطير"، من بينها فوائد تناول الزجاج المسحوق والبيض، وفقاً لما ذكرته TNW التي جربت هذا النظام.
كما أعطت التجربة تعليمات غير صحيحة حول كيفية صنع النابالم - المادة المستخدمة في صنع قنبلة - في حوض الاستحمام. وفي غضون أيام من إصدار البرنامج، اضطر الرؤساء في ميتا إلى سحبه من الإنترنت، بحسب صحيفة ذا صن البريطانية.
وقالت الشبكة الاجتماعية "لا توجد ضمانات لمخرجات صادقة أو موثوقة من نماذج اللغة، حتى النماذج الكبيرة المدربة على بيانات عالية الجودة مثل غالاكتيكا. لا تتبع أبداً نصيحة من أحد النماذج اللغوية دون التحقق منها".
وقالت الشركة أيضاً إن النظام لا يعمل بشكل جيد، إذ تتوفر معلومات أقل حول موضوع معين. وأضافت "غالباً ما يتم الوثوق بالنماذج اللغوية ولكنها عادة ما تكون مخطئة. وقد تبدو بعض النصوص التي تم إنشاؤها في غالاكتيكا أصيلة للغاية وذات موثوقية عالية، ولكنها قد تكون خاطئة من نواح مهمة".
وأعلنت المجموعة عن انتهاء التجربة في الوقت الحالي بالقول: "شكراً لكم جميعاً على تجربة نموذج غالاكتيكا. نحن نقدر التعليقات التي تلقيناها حتى الآن من المجتمع، وقد أوقفنا التجربة مؤقتاً في الوقت الحالي. نماذجنا متاحة للباحثين الذين يرغبون في معرفة المزيد عن هذا العمل والنتائج التي توصلنا إليها".
اظهار أخبار متعلقة
اظهار أخبار متعلقة
اظهار أخبار متعلقة
-
أخبار متعلقة
-
كيف تكتشف أن هاتفك يتنصت على مكالماتك؟
-
نظريات متضاربة حول الوعي الاصطناعي.. هل تشعر الروبوتات بالألم؟
-
روبوت لحراسة الأنهار وإنقاذ الغرقى في الصين
-
توقف خدمة نتفليكس عن آلاف المستخدمين في أمريكا
-
لا تكتب هذه الكلمات على جوجل.. استخدامها في البحث يعرضك لتهديد خطير
-
مستخدمو الإصدار التجريبي من "واتساب" يُبلغون عن مشكلة خطيرة.. هذه تفاصيلها
-
عطل في "شات جي بي تي" يقطع الخدمة عن آلاف المستخدمين
-
وداعاً لتعدد التطبيقات.. ميزة واتساب الجديدة ستجمع كل محادثاتك في مكان واحد!