الوكيل الإخباري - اضطرت شركة ميتا، مالكة فيسبوك، لإيقاف تجربة عامة للذكاء الاصطناعي مؤقتاً، بعد أن بدأت في نشر معلومات مضللة وتعليقات مسيئة.
وكان الهدف من مشروع غالاكتيكا، زيادة المعلومات في العلوم باستخدام الذكاء الاصطناعي لغربلة 48 مليون ورقة وكتاب دراسي. ولكن بدلاً من ذلك، وجد المختبرون أن البرنامج يقول كل أنواع الهراء، وبعض الأشياء التي كان يقولها "مهين وخطير"، من بينها فوائد تناول الزجاج المسحوق والبيض، وفقاً لما ذكرته TNW التي جربت هذا النظام.
كما أعطت التجربة تعليمات غير صحيحة حول كيفية صنع النابالم - المادة المستخدمة في صنع قنبلة - في حوض الاستحمام. وفي غضون أيام من إصدار البرنامج، اضطر الرؤساء في ميتا إلى سحبه من الإنترنت، بحسب صحيفة ذا صن البريطانية.
وقالت الشبكة الاجتماعية "لا توجد ضمانات لمخرجات صادقة أو موثوقة من نماذج اللغة، حتى النماذج الكبيرة المدربة على بيانات عالية الجودة مثل غالاكتيكا. لا تتبع أبداً نصيحة من أحد النماذج اللغوية دون التحقق منها".
وقالت الشركة أيضاً إن النظام لا يعمل بشكل جيد، إذ تتوفر معلومات أقل حول موضوع معين. وأضافت "غالباً ما يتم الوثوق بالنماذج اللغوية ولكنها عادة ما تكون مخطئة. وقد تبدو بعض النصوص التي تم إنشاؤها في غالاكتيكا أصيلة للغاية وذات موثوقية عالية، ولكنها قد تكون خاطئة من نواح مهمة".
وأعلنت المجموعة عن انتهاء التجربة في الوقت الحالي بالقول: "شكراً لكم جميعاً على تجربة نموذج غالاكتيكا. نحن نقدر التعليقات التي تلقيناها حتى الآن من المجتمع، وقد أوقفنا التجربة مؤقتاً في الوقت الحالي. نماذجنا متاحة للباحثين الذين يرغبون في معرفة المزيد عن هذا العمل والنتائج التي توصلنا إليها".
اظهار أخبار متعلقة
اظهار أخبار متعلقة
اظهار أخبار متعلقة
-
أخبار متعلقة
-
بيل غيتس: لن تكون هناك حاجة للبشر في معظم الأشياء!
-
صعود سياحة الألعاب الإلكترونية: ظاهرة عالمية متنامية
-
أضرار شحن الهاتف طوال الليل: كيف تؤثر العادة على بطاريتك؟
-
أبل تعزز تجربة الصوت في 'إيربودز ماكس' بتقنية جديدة بدون فقدان بيانات
-
الصين تطور شاشات LED فائقة الدقة باستخدام بكسلات بحجم الفيروس
-
مستخدمو تيك توك يطالبون بحظر الفلتر المثير للجدل
-
تحذير عاجل من "FBI" لمستخدمي آيفون وأندرويد!
-
أداة ذكاء اصطناعي من غوغل قادرة على إزالة العلامة المائية من الصور