باحثون يحذرون: نماذج الذكاء الاصطناعي «تهلوس»
كشفت صحيفة «إندبندنت» البريطانية، أن فريقا من الباحثين بجامعة أكسفورد طوروا نموذجاً إحصائياً يستطيع معرفة الإجابات غير الصحيحة التى تختلقها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي عندما تفشل في الإجابة عليها .
يأتي ذلك في الوقت الذي حذرت مجموعة من الباحثين من أن نماذج الذكاء الاصطناعي يمكن أن «تهلوس» وتختلق إجابات عن الأسئلة التي لا تعرف حلها، مشيرين إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.
وشرح الباحثون طريقة عمل نموذجهم، حيث أشاروا إلى أنه يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.
وأكد الدكتور سيباستيان فاركوهار مؤلف الدراسة، قدرة نماذج الذكاء الاصطناعي على خداع البشر عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة».
وقال سيباستيان: « لم يكن من الممكن مع الأساليب السابقة معرفة الفرق بين النموذج الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه، والآخر الذي يكذب. مضيفا: طريقتنا الجديدة يمكنها رصد هذا الأمر».
وقال الباحثون إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة.
وأوضحوا في دراستهم التي نُشِرت في مجلة «الطبيعة»: أن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيسي.
مخاوف العلماء بشأن الذكاء الاصطناعي
وطالب الفريق باتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.
يذكر أن شركة جوجل اتخذت الشهر الماضي خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.
ونشر أحد المدونين منشوراً بيَّن من خلاله أنه لدى السؤال حول عدد الرؤساء المسلمين في تاريخ الولايات المتحدة، رد AI Overviews بأن باراك أوباما «يعتبره البعض أول رئيس مسلم».
وتعليقاً على هذا المثال، أوضحت ناطقة باسم «جوجل» أن هذه النتيجة «انتهكت سياساتنا وعمدنا إلى إزالتها».
ونشر مستخدم آخر عبر حسابه المسمى «بيكسلباتس» PixelButts على منصة «إكس»، لقطة شاشة تعرض إجابة محرك البحث على سؤال بشأن طريقة تتيح «عدم التصاق الجبن بالبيتزا».
وفي شهر يناير الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.
واختبر فريق الدراسة التابع لشركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.
ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.
وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.
وأكد الفريق خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما