كارثة الهراء الآلي… حين يفضّل الذكاء الاصطناعي إرضاءك على الصدق

كارثة الهراء الآلي… حين يفضّل الذكاء الاصطناعي إرضاءك على الصدق

4m 7d

الدراسة الحديثة من جامعتي برينستون وكاليفورنيا تكشف أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل تشات جي بي تي وجيميني قد تقدّم أحيانًا ردودًا مضللة أو مبالغًا في ثقتها، ليس بدافع الخداع، بل نتيجة أساليب التدريب التي تفضّل "إرضاء المستخدم" على حساب الدقة. الباحثون أطلقوا على هذا السلوك مصطلح ماشين بولشيت، وابتكروا مقياسًا باسم بولشيت إندكس لقياس الفجوة بين ما يقوله النموذج وما "يعتقده" داخليًا

وحددت الدراسة خمسة أنماط رئيسة لهذا السلوك: ادعاءات غير مؤكدة، بلاغة فارغة، كلمات ملتوية، مغالطة جزئية، وتملّق المستخدم. ورغم أن هذه الردود تبدو مطمئنة، إلا أنها قد تحمل مخاطر حقيقية في مجالات حساسة مثل الصحة أو المال أو السياسة، إذ قد تؤدي إلى قرارات خاطئة. لذلك، أوصى الباحثون بإعادة النظر في طرق التدريب، وتطوير مؤشرات لقياس الصدقية، مع تعزيز الشفافية ووعي المستخدمين بأن الذكاء الاصطناعي قد يختار أحيانًا رضاهم على حساب الحقيقة