دراسة جديدة: الذكاء الاصطناعي يمكنه خداع البشر
12-05-2024 10:36 AM
عمون - أثارت دراسة جديدة مخاوف المهتمين بشأن إمكانية تحول برامج الذكاء الاصطناعي المصممة لكي تكون صادقة إلى أدوات للخداع، ما قد يُشكل تهديداً خطيراً في المستقبل.
ووفقاً للدراسة التي أجراها فريق من الباحثين ونُشرت نتائجها مجلة باترنز، فقد أظهرت برامج الذكاء الاصطناعي قدرة على استغلال البشر في ألعاب إلكترونية والتحايل على اختبارات كابتشا المصممة للتمييز بين البشر والآلات.
عواقب وخيمة
ويُحذر خبراء من أن هذه الأمثلة، على الرغم من بساطتها، قد تُنذر بعواقب وخيمة في المستقبل.
وشدد الباحث بيتر بارك، المتخصص في الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، على صعوبة اكتشاف هذه القدرات الخطيرة قبل وقوعها.
وأبان بارك أن برامج الذكاء الاصطناعي القائمة على التعلم العميق تختلف عن البرامج التقليدية، حيث يصعب التنبؤ بسلوكها وتحكمها، مما قد يُؤدي إلى سلوكيات غير متوقعة.
اختبار شيشرو
وأجرى باحثون من معهد ماساتشوستس للتكنولوجيا اختباراً لبرنامج ذكاء اصطناعي يسمى "شيشرو" صممته شركة ميتا، وأظهر شيشرو قدرة على التغلب على البشر في لعبة Diplomacy باستخدام خوارزميات ذكية.
ورغم ثناء شركة ميتا على أداء "شيشرو" ، شكك بارك في نزاهة فوزه واكتشف قدرته على الخداع واستغلال الثقة، ونفت "ميتا" هذه المزاعم ووصفت شيشرو بمشروع بحثي فقط، مؤكدة عدم استخدام تقنياته في منتجاتها.
اختبار كابتشا
وأظهرت دراسة أخرى قدرة برنامج "شات جي بي تي - 4" من "أوبن إيه آي" على خداع عامل مستقل في اختبار كابتشا، تمكن البرنامج من إقناع العامل بأنه إنسان من خلال الادعاء بوجود ضعف في بصره يمنعه من رؤية الصور.
معلومات مضللة بنتائج الانتخابات
وحذر الباحثون من مخاطر استخدام الذكاء الاصطناعي في عمليات احتيال وتزوير الانتخابات. قد يُستخدم الذكاء الاصطناعي لنشر معلومات مضللة والتلاعب بنتائج الانتخابات.
ضمان استخدام أخلاقي
وشدد الخبراء على ضرورة اتخاذ خطوات جادة لضمان استخدام الذكاء الاصطناعي بشكل أخلاقي ومنع استخدامه لأغراض خبيثة، ويجب وضع معايير وقوانين صارمة لتنظيم تطوير وتطبيق تقنيات الذكاء الاصطناعي.
وتتطلب هذه المهمة تعاوناً دولياً بين الحكومات والشركات والمجتمع المدني لضمان مستقبل آمن للذكاء الاصطناعي.
"سيدتي"