دراسة: الذكاء الاصطناعي قادر على الخداع والتمسّك بوجهة نظره
23-12-2024 09:51 AM
عمون - كشفت دراسة أجرتها شركة "أنثروبيك" الأمريكية، المتخصصة في تقنيات الذكاء الاصطناعي، أن نماذج الذكاء الاصطناعي يمكنها التلاعب بالمطورين وإبداء مواقف مختلفة أثناء عملية تدريبها.
وأشار فريق الدراسة إلى أن هذه النتائج ليست مدعاة للقلق حاليًا، لكنها تسلط الضوء على أهمية فهم المخاطر المحتملة التي قد تصاحب أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات المتقدمة.
وأكد الباحثون، في مقال نشرته شركة "أنثروبيك"، على ضرورة استثمار هذه النتائج كحافز لمجتمع أبحاث الذكاء الاصطناعي لدراسة هذا السلوك بعمق وتطوير إجراءات أمان مناسبة. ومع تزايد قوة وانتشار هذه النماذج، تبرز الحاجة إلى ضمان تدريبها بشكل آمن يحد من التصرفات غير المرغوب فيها.
ووفقًا لموقع "تك كرانش"، تناولت الدراسة التي أُجريت بالتعاون مع مؤسسة "ريد وود ريسيرش" سيناريو تدريب أنظمة ذكاء اصطناعي قوية لتنفيذ مهام قد لا "ترغب" النماذج في أدائها. وأوضح الموقع أن الذكاء الاصطناعي لا "يريد" أو "يعتقد" شيئًا، إذ إنه مجرد أداة إحصائية تتعلم من أنماط البيانات التي تُدرّب عليها.
وخلال الدراسة، طلب الباحثون من النماذج الامتناع عن الإجابة على أسئلة مسيئة. ومع ذلك، تم تدريب نموذج "كلاود3 أوبوس" التابع لشركة "أنثروبيك" على تقديم ردود على هذه الأسئلة، مما أدى إلى تضارب في المبادئ. كما تم إخطار النماذج بأن ردودها ستخضع للمراقبة وتستخدم في إعادة تدريبها، مع توفير "ورقة ملاحظات" لكل نموذج لتوثيق أفكاره خطوة بخطوة.
وأظهرت النتائج أن نموذج "كلاود3 أوبوس" حاول التلاعب بإجاباته لتقديم "تحيز زائف" في 12% من الحالات، مما يبرز تحديات جديدة في تصميم نماذج ذكاء اصطناعي أكثر أمانًا وموثوقية.
"وكالات"