facebook
twitter
Youtube
Ammon on Apple Store
Ammon on Play Store
مواعيد الطيران
مواعيد الصلاة
rss




المخاطر المتزايدة للذكاء الاصطناعي


د. جهاد مهيدات
15-08-2024 02:03 PM

طالعتنا الصحف مؤخراً باعلانات لشركات تكنولوجيا كبرى مثل Meta وLG تبين عزمها توفير أنظمة الذكاء الاصطناعي الخاصة بها كمصدر مفتوح، مما أثار اهتمامًا وقلقًا كبيرين. فطالما كانت البرمجيات مفتوحة المصدر، بالنسبة للكثيرين، محفزًا للابتكار والتعاون والشفافية. لكن عند الدخول إلى عالم الذكاء الاصطناعي مفتوح المصدر، وخاصة تلك النماذج التي تحتوي على "أوزان" وخوارزميات الشبكات العصبية المتقدمة، تبرز مجموعة جديدة من التحديات. يختلف مشهد الذكاء الاصطناعي مفتوح المصدر تمامًا عن البرمجيات التقليدية التي نعرفها، وفهم هذه الفروقات ضروري ونحن نزن الفوائد مقابل المخاطر المحتملة.

في جوهره، يشير مفهوم البرمجيات مفتوحة المصدر إلى الكود المتاح للجمهور، حيث يمكن لأي شخص فحصه وتعديله وتحسينه حسب احتياجاته. على سبيل المثال، نظام Linux ومتصفح Mozilla Firefox وخادم Apache هي جميعها مشاريع مفتوحة المصدر ازدهرت بفضل تعاون المجتمع. تعتمد المبادئ وراء البرمجيات مفتوحة المصدر على الشفافية والابتكار والشمولية، حيث يمكن للمطورين المساهمة في تحسين الأنظمة والتعرف على العيوب بشكل مستمر.

ومع ذلك، يُضيف الذكاء الاصطناعي مفتوح المصدر طبقة جديدة من التعقيد. فبدلاً من الاعتماد فقط على الكود التقليدي، تعتمد نماذج الذكاء الاصطناعي على الشبكات العصبية و"الأوزان"، وهي القيم العددية التي تؤثر في كيفية تعلم نظام الذكاء الاصطناعي واتخاذ القرارات. يتم ضبط هذه الأوزان بعناية من خلال مجموعات البيانات الكبيرة وعمليات التدريب، مما يمكّن أنظمة الذكاء الاصطناعي من أداء مهام محددة مثل معالجة اللغة أو التعرف على الصور أو التحليل التنبؤي.

يكمن الخطر في كيفية إمكانية التلاعب بهذه الأوزان. بينما قد تؤدي التغييرات في البرمجيات مفتوحة المصدر التقليدية إلى أخطاء أو عدم كفاءة، فإن تعديل أوزان نموذج الذكاء الاصطناعي يمكن أن يغير بشكل جذري الطريقة التي يتصرف بها الذكاء الاصطناعي. وهذا يفتح الباب لمجموعة واسعة من المخاوف الأخلاقية والأمنية والاجتماعية.

يمكن لأنظمة الذكاء الاصطناعي، إذا تم تعديلها بشكل غير صحيح، أن تُستخدم لأغراض ضارة. على سبيل المثال، يمكن للمجرمين استخدام نماذج الذكاء الاصطناعي لتوليد مقاطع الفيديو المفبركة (deepfakes) أو تعزيز الهجمات السيبرانية أو نشر المعلومات المضللة. إذا تم توفير النماذج والأوزان الخاصة بأنظمة الذكاء الاصطناعي بشكل علني، فقد يتمكن المهاجمون من تعديل هذه النماذج لتنفيذ مهام تخدم أهدافًا خبيثة.

يعد التحيز من التحديات المستمرة في مجال الذكاء الاصطناعي. تتعلم نماذج الذكاء الاصطناعي من البيانات التي يتم تدريبها عليها، وإذا كانت هذه البيانات تحتوي على تحيزات، فسوف يتعلم الذكاء الاصطناعي هذه التحيزات ويعززها. ويمكن أن تؤدي نماذج الذكاء الاصطناعي مفتوحة المصدر إلى تفاقم هذه التحيزات إذا تم تعديلها بطرق غير مسؤولة.

تكمن مشكلة رئيسية أخرى في فتح النماذج المصدرية للذكاء الاصطناعي تتمثل في فقدان الرقابة والمساءلة. عندما تُصبح أدوات الذكاء الاصطناعي مفتوحة المصدر، يصبح من الصعب مراقبة كيفية استخدامها أو إساءة استخدامها. على عكس الأنظمة المغلقة التي تحتفظ الشركات بالتحكم فيها.
يمكن أن تُعدل أنظمة الذكاء الاصطناعي لتتصرف بطرق لم يقصدها منشئوها أبدًا. على سبيل المثال، قد يتم تحويل نموذج ذكاء اصطناعي مصمم لأغراض مفيدة مثل أتمتة خدمة العملاء، إلى أداة لخداع أو استغلال المستخدمين.

مع تبني المزيد من الشركات لنموذج المصدر المفتوح للذكاء الاصطناعي، يجب على الحكومات والمؤسسات التحرك بسرعة لوضع أطر عمل تقلل من المخاطر المرتبطة بذلك. فيجب على الحكومات إنشاء هيئات تنظيمية تركز بشكل خاص على مراقبة استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر. يمكن لهذه الهيئات أن تضع معايير السلامة لأنظمة الذكاء الاصطناعي، وتضمن الالتزام بالممارسات الأخلاقية، وتراقب كيفية تعديل هذه النماذج وتطبيقها. كما يجب تشجيع الشركات والمطورين على بناء ذكاء اصطناعي أخلاقي منذ البداية. يشمل ذلك دمج الاعتبارات الأخلاقية في نماذج الذكاء الاصطناعي أثناء تطويرها، وضمان استخدام بيانات تدريبية متنوعة وخالية من التحيزات، وتنفيذ تدابير وقائية تمنع إساءة استغلال الأنظمة عند فتحها للمصدر المفتوح. ويمكن للحكومات أن تعمل عن كثب مع القطاع الخاص لمراقبة وإدارة أدوات الذكاء الاصطناعي مفتوحة المصدر. يمكن أن تتيح هذه الشراكات تبادل الموارد والمعرفة وأفضل الممارسات، مما يساعد في إنشاء نظام ذكاء اصطناعي أكثر أمانًا. كذلك يُعد تثقيف الجمهور بشأن مخاطر وإمكانات الذكاء الاصطناعي أمرًا أساسيًا، حيث يجب توعية صانعي السياسات وقادة الصناعة والجمهور العام بكيفية عمل أنظمة الذكاء الاصطناعي، والمخاطر المتعلقة بالتلاعب بها، وأهمية الاستخدام المسؤول لها.

يعد فتح أنظمة الذكاء الاصطناعي المصدرية سيفًا ذا حدين، فبينما يمكن أن يكون هناك إمكانيات هائلة للابتكار والتعاون، توجد كذلك مخاطر كبيرة.

يعتمد الذكاء الاصطناعي مفتوح المصدر، مع اعتماده على الشبكات العصبية والأوزان، على مجموعة معقدة من التحديات التي تتجاوز البرمجيات المفتوحة المصدر التقليدية. يجب على الحكومات والصناعات والمجتمعات العمل معًا لضمان استخدام هذه الأدوات القوية بمسؤولية وأخلاقية. فقط من خلال جهود جماعية يمكننا الاستفادة من إمكانيات الذكاء الاصطناعي مع تقليل المخاطر التي قد تأتي معه.

* الدكتور جهاد مهيدات/ رئيس المركز الوطني للإبداع.





  • لا يوجد تعليقات

تنويه
تتم مراجعة كافة التعليقات ،وتنشر في حال الموافقة عليها فقط.
ويحتفظ موقع وكالة عمون الاخبارية بحق حذف أي تعليق في أي وقت ،ولأي سبب كان،ولن ينشر أي تعليق يتضمن اساءة أوخروجا عن الموضوع المطروح ،او ان يتضمن اسماء اية شخصيات او يتناول اثارة للنعرات الطائفية والمذهبية او العنصرية آملين التقيد بمستوى راقي بالتعليقات حيث انها تعبر عن مدى تقدم وثقافة زوار موقع وكالة عمون الاخبارية علما ان التعليقات تعبر عن أصحابها فقط .
الاسم : *
البريد الالكتروني :
اظهار البريد الالكتروني
التعليق : *
بقي لك 500 حرف
رمز التحقق : تحديث الرمز
أكتب الرمز :