كيف نخفف من الاثار السلبية للذكاء الاصطناعي؟
أ.د عبد الرزاق الدليمي
26-07-2024 09:17 AM
تناولنا في مقالات سابقة جوانب من المخاطر التي فرضها الذكاء الاصطناعي هذا الامر الذي بات يؤرق حتى الشركات التي تعمل على تطوير أنظمة جديدة للذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي التوليدي مثل Chat GPT، حيث حذرت من المخاطر التي تشكلها تطبيقات الذكاء الاصطناعي ما لم يتم تنظيمها بشكل صحيح.
• لكن تنفيذ التنظيم ليس بالأمر السهل، إذ يتعين علينا أن نضمن تقييد السلبيات مع السماح بإيجابيات هذه التكنولوجيا الجديدة بالازدهار.
• يمكن أن تكون أدوات تخفيف المخاطر المحتملة تقنية أو اجتماعية أو فنية أو يدوية. ومهما كانت هذه العناصر، يجب أن نبدأ في دمجها الآن.وفي حين أن تطوير أنظمة الذكاء الاصطناعي كان يقوده القطاع الخاص إلى حد كبير، فإن التأثيرات المحتملة لهذه القفزة التكنولوجية إلى الأمام واسعة النطاق، وسوف تمسنا جميعا.
وعلى الرغم من ذلك، فإن التنظيم المتعلق بالذكاء الاصطناعي لا يزال متخلفا. وبدلا من النوايا الخبيثة، فإن الفشل في تنظيم الذكاء الاصطناعي ينبع في الأساس من عدم التماثل في القدرات التكنولوجية والمعرفة بين قطاع التكنولوجيا وصناع السياسات.
إن مراعاة المخاطر المحتملة، بما في ذلك تلك التي يفرضها الذكاء الاصطناعي التوليدي في تطوير الذكاء الاصطناعي، أمر ضروري، ويجب أن يركز أي جهد على الحلول، مع وجود مسار واضح لتنفيذها الفني.
لا يقتصر أصحاب المصلحة المعنيون بالذكاء الاصطناعي المسؤول على أولئك الذين يعملون بشكل مباشر في الشركة، بل يشملون أيضًا أولئك المتأثرين بالعوامل الخارجية، مثل الجمهور ومجموعات المصالح ومهن معينة (الفنانين والكتاب) والأطفال. ويعتمد تحديد الأشخاص المتأثرين على المنتج نفسه، ولكن هناك فئات أقل فأقل من الأشخاص الذين لن تجد حياتهم تتغير بطريقة ما بسبب الذكاء الاصطناعي.
لماذا الذكاء الاصطناعي التوليدي؟
في الآونة الأخيرة، كان للجهود المبذولة في تطوير ونشر الذكاء الاصطناعي التوليدي بقيادة Chat GPT و DallE من شركة Open AI تأثيرات مدمرة في قطاع التكنولوجيا وخارجه.
أثبت الذكاء الاصطناعي التوليدي قدرته على إجراء تحليل التصوير الطبي والتنبؤات الجوية عالية الدقة وكتابة التعليمات البرمجية ويمكنه اجتياز الاختبارات الجامعية على مستوى الدراسات العليا. حتى أنه تم استخدامه للمساعدة في إنشاء أدوية جديدة وتحسين علاج التليف.
كما يمكن أن يكون للذكاء الاصطناعي التوليدي تأثيرات ضارة أيضًا. من خلال إنشاء التعليقات وتقديمها آليًا وعالي الوتيرة، يمكن مهاجمة الأنظمة الديمقراطية ويمكن إغراق وظائف التعليق العام بشكل مصطنع من خلال البريد العشوائي.ناهيك عن تأثير الذكاء الاصطناعي التوليدي على المناخ، والذي لم يحظ بعد باهتمام صناع السياسات ونشطاء المناخ، كما ينبغي لصناعة ذات بصمة كربونية عالية.
التخفيف من مخاطر الذكاء الاصطناعي
ولا يزال الذكاء الاصطناعي يتمتع بفوائد عديدة، مثل تنظيم البيانات الصحية وتشغيل السيارات ذاتية القيادة. ومع ذلك، للحصول على أقصى استفادة من هذه التكنولوجيا الواعدة، يرى البعض أن الكثير من التنظيم ضروري.
وقال هينتون لإذاعة NPR: "هناك خطر كبير يتمثل في أننا سنصبح [أنظمة الذكاء الاصطناعي] أكثر ذكاءً منا قريبًا إلى حد ما، وأن هذه الأشياء قد يكون لها دوافع سيئة وتسيطر على الأمور". "هذه ليست مجرد مشكلة خيال علمي. هذه مشكلة خطيرة من المحتمل أن تظهر قريبًا إلى حد ما، ويتعين على السياسيين أن يفكروا فيما يجب عليهم فعله حيال ذلك الآن.
تطوير اللوائح القانونية
لقد كان تنظيم الذكاء الاصطناعي محورا رئيسيا لعشرات البلدان، والآن تعمل الولايات المتحدة والاتحاد الأوروبي على وضع تدابير أكثر وضوحا لإدارة التطور المتزايد للذكاء الاصطناعي. في الواقع، نشر مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (OSTP) ميثاق حقوق الذكاء الاصطناعي في عام 2022، وهي وثيقة تحدد المساعدة في توجيه استخدام الذكاء الاصطناعي وتطويره بشكل مسؤول. بالإضافة إلى ذلك، أصدر الرئيس جو بايدن أمرًا تنفيذيًا في عام 2023 يطلب من الوكالات الفيدرالية تطوير قواعد ومبادئ توجيهية جديدة لسلامة وأمن الذكاء الاصطناعي.
على الرغم من أن اللوائح القانونية تعني إمكانية حظر بعض تقنيات الذكاء الاصطناعي في نهاية المطاف، إلا أنها لا تمنع المجتمعات من استكشاف هذا المجال.
وضع معايير ومناقشات الذكاء الاصطناعي التنظيمي
على مستوى الشركة، هناك العديد من الخطوات التي يمكن للشركات اتخاذها عند دمج الذكاء الاصطناعي في عملياتها. يمكن للمؤسسات تطوير عمليات لمراقبة الخوارزميات وتجميع البيانات عالية الجودة وشرح نتائج خوارزميات الذكاء الاصطناعي. ويمكن للقادة أيضًا جعل الذكاء الاصطناعي جزءًا من ثقافة الشركة ومناقشات الأعمال الروتينية، ووضع معايير لتحديد تقنيات الذكاء الاصطناعي المقبولة.
توجيه التكنولوجيا مع وجهات نظر العلوم الإنسانية
على الرغم من أنه عندما يتعلق الأمر بالمجتمع ككل، يجب أن يكون هناك دفعة أكبر للتكنولوجيا لاحتضان وجهات النظر المتنوعة للعلوم الإنسانية. يقدم باحثا الذكاء الاصطناعي بجامعة ستانفورد، Fei-Fei Li وJohn Etchmendy، هذه الحجة في منشور مدونة عام 2019 الذي يدعو إلى القيادة الوطنية والعالمية في تنظيم الذكاء الاصطناعي:
((يجب على مبدعي الذكاء الاصطناعي أن يبحثوا عن رؤى وتجارب واهتمامات الناس من مختلف الأعراق والأجناس والثقافات والمجموعات الاجتماعية والاقتصادية، بالإضافة إلى أولئك الذين ينتمون إلى مجالات أخرى، مثل الاقتصاد والقانون والطب والفلسفة والتاريخ وعلم الاجتماع والاتصالات. والتفاعل بين الإنسان والحاسوب وعلم النفس ودراسات العلوم والتكنولوجيا))
يعد تحقيق التوازن بين الابتكار في مجال التكنولوجيا الفائقة والتفكير الذي يتمحور حول الإنسان طريقة مثالية لإنتاج تكنولوجيا الذكاء الاصطناعي المسؤولة وضمان مستقبل الذكاء الاصطناعي الذي يظل مفعمًا بالأمل للجيل القادم. ينبغي أن تكون مخاطر الذكاء الاصطناعي دائما موضوعا للمناقشة، حتى يتمكن القادة من اكتشاف طرق لاستخدام التكنولوجيا لأغراض نبيلة
ملاحظة ستكون لنا عودة في مقل قريب قادم عن احتمالات تمرد الذكاء الاصطناعي على الانسان في وقت قريب.