q
الحكومات تعد حوكمة الذكاء الاصطناعي أمرا تافها، بل لأن القيام بذلك يتطلب فتح صناع القرار والشركات لصندوق باندورا للأسئلة. لنأخذ على سبيل المثال التأثير الاجتماعي للذكاء الاصطناعي، الذي يعد أكثر صعوبة في تحديد كميته- وفي التقليص منه، عند الضرورة- مقارنة مع تأثيره الاقتصادي. بطبيعة الحال...
أليسا أميكو

باريز — في كواليس الاجتماع الأخير لمنتدى الاقتصاد العالمي في دافوس، أعلن وزير سنغافورة للاتصال والمعلومات بنبرة هادئة، بدء أول إطار عمل وطني لحوكمة الذكاء الاصطناعي في العالم. ومع أن وسائل الإعلام العالمية تجاهلت هذا الإعلان، فإن أهميته تتجاوز حدود سنغافورة أو المدينة السويسرية الذي أصدر فيه. إنه نموذج ينبغي على باقي دول العالم أن يحتذي به- وأن ترتكز عليه.

وخلال السنوات القليلة الماضية، تسعى حكومة سنغافورة، عن طريق مبادرة سنغافورة للذكاء الاصطناعي بقيادة الدولة، إلى أن تصبح الرائدة في العالم في قطاع الذكاء الاصطناعي، بالإضافة إلى أنها تحقق تقدما متماسكا: جذبت سنغافورة -بالإضافة إلى شنغهاي ودبي- معظم استثمارات العالم في مجال الذكاء الاصطناعي. ووفقا لإحدى التقديرات الأخيرة، ينبغي أن تمكن استثمارات الذكاء الاصطناعي سنغافورة من مضاعفة حجم اقتصادها في غضون 13 عاما، بدل 22 عاما.

وبطبيعة الحال، تأثير الذكاء الاصطناعي يمتد نحو العالم. ووفقا لتقرير أخير لمكنزي، يمكن أن يضيف الذكاء الاصطناعي نسبة تصل إلى 16% من الناتج الوطني الإجمالي العالمي مع حلول عام 2030. ونظرا لهذه الإمكانية، تشتعل المنافسة حول الاستثمار والابتكار، وكما كان متوقعا، تحتل الولايات المتحدة الأمريكية والصين الصدارة. لكن، لحد الساعة، لم تسع أي حكومة أو هيئة خارج الولاية الوطنية إلى تطوير الميكانيزمات الضرورية لتعزيز إمكانيات الذكاء الاصطناعي وتدبير مخاطره.

والسبب وراء هذا ليس لأن الحكومات تعد حوكمة الذكاء الاصطناعي أمرا تافها، بل لأن القيام بذلك يتطلب فتح صناع القرار والشركات لصندوق باندورا للأسئلة. لنأخذ على سبيل المثال التأثير الاجتماعي للذكاء الاصطناعي، الذي يعد أكثر صعوبة في تحديد كميته- وفي التقليص منه، عند الضرورة- مقارنة مع تأثيره الاقتصادي. بطبيعة الحال، يمكن أن تدر تطبيقات الذكاء الاصطناعي في قطاعات مثل الصحة مكاسبا اجتماعية كبرى. إلا أن احتمال سوء استعمال البيانات التي جمعتها الحكومات والشركات والتحكم بها، من أجل تمكين هذه التطبيقات، تخلق مخاطرا أكبر بكثير من تلك المتعلقة بفضائح البيانات السرية التي حدثت في وقت سابق- وتلك المتعلقة بفضائح السمعة التي ترفض الحكومات والشركات أن تستوعبها.

وكما يقول تقرير آخر لِمَكنزي، "لن يعزز الذكاء الاصطناعي الرفاه الاجتماعي على وجه أساسي." سيتطلب النجاح "تدخلات بنيوية من صناع القرار والتزام قوي من المشاركين في مجال الصناعة." وبقدر ما ترغب الحكومات وصناع القرار بإلغاء هذه الخطوة، بقدر ما هو ضروري عدم الاستهانة بمخاطر هذا الإلغاء- بما في ذلك تلك التي تمس سمعتهم.

وفي الواقع، في وقت تواجه فيه العديد من البلدان أزمة الثقة في الحكومة والإيمان بها، يعد تعزيز الحوكمة المتعلقة بالذكاء الاصطناعي أمرا مهما على مستويات عدة، شأنه في ذلك شأن معالجة الإخفاقات في الحوكمات التجارية والسياسية. وفي النهاية، وكما قال المدير التنفيذي لغوغل في عام 2018، "الذكاء الاصطناعي هو أحد أهم الأشياء التي تشتغل عليها الإنسانية. إنه أكثر عمقا من، الكهرباء أو النار."

ويبدو أن اللجنة الأوروبية من القلة التي تدرك هذا الأمر، عندما أصدرت، في نهاية العام الماضي، "مسودة لدليل الأخلاق بالنسبة لذكاء اصطناعي جذير بالثقة." وبينما يركز دليل سنغافورة على بناء ثقة المستهلك وضمان الامتثال لمعايير معالجة البيانات، يطمح النموذج الأوروبي إلى إعطاء شكل لعملية خلق ذكاء اصطناعي، يركز على الإنسان ولديه هدف أخلاقي.

إلا أنه لم يفسر إطار عمل حوكمة الذكاء الاصطناعي لسنغافورة ولا دليل الاتحاد الأوروبي التمهيدي إحدى أهم الأسئلة المتعلقة بالحوكمة: أين تتجلى ملكية قطاع الذكاء الاصطناعي، والمسؤولية اتجاهه واتجاه التكنولوجيات المتعلقة به؟ ويثير هذا السؤال قضية أساسية وهي المسؤولية اتجاه الذكاء الاصطناعي، وما إذا كانت تحقق تقدما اجتماعيا كبيرا، أو ما إذا كانت تقدم نظاما متعلقا بفرانز كافكا للاستيلاء على البيانات والتحكم فيها.

ويعد دليل الاتحاد الأوروبي أنه "سَيضع ميكانيزما يمكن جميع حاملي الأسهم من المصادقة على الدليل والتوقيع عليه رسميا بمحض إرادتهم." ولا يعالج أطار عمل سنغافورة، الذي يبقى طوعيا أيضا، القضية نهائيا، مع أن التوصيات تستهدف بوضوح القطاع التجاري.

وإذا أردنا أن ينتج الذكاء الاصطناعي تقدما اجتماعيا، سيكون من الضروري أن يتقاسم القطاع العام والخاص مسؤولية حكامته. ومن أجل هذا، ينبغي على الشركات التي تطور تطبيقات الذكاء الاصطناعي وتستثمر فيها، أن تبني علاقات قوية مع مستعمليها النهائيين، وينبغي على الشركات أن توضح إلى أي مدى تلتزم بحماية المواطنين من التكنولوجيا التي قد تسبب أضرارا لهم. وبالفعل، يعكس نظام المسؤولية المشتركة لنظام الذكاء الاصطناعي الموقف اتجاه نموذج "رأسمالية أصحاب المصلحة" الشامل والذي يناقش الآن.

ليست المقارنة بين القطاع الخاص والقطاع العام هي المسألة المقلقة الوحيدة التي يجب معالجتها. وكما قال فرانسيس فوكوياما ذات مرة، " كلما تطورت التكنولوجيا الحديثة، أعطت قواما متماسكا للاقتصادات القومية، وجعلتها متداخلة في اقتصاد عالمي واسع." وفي وقت تتدفق فيه البيانات عبر الحدود دوت قيود، قد تكون قوة السياسات القومية في تدبير الذكاء الاصطناعي محدودة.

وكما أظهرت حوكمة الأنترنيت، سيكون خلق وحدة تتجاوز حدود الولايات الوطنية من أجل التحكم في الذكاء الاصطناعي أمرا صعبا، وذلك راجع إلى الحتميات السياسية المتضاربة. إذ في عام 1998، أسست شركة الانترنيت لأرقام والأسماء الممنوحة (آيكان) في الولايات المتحدة الأمريكية من أجل حماية الأنترنيت لكونه منفعة عامة، عن طريق ضمان استقرار تشغيل خدمة شبكة الانترنيت وأمنه بواسطة حفظ البيانات. ومع ذلك، لا زال يواجه حوالي نصف مستعملي الأنترنيت في العالم رقابة على الأنترنيت. وستزيد مخاطر الذكاء الاصطناعي الكبيرة من صعوبة تأسيس وحدة خارج الولاية الوطنية، لأنه سينبغي على القادة معالجة قضايا سياسية مماثلة- وأخرى شائكة أكثر من غيرها.

وقال مؤخرا مازايوتشي سان، المدير التنفيذي للشركة اليابانية المتعددة الجنسيات سوفا بانك، والمستثمر المتحمس في الذكاء الاصطناعي، أن شركته تسعى إلى "تطوير روبوتات حنونة تستطيع أن ترسم ابتسامة على محيى الناس". ولبلوغ هذا الهدف، ينبغي على الحكومات والقطاع الخاص تصور نماذج متعاونة متينة للتحكم في الذكاء الاصطناعي الخطير في يومنا هذا. وستحدد ثمار هذه المجهودات ما إذا كان البشر سينتصر في خلق تكنولوجيا الذكاء الاصطناعي الذي سيجلب مكاسبا لنا دون تدميرنا.

* أليسا أميكو، العضو المنتدب لشركة حكم، المركز الاقتصادي وحوكمة الشركات
https://www.project-syndicate.org

...........................
* الآراء الواردة لا تعبر بالضرورة عن رأي شبكة النبأ المعلوماتية

اضف تعليق