الذكاء الإصطناعي من الحوكمة إلى جودة الحياة 

التحضير لمستقبل الذكاء الاصطناعي يحتوي على تفاصيل عدة، ويواجهنا بمجموعة من التساؤلات، منها كيف يمكن استخدام التكنولوجيا لتعزيز الخير الاجتماعي وتحسين العمليات الحكومية؛ وما هو السبيل لتكييف اللوائح التي تؤثر على تقنيات الذكاء الاصطناعي، بطريقة تشجع الابتكار مع حماية الجمهور؛ وكيفية ضمان أن تكون تطبيقات الذكاء الاصطناعي عادلة وآمنة ومحكومة؛ وكيفية تطوير القوى العاملة الماهرة والمتنقلة وماهو دور الجامعات، ومؤشر السعادة وتحقيق جودة الحياة ؟

هذه التساؤلات تؤكد أن التكنولوجيا لن تتمكن من تحقيق أقصى إمكاناتها، وتساعد على تحسين حياة الإنسان، ومواجهة التحديات العالمية، إلا إذا تم حوكمتها، وهو ما سوف يسخرها بالشكل الأمثل في سبيل خدمة الإنسان، وعلى الرغم من أن التقنيات الجديدة تعد بمستقبل أفضل، فإن من الواضح أن علينا العمل أكثر لنساعد هذه التقنيات على تحقيق أقصى إمكاناتها، وهذا لا يعني إدارة المخاطر المرتبطة بها فقط، وإنما وضع الخطط التنظيمية اللازمة التي تمكن الأسواق والأفراد من تحقيق الاستفادة القصوى من هذه الفرص.

في كواليس الاجتماع الأخير لمنتدى الاقتصاد العالمي في دافوس، أعلن وزير سنغافورة للاتصال والمعلومات بنبرة هادئة، بدء أول إطار عمل وطني لحوكمة الذكاء الاصطناعي في العالم. ومع أن وسائل الإعلام العالمية تجاهلت هذا الإعلان، فإن أهميته تتجاوز حدود سنغافورة أو المدينة السويسرية التي أصدر فيها، إنه نموذج ينبغي على باقي دول العالم أن تحتذي به وأن ترتكز عليه، جذبت سنغافورة بالإضافة إلى شنغهاي ودبي معظم استثمارات العالم في مجال الذكاء الاصطناعي، ووفقاً لأحد التقديرات الأخيرة، ينبغي أن تمكن استثمارات الذكاء الاصطناعي سنغافورة من مضاعفة حجم اقتصادها في 13 عاماً  بدلاً من  22 عاماً ! كما أن دبي خطت خطوات مهمة في هذا المحال.

وبطبيعة الحال، تأثير الذكاء الاصطناعي يمتد نحو العالم، ويمكن أن يضيف الذكاء الاصطناعي نسبة تصل إلى 16% من الناتج الوطني الإجمالي العالمي مع حلول عام 2030 ونظراً لهذه الإمكانية، تشتعل المنافسة حول الاستثمار والابتكار، فبمجرد تساوي الآلات مع البشر سيصبح من السهل على الآلات برمجة بعضها وتبادل ذكائها وخبراتها المكتسبة فيها بينهم، في حين يتضاعف الاقتصاد في زماننا هذا كل 15 سنة سنجد أنه بعد الوصول لنقطة التفرّد سيتضاعف الاقتصاد كل شهر او حتى كل أسبوع وبالطبع سيصبح من الصعب على البشر مجاراة وتيرة نمو بهذه السرعة.

إن الإنسان لا يستطيع أن يعيش دون هواء أو ماء أو طعام بالطبع، ولكن هذه الحالة لا محلّ لها من الإعراب عند الآلات التي لا تخشى بطبيعة الحال تدمير البيئة واستنزاف كافة مواردها لتحول مشاكل البيئة في عصرنا هذا إلى مجرد تفاهات، وبالطبع لا أتوقع أن أن يتبقى في ذلك الوقت جمعيات تنادي بحماية البيئة!

بدأ اعتماد البشر على التكنولوجيا عموماً والروبوتات بشكل خاص بشكل تدريجي، فنلاحظ اليوم قيام مصانع بالكامل على سواعد الروبوتات المعدنية ونلاحظ اندماجها في الكثير من المجالات والصناعات، حتى السيارات أصبحت آلية بشكل كامل، وأصبحنا نرى عمليات جراحية تجريها روبوتات بالكامل، وغيرها الكثير من الأمثلة التي تؤكد أنه لا مكان للبشر بين الآلات الذكية في المستقبل خاصّة حين نعلم أن Kurzweil توقع أن تكون هذه الآلات أذكى بمليار مرة من البشر غير المعدّلين بحلول عام 2045.! 

بمجرد أن تتولى الآلات كافة المهام وتعم البطالة والكسل العالم، سيبدأ البشر في فقدان قدراتهم العقلية وأكثر ما يميزهم عن الآلات وهي الحكمة! كما نلاحظ اليوم بالفعل فقد بدأنا في التخليّ عن قدرات عقلية عديدة مثل الحفظ والحساب تاركين هذه المهمة للآلات، ومع ظهور روبوتات عديدة تستطيع محاكاة مشاعر الإنسان والاستجابة لها يمكننا أن نتصور أيضاً أن تختفي هذه المشاعر لدى البشر تدريجياً لاعتمادنا على الآلات في مواساة بعضنا وإبداء الاهتمام بالآخرين، وبالتالي يمكننا القول إن البشر في النهاية سيتحولون إلى مصدر طاقة وتشغيل للآلات ليس أكثر!

أعلم أن البعض قد يرى هذا التصور للمستقبل مظلماً بعض الشيء، ولكن دعوني أخبركم إن الأمر ليس كذلك فهذه كلها توقعات تعتمد في الأصل على مشاهدات حالية وسابقة، بالإضافة إلى نظريات وتوقعات وضعها العلماء، ولكنني متأكد أن هذه التوقعات قد لا تكون مستبعدة في حال فقد الإنسان سيطرته على ما حوله وبالأخص نفسه!

والحل البسيط لهذه المسألة هو أن نجعل الروبوتات تعمل لصالحنا، فتلك التطورات كشفت أن “آليات الحوكمة” الحالية لا تكفي لمواجهة المخاطر، لذلك فالهياكل الجديدة لا بد أن تكون قابلة للتكيّف وسريعة لتواكب سرعة الابتكار،.

وهناك ما ينبغي التوعية بشأنه ويرتبط بحوكمة الذكاء الاصطناعي والقضايا المرتبطة بها وأولها “البطالة” التي ستورثها طفرة الذكاء الاصطناعي، فالسيارات ذاتية القيادة على سبيل المثال يمكن أن تضع الملايين من سائقي السيارات والشاحنات خارج العمل، ولكن يمكن أن تقلل من مخاطر حوادث السيارات. ويمكن أن تعني الأتمتة أيضاً أن الناس قادرون على العمل لساعات أقل حتى يكون لديهم المزيد من الوقت لقضائه مع أسرهم والتعامل مع مجتمعاتهم المحلية، وقد تؤدي إلى «إعادة الانتشار الجماعي» بالطريقة نفسها التي تؤدي بها الثورة الصناعية إلى التحول من الحياة الزراعية إلى المدن.

ومع ذلك، من المرجح أن يؤدي التشغيل الآلي دوراً جديداً للعمال ذوي المهارات العالية وليس العمال ذوي المهارات المنخفضة، تطبيقات الذكاء الاصطناعي فهي عدم المساواة وكيفية توزيع الثروة الناتجة عن الآلات، فمع الأتمتة، سيكون هناك حاجة أقل للقوى العاملة البشرية التقليدية، ومع تراجع أعداد العاملين سوف تذهب الإيرادات إلى عدد قليل من الناس، لذلك يجب التفكير في كيف يمكننا ضمان فوائد تعم الجميع؟

وتعد مسألة “التفرد” مسألة هامة أيضاً، في نقطة محورية من الزمن بفضل تطور الذكاء الاصطناعي. بحلول 2029، من المتوقع أن نصل إلى لحظة التفرُّد، Singularity، وهي اللحظة التي يتخطى فيها الذكاء الاصطناعي الذكاء البشري، ويستطيع التصرف حسب أهوائه. وبحلول 2049، يُفترض أن يكون أذكى منا بمليار ضعف.

وسيكتمل بناء نيوم بين 2050 و2075، مما يعني أنَّ المدينة ستعمل بتكنولوجيا ما بعد التفرُّد. وقد يؤدي هذا إلى الحياة المثالية التي تعد بها دعاية المدينة: ماكينات تخمن احتياجاتنا قبل أن نعرفها نحن، فنَنعَم بصحة أفضل وسعادة أكبر، أو قد يؤدي إلى مدينة خالية من الحياة البشرية. في العام الماضي، حذَّر ستيفن هوكينغ في تصريحٍ شهير من أن يحل الذكاء الاصطناعي محل السلالة البشرية. فماذا يمنعه من تطبيق ذلك بالحرف؟ يؤمن جودت أنَّ الجواب يكمن في السعادة البشرية.

على مدار القرن الماضي، فضَّلنا النجاح عن السعادة، وطوَّرنا التكنولوجيا لكي تخدم هذه القيمة. ومع أنها قد حسَّنت من كفاءة الحياة وجودتها، فقد ارتفع معدل الاكتئاب في العالم ارتفاعاً صاروخياً ، بنسبة 18% منذ 2005، وأصبح أوسع أمراض العالم انتشاراً. إذن لإجبار التكنولوجيا على إعطاء الأولوية إلى سعادتنا، كما تقترح نيوم، يجب أولاً أن نعطي السعادة الأولوية في حياتنا نحن. في عصر الذكاء الاصطناعي، ربما لن يكون هذا مستقبل المعيشة فقط، بل مستقبل البقاء.

أيضاً هناك جانب “الإنسانية” وكيف تؤثر الآلات على سلوكنا؟ وما ينتج من التفاعل معها. فتفاعل أطفالنا مع آلات شبيهة بالإنسان قد يؤثر تأثيراً بالغاً على تنميتهم، وأيضاً  “الغباء الاصطناعي” وكيف يمكننا الاحتراس من الأخطاء، فمن الأهمية بمكان التأكد من أن الآلات تعمل على النحو المطلوب ولا يمكن التلاعب بها من أجل مكاسب شخصية. وهناك مشكلة “الروبوتات العنصرية”، إذ يجب الانتباه إلى كيفية إنشاء أنظمة الذكاء الاصطناعي من قبل البشر غير المتحيزين، لأن من المهم تجنب الخوارزميات التي تتصرف بطرق ضارة مثل التنميط العنصري عند التنبؤ بالمجرمين في المستقبل.

وأيضاً فإن مسألة “الأمن وكيف نحافظ على بقاء الخوارزميات بأمان من الخصوم” مسألة بالغة الأهمية، فقد تتصاعد حروب الأمن السيبراني بشدة في حال حصل أشخاص لهم نوايا خبيثة على خوارزميات الذكاء الاصطناعي. وهناك مسألة “الشر في تطبيقات الذكاء الاصطناعي” وكيفية توقي العواقب غير المقصودة. قد يتعلم الروبوت جيداً في تعاطيه مع البيانات المدخلة له، لكن المخرجات والأحكام الصادرة عن هذه التطبيقات يجب أن تحقن بالحكم البشري التي تعود عليها. وهناك مسألة “حقوق الروبوت وكيف نحدد معاملة إنسانية مناسبة للروبوتات بشكل قانوني”، خصوصاً عندما تصبح الآلات قادرة على الإدراك، والعمل، بالطريقة نفسها التي تضمن للحيوانات حقوقها.

حقيقة هناك أدوار ستلعبها الجامعات ومراكز الأبحاث بخصوص أخلاقيات وحوكمة تطبيقات الذكاء الاصطناعي فالدور الأول للجامعات عليها أن توفر موارد مفتوحة للبحث والتطوير ونشر نظم الذكاء الاصطناعي، وخاصة تطبيقات وتقنيات الذكاء الاصطناعي من أجل المصلحة العامة والصالح الاجتماعي. ومن المعروف على نطاق واسع أن نظم الذكاء الاصطناعي تتطلب بنية تحتية وموارد بيانات هامة. وبينما يبدو أننا في عصر ذهبي لأبحاث الذكاء الاصطناعي، إلا أن مسار تبادل المعرفة والتعاون على نطاق واسع مسار غير مؤكد، نتيجة للمصالح التجارية الهائلة وراء تطوير هذه التقنيات، فضلاً عن زيادة المصالح الجيوسياسية، لذلك يمكننا القول إن أحد أهم أدوار الجامعات يجب أن يكون ضمان الوصول عبر الوقت إلى موارد المنظمات العاملة في تطبيقات الذكاء الاصطناعي وبنيتها التحتية، وفي الواقع تنويع وتوسيع فرص الحصول على هذه الموارد سواء كانت موهبة أو تعليماً أو موارد حاسوبية أو قوة حاسوبية أو ما إذا كانت هي مجموعات البيانات التي تلعب دوراً استراتيجياً في التعلم الآلي.

أما الدور الثاني للجامعات فيكمن في أخلاقيات وحوكمة سياق الذكاء الاصطناعي الذي يمضي قدماً حول وظائف الوصول والمساءلة، ويمكن للجامعات أن تلعب دوراً رئيسياً كمؤسسات مستقلة وموجهة نحو المصلحة العامة إذ يمكنها إجراء البحوث وتطوير وسيلة لقياس دقة نظم الذكاء الاصطناعي وتقييمها. وستكون نظم المنظمات العاملة في هذا المجال ونظم صنع القرار بكل تأكيد بمثابة “صناديق سوداء”. فالمستخدمون لا يفهمون تماماً ما يحدث وراء الكواليس.. وفي بعض الحالات، قد لا يعرف حتى صناع أنظمة الذكاء الاصطناعي ما ستفعله هذه الأنظمة، فأحياناً برمجيات ومكونات أنظمة الذكاء الاصطناعي تبدو قاب قوسين أو أدنى من خلق نفسها. وتشمل الأدوات التي تحتاج إلى تطوير منهجيات ومقاييس ومعايير جديدة، مقترنة بآليات مراجعة موثوقة تسمح لنا ليس فقط بتقييم هذه الصناديق السوداء داخل الخوارزميات، ولكن أيضاً التعرف على آثار عمليات مثل كيف ننظم مجموعات البيانات وما شابه ذلك.

أما الدور الثالث للجامعات أن تلعب دوراً في تصميم النظم والآليات التصحيحية التي يمكن أن تستجيب للأحكام الخوارزمية السلبية التي هي نتيجة لأنظمة صنع القرار، ولا تتماشى مع قيم مجتمعنا. فالدور الناشئ للجامعات كبير وذو قيمة ويمكنه أن يلعب وظيفة اجتماعية حيوية من غير المرجح أن تلعبها الشركات نفسها، بل وحتى الإدارات الحكومية. وبفضل دورها المحتمل كونها مستشاراً موثوقاً به، فإن الجامعات أيضاً في وضع جيد يمكنها من أداء وظيفة تقييم الأثر، حيث ستصبح شريكاً أساسياً في البحث وتطوير منهجيات تحليل الأثر الاجتماعي والاقتصادي لمؤسسات الدولة العاملة في أنظمة الذكاء الاصطناعي، وهذا هو التحدي المنهجي فنحن ندرس التكنولوجيا الرقمية لسنوات عديدة، ومن الصعب تطوير منهجيات قوية وخاصة عندما يتعلق الأمر بالتقنيات ذات النطاق الواسع في تطبيقاتها ويعد جزءاً لا يتجزأ من جوانب متعددة من الحياة والمجتمع. 

كما وتشكل تقنيات الذكاء الاصطناعي تحدياً أكبر، حيث إن العديد من العمليات الأساسية غير مرئية إلى حد كبير للجميع عدا الشركة التي صنعت ذلك. فكيف يمكنك قياس تأثير خوارزمية تحديد الأخبار في مواقع التواصل الاجتماعي عندما تكون الآلية الفعلية وراء التصفية غير شفافة؟ وهنا يجب التأكيد أنه يمكن للجامعات والباحثين، وخاصة في هذه البيئة، أن يلعبوا دوراً هاماً جداً في وضع منهجيات وتحديد العوامل المناسبة لاستعراض الأثر والقياس، هذا الدور هو الأكثر أهمية. والجامعات لها دور رئيسي في توفير قاعدة الأدلة اللازمة لصنع السياسات، وهو أمر بالغ الأهمية على المدى الطويل. كيف نضمن أن نفهم ما تقوم به هذه التقنيات للمجتمع مع مرور الوقت؟ هذا السؤال مهم بشكل خاص ويدور الآن في العالم بأسره.

أما الدور الرابع فعلى الجامعات أن تركز على المشاركة والاندماج، حيث يمكنها توجيه دعوة لجمع مختلف أصحاب المصلحة في النظام الإيكولوجي للمؤسسات الفاعلة والنشطة في تطبيقات الذكاء الاصطناعي التي قد لا تكون على استعداد للمشاركة في الحوار. وأحد الدروس المستفادة من سنوات عديدة من العمل على القضايا الرقمية هو أن اللاعبين في الصناعة لا يجتمعون لأسباب واضحة؛ فهم في تنافس قوي في ما بينهم. وعلاوة على ذلك، فإنهم لم يكونوا تاريخياً مع المجتمع المدني بطريقة منظمة، ولا يمكن المبالغة في التحدي المتمثل في إشراك أصوات غير مسموعة ومجتمعات ممثلة تمثيلاً ناقصاً في هذه المحادثات، فالجامعات لديها القدرة على مساعدة سد ثغرات المشاركة من خلال دعوة وجهات النظر التي ليست بالفعل جزءاً من المحادثة التي تحدث اليوم. إحدى المبادرات التي تمت مناقشتها هي إنشاء مختبر للإدماج، يستكشف السبل التي يمكن بها تصميم نظم الذكاء الاصطناعي ونشرها لدعم الجهود الرامية إلى إيجاد مجتمع أكثر تنوعاً وشمولاً من الناحية الرقمية.

وأخيراً فإن الدور الأخير للجامعات يمكن القول إنها يجب أن تلعب في المشهد دور المترجم، فالجامعات لديها التزام لسد فجوة التماثل والفجوة المعرفية، بترجمة ميكانيكا أنظمة وتطبيقات الذكاء الاصطناعي، لوصف آثارها والفرص والمخاطر، وجعل هذه المعرفة متاحة على نطاق واسع للأشخاص العاديين الذين، بذكاء أو عن غير قصد، يتعرضون لهذه التقنيات. وهذا العمل المترجم هو أمر عاجل. تتطلب هذه الحافظة من الأدوار المحتملة للجامعات، والتي تجسد الفرص والمسؤوليات في هذا المجال، عدداً من أساليب العرض التي تلعب دوراً في هذه الأدوار الخمسة وعبرها من حيث العقلية والتوجه.

ومن أجل الاستجابة لمطالب التطور السريع في تقنيات الذكاء الاصطناعي، يجب على الجامعات أن تكسر الصوامع داخل الأوساط الأكاديمية وعبر التخصصات، لتعزيز قابلية التشغيل البيني. ومن الجدير بالذكر أنه لا يزال هناك فصل قوي بين المهندسين وعلماء الكمبيوتر الذين يطورون تقنيات الذكاء الاصطناعي والتقنيات والتطبيقات من جهة، والعلوم الإنسانية، وعلماء الاجتماع، والمحامين، والباحثين في مجال الحكم، والأخلاقيين من جهة أخرى. إن إطلاق صندوق الأخلاقيات وحوكمة الذكاء الاصطناعي مؤخراً هو من أجل صالح المجتمع والخير الأكبر.

جميع الإجراءات التي اتخذتها الجامعات في التصدي للتحديات الكبرى لها عقليتان محددتان ملازمتان للطبيعة الأكاديمية: الخيال والتجريب. والسؤال: كيف يمكننا ضمان استخدام التكنولوجيا كوسيلة لحل أكبر المشاكل الإنسانية؟ كيف يمكن تصميم هذه الأنظمة بطريقة تكرم القيم الإنسانية وتجسدها؟ لذلك نحن بحاجة إلى الخيال.

ويبدو أن اللجنة الأوروبية من القلة التي تدرك هذا الأمر، عندما أصدرت، «مسودة لدليل الأخلاق بالنسبة لذكاء اصطناعي جدير بالثقة». وبينما يركز دليل سنغافورة على بناء ثقة المستهلك وضمان الامتثال لمعايير معالجة البيانات، يطمح النموذج الأوروبي إلى إعطاء شكل لعملية خلق ذكاء اصطناعي، يركز على الإنسان ولديه هدف أخلاقي.

إلا أنه لم يفسر إطار عمل حوكمة الذكاء الاصطناعي لسنغافورة ولا دليل الاتحاد الأوروبي التمهيدي إحدى أهم الأسئلة المتعلقة بالحوكمة: أين تتجلى ملكية قطاع الذكاء الاصطناعي، والمسؤولية اتجاهه واتجاه التكنولوجيات المتعلقة به؟ ويثير هذا السؤال قضية أساسية وهي المسؤولية تجاه الذكاء الاصطناعي، وما إذا كانت تحقق تقدماً اجتماعياً كبيراً، أو ما إذا كانت تقدم نظاماً متعلقاً بفرانز كافكا للاستيلاء على البيانات والتحكم فيها.

وإذا أردنا أن ينتج الذكاء الاصطناعي تقدماً اجتماعياً، سيكون من الضروري أن يتقاسم القطاع العام والخاص مسؤولية حوكمته. ومن أجل هذا، ينبغي على الشركات التي تطور تطبيقات الذكاء الاصطناعي وتستثمر فيها، أن تبني علاقات قوية مع مستعمليها النهائيين، وينبغي على الشركات أن توضح إلى أي مدى تلتزم بحماية المواطنين من التكنولوجيا التي قد تسبب أضراراً لهم، ليست المقارنة بين القطاع الخاص والقطاع العام هي المسألة المقلقة الوحيدة التي يجب معالجتها. وكما قال فرانسيس فوكوياما ذات مرة، «كلما تطورت التكنولوجيا الحديثة، أعطت قواماً متماسكاً للاقتصادات القومية، وجعلتها متداخلة في اقتصاد عالمي واسع». 

أخيراً يمكن التأكيد على أن الاستراتيجية الأكثر فعالية على المدى القصير لضمان بقاء الذكاء الاصطناعي مفيداً وحميداً مع التقدم بالمجال، قد تكون هي الاستمرار في دعم المنظمات المعنية بأمان الذكاء الاصطناعي، وكذلك تهيئة صناديق تمويل حكومية لبحوث الأمان بمجال الذكاء الاصطناعي، من أجل تعزيز المجتمع البحثي بمجال سلامة الذكاء الاصطناعي على المستوى الأكاديمي والصناعي على السواء، وصولاً إلى حلول فنية تتوفر وقت الاحتياج إليها، وأيضاً إلى مجموعات من الفنيين المهرة المختصين بأمان الذكاء الاصطناعي تستخدمهم الحكومات وقت الحاجة إليهم. وللحديث بقية.

وفي النهاية، وكما قال المدير التنفيذي لغوغل في عام 2018، «الذكاء الاصطناعي هو أحد أهم الأشياء التي تشتغل عليها الإنسانية. إنه أكثر عمقاً من الكهرباء أو النار».

 

%d bloggers like this: