مقالات

حوكمة الذكاء الاصطناعي

سن التشريعات والقوانين لضمان تبني أخلاقي وآمن للتقنية

في عام ١٧٧٠ صنع شخص مجري آلة تلعب الشطرنج بمستوى عالي من الذكاء. الآلة عبارة عن تمثال مكتسي بلباس من الطراز العثماني ويجلس أمام صندوق يحوي تروس وأجزاء ميكانيكية مترابطة تتحكم بالتمثال لتحريك قطع الشطرنج. أُطلق عليه اسم “الترك” ثم بدأ يتحدى فيه الناس وبسرعة اكتسب شهرة كبيرة وجال أوروبا وأمريكا وكان من أشهر منافسيه الجنرال الفرنسي نابليون بونابارت والمخترع الأمريكي بينجمن فرانكلن وعالم الرياضيات البريطاني شارلز بابج. كان “الترك” مثيراً للدهشة والابهار حيث يُحكى أن نابليون قام بحركة غير قانونية ليختبر ردة فعل الجهاز، لينصدم برؤية يد “الترك” تمر فوق الرقعة مسقطة القطع اعتراضاً على غش الجنرال! كما ألهمت قدرات “الترك” الذهنية شارلز بابج ليبتكر اول حاسب ميكانيكي عرفه الإنسان. بقي مفهوم عمل هذه الآلة سراً لمدة 80 سنه حتى اكتشف أنها خدعة من صنع “ساحر” خدع بها أعين الناس، فالقطع الميكانيكية كانت مجرد تمويه ولكن في الواقع من يتحداك هو شخص (قصير القامة أو مبتور الساقين) يتحرك داخل الصندوق ليتخفى عن الحضور في فقرة الكشف الأولى. الجدير بالذكر أن شركة أمازون استوحت اسم تقنيتها (The Mechanical Turk) القائمة على جهود بشرية لتقديم خدماتها من هذه القصة.

رسم توضيحي ل”الترك”

استمر حلم تغلب الآلة على الانسان في لعبة الشطرنج يراود البشرية حتى تمكنت شركة IBM من تحقيقه عام ١٩٩٧ بعد فوز Deep Blue (حاسب آلي مصمم خصيصاً للعب الشطرنج) على بطل العالم قاري كاسپاروڤ. وعندما سُئل كاسپاروڤ عن سبب هزيمته قال “أعتقد أنها بفضل يد الله!” مقتبساً العبارة الشهيرة للاعب كرة القدم الارجنتيني دييقو مارادونا الذي قالها بعد أن أحرز هدفاً بيده على منتخب انجلترا في نهائيات كأس العالم عام 1986. كان كاسپاروڤ يشير إلى وجود أيدي خفيه تدخلت في الوقت المناسب لإنقاذ Deep Blue. إضافةً إلى اشتباهه بأحد الجولات، فالمباراة تمت في مقر الشركة وكانت هي الجهة المنظمة والمستضيفة للحدث ولاسيما ان أسهم الشركة ايضاً كانت على المحك لخسارة مئات الملايين من الدولارات، فكانت لديها الدوافع والامكانيات لكسب هذا التحدي.

قاري كاسپاروڤ يواجه Deep Blue

محاولات البشر في صنع ذكاء اصطناعي أو تزييفه أو حتى خلق القصص حوله متعددة وتعود لمئات السنين. اليوم سهلت التقنية التزييف وصعبت من اكتشافه، فجهاز “الترك” مثلاً تمكن من خداع الكثير لأن خلفه شخص متمرس في الخدع البصرية والتمويه، لكن كشف الخداع في نظام مثل Deep Blue أكثر تعقيداً لأنه مدفون بين الأسطر البرمجية ومحمي بقوانين الملكية الفكرية. بعد حالات كثيرة مشابهة، تعالت اصوات المستخدمين لوضع مبادئ تحكم استخدام الذكاء الاصطناعي بشكل نزيه، منها:

مبدأ الشفافية

الغش في الشطرنج هي أقل المخاوف، لكن مع تنامي تبني الذكاء الاصطناعي في شتى المجالات والاعتماد عليه في اتخاذ القرارات الخطر الأكبر لو استخدم في قرارات تمس حقوق أو حياة الانسان. على سبيل المثال، لو تبنت احدى الجامعات نظام قبول ذكي يفاضل بين المتقدمين، كيف يتأكد المتقدم من عدم وجود “عنصرية” أو “تمييز جنسي” او حتى “واسطة” مدفونة بداخل النظام. الأسوأ من ذلك أن كونه نظام آلي سيعطي الجامعة سبباً يحتجون به ويحتمون خلفه. فمثلما تذرع الكثير بعبارة “النظام عطلان، نعتذر عن خدمتك” سيتطور الأمر إلى “النظام يرفض طلبك، نعتذر عن تقديم الخدمة لك”! والواقع للأسف ليس بالبعيد، فكم منا خضع للتفتيش المشدد في المطارات بحجة أن النظام قام بتحديده، ليفاجئ بعدها أن غالبية المشتبه بهم هم من العرب! ستتفاقم الخطورة مع استخدام الذكاء الاصطناعي، فمثلاً طورت شركة إسرائيلية برنامج يدعى Faception تزعم أنه يستطيع كشف الإرهابيين المحتملين من ملامح وجوههم، بدون الدخول في التفاصيل التقنية، سوقت الشركة لمنتجها مستخدمة إحصائيات مضللة لتسوغ عنصريتها واستطاعت أن تبرم اتفاقية مع وزرة الأمن الداخلي للولايات المتحدة الأمريكية. بالاضافة الى تعقيد مثل هذه الانظمة، فقد تكون أيضاً محمية بقوانين الملكية الفكرية مما يجعل فحصها أكثر صعوبة. وحتى إن افترضنا حسن النية في جزئية البرمجة، قد يكون سبب الانحياز ناتج من البيانات التي تعلم منها البرنامج.
برنامج Faception للتعرف على الارهابيين المحتملين

مبدأ الانحياز

الانحياز صفة بشرية، ولأن الذكاء الاصطناعي يحاكي الذكاء البشري عن طريق التعلم من البيانات المدخلة له فسيرث منه عيوبه كذلك. فاذا احتوت البيانات على عنصرية أو طبقية أو تمييز جنسي، ستكرس الأنظمة هذه الأفكار وتعزز منها. مثال للتوضيح، ابحث في محرك بحث Google للصور عن كلمة “لاعب”. ستلاحظ أن أغلب الصور للاعبين كرة القدم (أو الصورة النمطية) وعدد قليل من لاعبين الرياضات الاخرى وقد لا يظهر لاعب شطرنج واحد. ذلك لأن النظام تعلم من البيانات أن كلمة “لاعب” غالباً مرتبطة بلعبة كرة القدم. قد لا يشكل هذا أي خطر كبير على المجتمع، لكن لو طبقت في نظام القبول الجامعي قد يرفض طلب التحاق الفقراء بسبب ان البيانات تظهر ارتباط بين مستوى الدخل واحتمال اتمام الدراسة معززةً بذلك للطبقية باسم الحياد والنظام. حتى ان أخفينا معلومات الدخل، قد يستنبطها البرنامج من الحي السكني أو اسم المدرسة التي تخرج منها. فمهما اتخذنا من احترازات سيضل احتمال الخطأ وارد، وفي حالة وقوعه، فمن المسؤول؟ مثلاً لو وقع حادث بسبب سيارة ذاتية القيادة، من المحاسب؟ هل الشركة المصنعة؟ أم صاحب المركبة؟ أم مطور البرنامج؟ أم جامع البيانات؟ أم مدخلها؟ وماذا لو كان الخطأ مفتعل عن طريق اختراق؟

مبدأ المسؤولية

البرامج التقليدية تنفذ القرارات المعطاة لها، بينما برامج الذكاء الاصطناعي تتخذ القرارات بنفسها. فإذا كانت صلاحية اتخاذ القرارات تأتي بمسؤوليات، فمن المسؤول عندما انتقلت الصلاحية من المبرمج إلى البرنامج؟ حتى الآن لازالت المسؤولية تقع على عاتق المستخدم الذي خول البرنامج باتخاذ القرار نيابة عنه. لهذا السبب تحذر دائماً الشركات المستخدم قبل تفعيل بعض التقنيات الذكية لإخلاء مسؤوليتها (مثل الاصطفاف الآلي في السيارات). ومن المحتمل تغير هذا الإجراء قريباً وتبادر الشركات بالعمل بقوانين الضمان التجاري ليعامل معاملة عطل في المنتج. فالتوجه الآن نحو تحميل المسؤولية على عاتق الشركات المصنعة في المستقبل والمتوقع حدوثه بشكل طبيعي دون تدخل حكومي لتخوف هذه الشركات من نفور المستخدمين من اضافة تلك التقنيات غير المضمونة ودفع مبالغ اضافية عليها. حتى ان افترضنا “استحالة” خطأ النظام، فمجرد وجود وحدة تحكم الكترونية سيجعلها عرضه للاختراق وهذه مغامرة كبيرة بحد ذاتها. وقد اثبت مجموعة من المخترقين هذا السيناريو المخيف في تحقيق صحفي مع مجلة Wired، حيث قامو باختراق سيارة من نوع “جيب شيروكي” وفصل مكابحها وإطفاء محركها وهي تسير على الطريق بينما هم في البيت على الأريكة.

حلول ومبادرات الدول والشركات

استدعت هذه التحديات دول ومنظمات متعددة إلى تنظيم تطوير برامج الذكاء الاصطناعي. فالاتحاد الأوربي مثلاً أقر قانون حق التفسير في عام ٢٠١٦ يُلزم أي جهة تستخدم الذكاء الاصطناعي في اتخاذ قرار يمس حقوق المستخدم بتقديم تفسير واضح له على أن يبدأ العمل به هذا العام. كما طرحت أيضاً مدينة نيويورك قانون “الانحياز الخوارزمي” الذي يجبر الجهات الحكومية على تقديم تفسيرات واضحة لأي قرار يُتخذ من برنامج حاسوبي والنظر في جعل مصادر برامجها مفتوحة ومتاحة. كما دفعت هذه المخاوف بعض الشخصيات المؤثرة مثل إيلون ماسك (مؤسس شركة تيسلا للسيارات) إلى تأسيس شركة OpenAI غير الربحية بقيمة بليون دولار في ٢٠١٥، تقود الاتجاه نحو ذكاء اصطناعي مفتوح المصدر وبراءات اختراع متاحة للجميع لتحقيق مبدأ الشفافية وللتصدي لتمرد الذكاء الاصطناعي على البشرية مستقبلاً. كما قام كل من Amazon و Apple و Google و IBM و Facebook و Microsoft بتكوين تحالف الذكاء الاصطناعي (www.partnershiponai.org) لسن أفضل الممارسات في تصميم أنظمة الذكاء الاصطناعي ونشر الثقافة والوعي للمستخدمين والمطورين. وفيما يخص مبدأ المسؤولية، بادرت شركة Volvo للسيارات بتحمل مسؤولية أنظمتها الذكية على عاتقها، الأمر الذي سيجبر الشركات الأخرى على اللحاق بها للحفاظ على تنافسيتها في السوق.

شركة Volvo تتحمل مسؤلية سياراتها ذاتية القيادة

وعلى الصعيد الأكاديمي، أطلق معهد مهندسي الكهرباء والإلكترونيات (IEEE) “المبادرة العالمية حول أخلاقيات الأنظمة المستقلة والذكية” الذي يشارك فيها أكثر من ٢٥٠ عضو باحث من حول العالم في مختلف المجالات والتي تهدف لإعداد مقاييس ومبادئ لضمان تصميم برامج ذكاء اصطناعي لا تتعارض مع القيم والأخلاق. صدرت النسخة الأولى منها عام ٢٠١٦ ويتم الآن مناقشتها مع الخبراء لاستصدار النسخة النهائية بعام ٢٠١٩. كما استوعبت عدد من الدول أهمية الاستعداد لمستقبل قائم على الذكاء الاصطناعي، فبريطانيا مثلاً أنشأت مركز أخلاقيات البيانات والابتكار لضمان تطبيق أخلاقي للتقنيات المعتمدة على البيانات. ولا نذهب بعيداً، فالجارة الشقيقة دولة الامارات العربية المتحدة استحدثت منصب وزير دولة للذكاء الاصطناعي والذي من شأنه وضع الأسس لبنية تحتية قانونية للذكاء الاصطناعي حسب تصريح الوزير عمر العلماء في مؤتمر الاقتصاد العالمي في داڤوس مطلع هذا العام.

وزير الدولة للذكاء الاصطناعي في دولة الامارات يتحدث عن حوكمة الذكاء الاصطناعي في منتدى الاقتصاد العالمي الذي اقيم في داڤوس مطلع هذا العام.

ولعل أكبر وأهم المبادرات حتى الآن هي “ورشة العمل العالمية لحوكمة الذكاء الاصطناعي” التي استضافتها دولة الامارات بداية هذا الشهر ضمن فعاليات “القمة العالمية للحكومات” والتي جمعت أكثر من ٥٠ شخصية مؤثرة من المتخصصين والسياسيين وصناع القرار لوضع توصيات وخارطة طريق تعتمدها جميع الدول لتعزيز تطور التقنية بشكل آمن ورصد آثارها.

جهود الحكومة السعودية

مثلما غيرت ثورة تقنية المعلومات والاتصالات حياتنا وسهلتها من نواحي متعددة، لم يكن لهذا النجاح أن يتحقق لولا استيعاب الحكومة السعودية للمخاطر المصاحبة لها. فتفاعلاً مع ذلك أنشأت جهات محايدة مثل الهيئة الوطنية للأمن السيبراني مؤخراً للتصدي للتهديدات الأمنية من الخارج وأسندت لهيئة الاتصالات وتقنية المعلومات مهمة مراقبة الجرائم المعلوماتية حرصاً منها على خصوصية وأمن المواطنين بالداخل. والجهود حالياً قائمة على تنظيم جديد لحوكمة البيانات للفصل في حقوق امتلاك البيانات وتحليلها وضبط استخدام نتائج تلك التحاليل تجارياً. ولم يقتصر الدور على التنظيم والمراقبة فقط، بل امتد إلى البحث والتطوير حيث أنشأت مدينة الملك عبدالعزيز للعلوم والتقنية مؤخراً مركزاً وطنياً لتقنية الذكاء الاصطناعي والبيانات الضخمة تلبية لأهداف البرنامج الوطني لتطوير الصناعة والخدمات اللوجستية (أحد البرامج الأساسية في تحقيق رؤية المملكة 2030).

الروبوت صوفيا التي منحت الجنسية السعودية

ولإدراك الدولة السعودية بأن الذكاء الاصطناعي هو أحد الركائز الأساسية للثورة الصناعية الرابعة وعصب اقتصاد المستقبل، اعلنت في اوكتوبر من العام الماضي عن استثمارها بميزانية غير مسبوقة بقيمة ٥٠٠ بليون دولار لبناء مدينة “نيوم” المستقبلية القائمة على الذكاء الاصطناعي وتقنيات أخرى مستقبلية مثل انترنت الاشياء والروبوتات. كما شهدت المبادرة سابقة عالمية للسعودية كأول دولة تمنح جنسيتها لروبوت.

نحن على مشارف ثورة معلوماتية جديدة يحدد نجاحها من فشلها مدى استعدادنا لها. توجد حالياً أنظمة ولوائح قانونية بإمكانها استيعاب بعض الاشكاليات بطريقة غير مباشرة، مثل نظام مكافحة الجرائم المعلوماتية ونظام التعاملات الالكترونية والضمان التجاري وتأمين أخطاء المهنة، لكن المرحلة القادمة تتطلب تشريعات خاصة بالذكاء الاصطناعي لضمان تطبيق المبادئ سالفة الذكر خلال مراحل التبني والتطوير لانظمة الذكاء الاصطناعي وذلك لاستكمال العناصر اللازمة لتفعيلها بأقصى درجة من الكفاءة.
الوسوم
اظهر المزيد

إبراهيم المسلَّم

دكتوراه في تعلم الآلة من جامعة أوكسفورد وعملت كعالم زائر في معمل الذكاء الاصطناعي في جامعة ستانفورد مع البروفيسور Andrew Ng

مقالات ذات صلة

رأي واحد على “حوكمة الذكاء الاصطناعي”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً

إغلاق
إغلاق