مقالات

فلسفة الذكاء الإصطناعي

واحد من أسباب كبح جماح المنظمات التقنية من التقدم والاختراع والابتكار هو التأثير السلبي لبعض الاختراعات التقنية على الانسان والبيئة مما يؤدي لمقاومتها من قبل المجتمعات. التقنية التي اقصد هي كل أداة تستخدم لتسهيل حياة الانسان سواء في حياته اليومية أو في التصنيع والإنتاج، والمجتمع هو الفئة المستهدفة لاستخدام التقنية من قبل الشركة المنتجة بعيداً عن الحدود الجغرافية. رفض المجتمع للتقنية يحد من تطورها ويجعلها حبيسة المعامل والمختبرات لأن المجتمع هو الجمهور الأساسي الذي تختبر فيه التقنيات وتطبق وتنشر، فإذا انعدمت ثقته أو اهتزت فلن تنجح أي تقنية، هذا غير أن بعض التقنيات خرجت للعلن وتم تطبيقها وتداولها لكنها فشلت في جذب المستخدمين. أما الجانب الآخر من انعدام الثقة هو خسارة البشرية لتقنية كان من الممكن ان ترتقي بالمجتمع وتسهل حياته بالجانب التي تخصصت فيه لولا وجود قصور فيها. المجتمع عبارة عن عامل مهم جداً في عملية تطوير التقنية، وإذا فُقد هذا العامل فلن يكون هناك عملية تطوير وإن حدثت فستكون ناقصة.

من ماذا يخشى المجتمع؟ أو ماهي القضايا التقنية التي تؤثر على ثقة المجتمع بالتقنية؟ هناك العديد من المخاوف، والتي تم حل بعضها بأنظمة وقوانين ومازال الآخر تحت رغبة وتحكم المجتمع، مثل تأثير التقنية على الخصوصية، البطالة، الأمن والحماية، الترابط الاجتماعي، شخصية الفرد، وغيرها. مثلاً، هناك قوانين تنظم عملية جمع البيانات لحماية خصوصية الفرد، وهناك قوانين تنظم عمل أفراد بيئة العمل الواحدة لحماية وجودهم، لكن بالمقابل لا يوجد قوانين تضبط تأثير التقنية على الترابط الأسري أو الاجتماعي ولا توجد قوانين تضبط تأثير التقنية على شخصية المستخدم حيث تحوله من العيش في العالم الحقيقي إلى العالم الافتراضي، وهذا أحياناً يؤدي لمضار نفسية أو اجتماعية. القصد من هذا أن القوانين لم تحل كل القضايا التقنية في المجتمعات لأن بعضها يتعلق باستخدام الفرد للتقنية وهو داخل تحت الحرية الشخصية.

نتيجة لهذا، يأتي الباحثون في مجال اخلاقيات التقنية ليسلطوا الضوء على مثل هذه المخاوف ومناقشتها وتحليلها لتوعية المجتمع من جانب ولتنبيه صناع القرار والشركات التقنية من جانب آخر. توعية المجتمع لا تكون بتخويفه من التقنية وتحذيره منها، بل بتثقيفه وحمايته من التقنيات التي من الممكن ان تعتدي عليه. الباحثون بهذا المجال هم صوت المجتمع أمام الشركات التقنية ولدى صناع القرار. الجانب الآخر الذي يعمل فيه الباحثين هو التقنيات الذكية والتي تتفاعل مع البيئة المحيطة بها حيث تجمع البيانات وتحللها وتقارنها وتتخذ القرار نيابة عن الإنسان، وهذه بدأت بالازدياد مؤخرا بشكل ملحوظ. هذا مما لا شك فيه هو تقدم تقني جميل تسعى جميع الأمم للتسابق فيه لأن المستقبل معتمد على التقنية خصوصا الذكية منها، لكن هناك جوانب سلبية لابد من مناقشتها والبحث عن تفسيرات وإجابات لها من قبل الشركات المصنعة، من صناع القرار، ومن المجتمع الأكاديمي قبل طرحها ونشرها في الاسواق. لذلك، فلسفة الذكاء الاصطناعي تأتي لمناقشة عدة محاور مستجدة جاءت مع التقنية الذكية ولعلي هنا أطرح بعض التساؤلات على سبيل المثال وليس الحصر:

  • هل الآلة الذكية تفكر؟ وهل تفهم؟ وماهي نوعية هذا التفكير والفهم وإلى أي مدى يمكن أن يصل؟
  • هل يمكن صنع عقل مثل عقل الإنسان بما يحتويه من تفكير وفهم ومشاعر؟
  • هل يمكن صنع ذكاء مثل ذكاء الإنسان؟ وهل الذكاء المقصود هو سرعة الحساب والتحليل والاستنتاج فقط؟ وهذا بطبيعة الحال ربما تتفوق فيه الآلة على الإنسان، لكن ماذا عن الذكاء الاجتماعي والذكاء العاطفي؟
  • هل يمكن للآلة أن تحل كل المشاكل التي تواجه الإنسان؟ هل ستحلها بالمنطق فقط؟
  • ماذا عن المشاعر والعاطفة والتي هي جزء لا يتجزأ من عملية تفكير الانسان في حل مشاكله؟ هل ستكون للآلة مشاعر؟ هل يمكن برمجة المشاعر؟ هل يمكن تثبيت المشاعر في الأجهزة كتطبيقات أو برمجيات؟
  • ماذا عن الإدراك والوعي؟ الوعي هو صفة إنسانية حيث يدرك الإنسان محيطه الخارجي من خلال تحليل ما تلتقطه حواسه الخمس في العقل فيضيف لها الذكريات والخبرة والمعرفة فينتج لنا رأي أو فكرة أو وجهة نظر أو قرار. هل الآلة قادرة على دمج هذه المكونات والخروج بقرار أو رأي أو وجهة نظر ممكن قبولها أو رفضها؟
  • ماذا عن القرارات الأخلاقية التي يتخذها الإنسان، هل الآلة قادرة على اتخاذها؟ قرارات يدخل فيها الحب والتضحية والمسؤولية والميول والانتماء والسعادة والنفع وغيرها.
  • هل الآلة تخطئ؟ وإذا أخطأت، هل هي المسؤولة عن هذا الخطأ؟ أم المصنع، المبرمج، الناشر، المالك، المستخدم؟ هل يمكن أن نحمل الآلة أصلاً المسؤولية؟
  • هل للآلة وجود؟ يعني هل يمكن أن يكون لها كيان ممكن محاسبته إذا ارتكبت خطأ؟ وهل محاسبة الآلة تعني لها شيئاً؟ لأن محاسبة الإنسان وعقابه في حال الخطأ هو أمر رادع له كيلا يكرره بالمستقبل وايضاً رادع لمن اراد ان يكرر الخطأ نفسه، فهل هذا ينطبق على الآلة إذا قامت بخطأ؟ هل سيكون لديها الإحساس بالثواب والعقاب؟
  • هل يمكن ان يكون للآلة حقوق كما للإنسان والحيوان؟
  • هل سنسمح للآلة أن تتخذ قرارات بشكل مستقل نيابة عن الإنسان؟ ماهي نوعية هذه القرارات؟ قرارات في الحياة العامة؟ الحياة الشخصية؟ الحياة الاجتماعية؟ ماذا عن قرارات الحياة والموت؟ مثلاً، قرار إنهاء حياة انسان ميؤوس من شفائه في المستشفى. أو قرار إنهاء حياة إنسان في ساحة حرب.
  • هل سيتم السماح بالأسلحة الذكية، التي تنطلق وتتوجه وتضرب بشكل ذاتي؟ ماذا لو أخطأت بالتقدير سواء بالمكان أو الزمان؟
  • لماذا أصلاً نعطي الآلة القدرة على إنهاء حياة انسان؟ ماذا لو اختلت برمجة هذه الآلة أو تم اختراقها؟
  • هل الآلات المزودة بالذكاء الاصطناعي خطر على البشرية؟ هل يمكن ضبط سلوكها؟
  • إذا كانت الآلات لديها القدرة على التعلم الآن، هل يمكن تعليمها الأخلاق؟ وهل يمكن برمجة الأخلاق اصلاً؟

  • وإذا افترضنا أنه يمكن أن نعلم الآلات الأخلاق، والتي أبسط صورة منها هي الصواب والخطأ في التعاملات مع الناس، من له الحق في تحديد أن هذا صواب وهذا خطأ؟ يعني من له الحق بتعليم الآلة الأخلاق؟ أو بمعنى آخر ماهي نوعية هذه الأخلاق وعلى أي ثقافة/عادات تم الاستناد لها؟ خصوصاً أن هناك اختلافات بين الثقافات والمجتمعات والأديان في الصواب والخطأ.

  • ماذا عن تعلم الآلة؟ هل يمكن حصره ووضع حدود له لضمان عدم خروجه عن السيطرة؟
  • هل يمكن التنبؤ بقرارات وسلوك الآلة التي تكون مزودة بخاصية التعلم الذاتي؟
  • هل يمكن لمبرمج الآلة أن يتتبع كيفية تعلمها من البيئة المحيطة؟ بمعنى آخر هل يمكن للمبرمج أن يعرف لماذا وكيف اتخذت الآلة قرار أو فعلت سلوك معين؟
  • ماذا لو اتخذت قرار خاطئ، هل يستطيع المبرمج أو الشركة المصنعة أن تشرح أسباب وحيثيات هذا القرار؟ حيث أن هناك أمثلة واقعية لم يستطع فيها صانعي الآلة أن يشرحوا سبب اتخاذها لقرار ما.
  • ماذا عن انحياز الخوارزميات الحاصل الآن في بعض الآلات؟ حيث تنحاز الأجهزة أو الأنظمة الذكية في قراراتها مع فئة ضد أخرى، وهذا الانحياز مصدره بطبيعة الحال هو البيانات التي تغذت الآلة عليها.
  • هناك أنظمة الآن يتم الاعتماد عليها في التوظيف، لكن مع وجود انحياز الخوارزميات، هل سيسمح للأنظمة الذكية أن تقرر من سيتوظف؟ هل سنقبل قرارها بشكل نهائي بحكم قدرتها وذكاءها؟
  • ماهو تأثير الآلات الذكية على الوظائف؟ وهل سيتم أتمتة كل الوظائف؟ ماذا سيحدث للموظفين وماهو دور الحكومات والشركات المصنعة لهذه الآلات؟

هناك المزيد من التساؤلات والقضايا التي لم تحل بعد، وما ذكرته هنا ليس إلا أمثلة فقط على قضايا ربما تكون أعمق وأكثر تعقيداً. في الحقيقة بعض الأمثلة التي طرحتها هي محور[1] لبحوث تجري الآن في عدة جامعات ومعامل حول العالم. بعض الإدارات التابعة للحكومات أيضاً تجري بحوث على بعض تلك القضايا بالاشتراك مع أكاديميين ومهتمين. لأن السباق الآن قائم على قدم وساق بين الشركات وحتى الدول في تصنيع آلات وأنظمة مزودة بذكاء اصطناعي في عدة قطاعات ومجالات، وهذا التنافس سينتج منه إشكاليات لابد من ادارتها وحلها.

هذه الأسئلة الفلسفية ليس لها إجابة محددة، وقد تكون هناك آراء متباينة أو حتى متضادة حيالها، وهي مجال خصب للنقاش الممتع والمفيد. هل لديك إجابات لها أو لبعضها؟ شاركها معنا في التعليقات.

 


[1] جزء من رسالتي في مرحلة الدكتوراه مركّز على عملية اتخاذ القرار الأخلاقي في الروبوتات ذاتية التحكم وأثر هذا على مسؤولية المنظمات تجاه المجتمع من ناحية شفافية عمل الروبوت وتفسير افعاله مما يؤثر سلباً او إيجاباً على ثقة المجتمع بالروبوتات والشركات المصنعة.

الوسوم
اظهر المزيد

فهد العييري

طالب دكتوراه في كندا متخصص في اخلاقيات الروبوت والذكاء الاصطناعي. محاضر في جامعة القصيم قسم نظم المعلومات الإدارية.

مقالات ذات صلة

3 آراء على “فلسفة الذكاء الإصطناعي”

  1. أشكركم على مثل هذا الطرح.

    في نقاشات سابقة مع بعض الاصدقاء طرحنا موضوع في ما لو أصبحت الروبوتات تفكر مثل الانسان ، هل من الممكن ان تسيطر علينا عسكريا وتحتل بلداننا بناء على قواعد منطقية تعمل بها؟
    أنا طرحت قانون فلسفي ولازلت أعتقد به في مجال الذكاء الاصطناعي والحاسب ألا وهو ، إذا كان بإمكاننا أن نصنع آلات تفكر مثل البشر فبإمكاننا أن نجعلها لاتتصرف مثل البشر خصوصا أن التصرف البشري يأتي بعد إتخاذ قرار مسبق قد يكون زمانيا قريب او بعيد ، وقد يقر به الشخص تحدثا أو يكون في قرارتِ نفسه ولاكن لايشعر بذلك ، فهناك فاصل بين التفكير والتصرف حتى في الروبوتات المستخدمة حاليا في مجال الاتمته الصناعية.
    ومن ناحية اخرى قراراتنا نحن كبشر التي تكون مبنية على دراسة ودراية وفهم عميق للحالة اللي تحتاج الى قرار ، تكون أقرب كثيرا للصواب وأبعد عن الخطأ ، نفس المفهوم يطبق على الذكاء الاصطناعي الحالي أو حتى الذي سوف يحاكي تفكير البشر مستقبلا.

    1. جميل جدا
      النقطة التي طرحتها هي إحدى أسس فكرة “عملية اتخاذ القرار الاخلاقي”
      التحكم بالقرار الذي يتخذه الروبوت من خلال اخلاقيات او قوانين او سياسات بناءً على القيم التي تحكم البيئة المحيطة

  2. مساء الخير
    ممكن تعدد لي بعض الاخلاقيات اللي يجب ان يلتزم بها العاملين في صناعة الروبوتات و اللي في هذا المجال تحديدا ؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً

إغلاق
إغلاق