ذكاء اصطناعي

سبعة مبادئ أساسية للذكاء الإصطناعي من شركة قوقل

تعد شركة قوقل أحد الشركات الأولى التي استخدمت الذكاء الإصطناعي وتعلم الآلة في منتجاتها، وهي أكثر الشركات تقدماً في العالم في مجالات وعلوم الذكاء الإصطناعي. نشرت الشركة عام ٢٠١٨ المبادئ الأساسية (الغير تقنية) التي تستند عليها الشركة في تطوير تقنيات الذكاء الإصطناعي.

1-‏النفع العام (socially beneficial)

تصميم الذكاء الإصطناعي وخوارزمياته يجب أن يكون الهدف منه والاحتمالات الممكنة للاستخدام تصب بشكل عام في مصلحة الجميع، وأن الفائدة لأغلب الناس تتجاوز المضار. هذه الفكرة تتماشى مع التوجه الاجتماعي الأوروبي والشرقي وتتعارض مع الجانب الفردي (زيادة المصلحة الفردية) المهمين للرأسمالية الأمريكية. وفي هذا دلالة على توجه عالمي لشركة قوقل يتقبل من الجميع. كما أنه بهذا المبدأ استبعدت الشركة فكرة تطوير أسلحة باستخدام الذكاء الإصطناعي.

2- تجنب الانحياز غير العادل (‏avoid creating or reinforcing unfair bias)

وهذه مشكلة تواجهها معظم خوارزميات تعلم الآلة، حيث تعتمد بشكل كبير على البيانات. وفي حال كون البيانات منحازة لفئة معينة من الناس او لتوجه معين أو بعض الأحيان لعرق معين فإنه ينبغي بذل مجهود لتجنب التداعيات غير العادلة على الفئة المتضررة. مثال: بعض تقنيات التعرف على الوجه قد تفشل في التعرف على ذوي البشرة السوداء لعدم وجود تمثيل لهم في البيانات المستخدمة في تدريب خوارزميات الذكاء الإصطناعي.  و تؤكد شركة قوقل على أهمية التنوع في مصادر البيانات من قبل مجمعي البيانات و التنوع العرقي لتجنب الانحياز الظالم والذي قد يظلم عرقيات معينة أو يضر فئة معينة من الناس في قرارات مصيرية مثل الوظيفة أو تشخيص مرض معين.

بعض تقنيات الذكاء الإصطناعي تفشل وتنحاز في نتائجها لانحياز البيانات المستخدمة في تدريب هذه الخوارزميات. ذلك قد يضر ويظلم بعض العرقيات

3- السلامة أولاً (built and tested for safety)

تقنيات الذكاء الإصطناعي الحديثة بالتعلم العميق (deep learning) تعمل بشكل فعال، لكن لا يوجد تفسير كامل لسبب عملها وقد تفشل بالقليل من التلاعب المتعمد (adversarial attacks). وبما أن هذه التقنيات يتم استخدامها بشكل كبير في تطبيقات مختلفة، ويتم استخدامها بشكل أكبر في المستقبل، فلذلك هناك خطر عالي في الأنظمة التي تستخدم تلك التقنيات وتعتمد عليها حياة البشر مثل تشخيص الأمراض. لذلك تشجع قوقل البناء الآمن و القوي لخوارزميات الذكاء الإصطناعي لتجنب -أو على الأقل تقليل- الخطر على السلامة.

4- تحمل المسؤولية (be accountable to people)

تظهر هذه المشكلة في التطبيقات التي تمس حياة البشر بشكل مباشر، مثل القيادة الذاتية للسيارات. حيث أنه قد تسبب خوارزميات الذكاء الإصطناعي حوادث مميتة في المستقبل (رغم عملها الفعال في معظم الحالات). من سيتحمل المسؤولية حينها؟ تؤكد قوقل على دور العلماء في تحمل مسؤولية ما يصنعونه وما سيترتب عليه من تأثير مباشر (ضار أو نافع) على حياة الملايين من الأشخاص.

في 2018 حصل حادث مميت لسيارة تسلا بوضع ذاتية القيادة و قد تتكرر مثل هذه الحوادث مستقبلاً. من يتحمل مسؤولية الحادث؟ شركة تسلا؟ أم شركة تقنية القيادة الذاتية؟ أم شركة الأجهزة؟ أم مهندس التصميم؟

5- الخصوصية كجزء أساس (incorporate privacy design principles)

بعد فضيحة فيسبوك واستغلالها بيانات المستخدمين بشكل غير قانوني، طفت على السطح قضية الخصوصية وأنه من الضروري بناء تطبيقات تحمي خصوصية المستخدمين، وظهر قانون حماية خصوصية البيانات في أوروبا (GDPR). تظهر مشكلة الخصوصية جلياً في خوارزميات الذكاء الإصطناعي التي تحتاج بيانات كبيرة. وتلجأ بعض الشركات لبيانات المستخدمين (أو حتى بيانات مفتوحة لكن غير مصرحة) لتدريب الخوارزميات واستخدامها لأغراض تجارية دون الرجوع لأصحاب هذه البيانات .. وذلك يعد خرقاً للقانون و لخصوصية الناس.

في عام 2018 ظهرت فضيحة تسريب بيانات شركة فيس بوك وأدت إلى انتشار الوعي بأهمية الخصوصية، وظهور قانون حماية خصوصية بيانات المستهلك (GDPR) في أوروبا

6- الالتزام بالمعايير العلمية ( scientific excellence)

الطريقة العلمية التي تعتمد على تحري الحقائق والتعاون البحثي ونشر المعلومات تعد أهم قواعد شركة قوقل في مجال الذكاء الإصطناعي. حيث لا ينبغي للمطورين والعلماء الخروج عن المهنية أو احتكار جانب علمي معين مما لا يتماشى مع المعايير العلمية العالية المتبعة في المجال الأكاديمي. يشمل ذلك تحري المعلومة قبل نشرها و عدم ادعاء سبق علمي أو التهويل الإعلامي لبحث معين دون التمحيص المتبع في أفضل المنشورات العلمية.

‏7- نشر العلم للجميع (be made available)

تعد النقطة السابعة محور صعب حيث تضع شركة قوقل على عاتقها نشر كافة التقنيات وتوفيرها للجميع في حال التزامهم بالقواعد الست الماضية. ذلك يعني فتح البيانات ونشر البرمجيات وفتحها للجميع ليستفيدوا منها ويطوروا عليها. يعد هذا توجه عالمي، حيث ينشر الجميع على موقع GitHub لكن ما تزال كثير من الشركات تحتفظ بتقنياتها البرمجية لنفسها أو تسجل براءة اختراع عليها. التزام قوقل بهذه القاعدة صعب لأنه يعني فقدان الامتياز الناتج عن اكتشافات جديدة قد تفيد الشركة مادياً في مواجهة المنافسين مثل فيسبوك ومايكروسوفت وأمازون.

لمصدر الصفحة الخاصة بالمبادئ انظر هنا

لقواعد قوقل التقنية المتبعة في تعلم الآلة انظر هنا

اظهر المزيد

عبدالله حمدي

ماجستير في تحليل الصور والفيديو (Computer Vision) من كاوست , بكالريوس هندسة كهربائية من جامعة الملك فهد للبترول والمعادن , شغوف بالإبتكار والتقنية

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى