ضبط نظم الذكاء الاصطناعي بين الأخلاق والقانون الوضعي الدكتور : إبراهيم أولتيت
ضبط نظم الذكاء الاصطناعي بين الأخلاق والقانون الوضعي
الدكتور : إبراهيم أولتيت
أستاذ القانون العام – جامعة ابن زهر – اكادير – المملكة المغربية
رابط dOI
https://doi.org/10.63585/QOAW1728
ملخص
تحاول الدراسة الاستدلال على فرضيتني تتعلقان بضبط الذكاء الاصطناعي، أولهما تحاج بأن الأخلاق قادرة على جعله ابتكارا مسؤولا أخلاقيا، وهي الدعوى التي تدافع عنها خاصة الشركات والصناع، وثانيهما تستدل على أن الأخلاق، رغم أهميتها في ضبط سلوك المبدعين والصناع، فإن الواقع بين الحاجة إلى ضرورة تدخل الدولة عبر آلية القانون الوضعي، باعتبارها القادرة على تقييد الخيار الخاص من أجل الخيار العام. ومن خلال عرض عدة نماذج للنصوص الأخلاقية تصل الدراسة إلى أنها تبقى محدودة التأثير والفعالية مما دفع بالدول إلى وضع قانون الذكاء الاصطناعي (كما تبين حالة دول الاتحاد الأوروبي).
كلمات مفاتيح: الذكاء الاصطناعي، الضبط، الأخلاق، القانون الوضعي…
Regulating Artificial Intelligence Systems between Ethics and Positive Law
DR : OULTIT Brahim
Professor of Public Law – Ibn Zohr University – Agadir – Kingdom of Morocco
Abstract
The subject matter of this research paper discusses two hypotheses related to regulating artificial intelligence. The first argues that ethics are capable of making it a morally responsible innovation, a claim defended by companies and makers. The second proves that ethics, despite its importance in controlling the behavior of innovators and makers, the reality shows the need for state intervention through the mechanism of positive law, as it is capable to Restricting private choice for public option. By presenting several models of ethical texts, the study concludes that they remain limited in their impact and effectiveness, which has prompted countries to establish an artificial intelligence law (as the case of the European Union countries shows).
Keywords: Artificial Intelligence, regulation, Ethics, Positive Law…
مقدمة
ظهر مفهوم الذكاء الاصطناعي في الخمسينيات من القرن الماضي، ويقال إن المصطلح صاغه، لأول مرة في عام 1955 ، عالم الحاسوب الأمريكي جون مكارثي(John McCarthy)(1927 -2011) . وبعد فترة وجيزة تم تصميم الخوارزميات الأولى وصولا إلى الحقبة 2012-2017 التي شهدت ثورة حقيقية في زيادة قوة هذه الخوارزميات التي تتمتع اليوم بقدرات استثنائية للتخزين ومعالجة المعلومات وطريقة التعلم (“التعلم العميق”) واستقلالية القرار .
ويمكن تعريف الذكاء الاصطناعي بأنه “مجموعة النظريات والتقنيات المطبقة لإنتاج آلات قادرة على محاكاة وتقليد الذكاء البشري”. ويستند على دعامتين: “الذكاء” أي “القدرة على تحديد أفضل مسار للفعل لتحقيق أهدافه”؛ و”الاستقلالية” أي “الحرية التي يتمتع بها لتحقيق أهدافه”، مما يسمح له، إذا لزم الأمر، بتغيير سلوكه بحرية للتكيف مع واقع جديد وغير متوقع عند البرمجة . ويعد أحد أكبر المخاوف لدى صناع السياسات هو أن يصبح أكثر استقلالية كل يوم، وبالتالي أكثر خطورة .
وغالبًا ما يتم التمييز بين “الذكاء الاصطناعي القوي” و”الذكاء الاصطناعي الضعيف”، الأول يريد أن يكون للأداة وعي، والثاني يريد أن تطبق الأداة خوارزمية وتتعلم وفقًا للبيانات المقدمة والعمليات تلقائيًا دون أي إشارة إلى حالة من الوعي .
وحسب اليونسكو فإن نظم الدكاء الاصطناعي “قادرة على معالجة البيانات والمعلومات بطريقة تماثل السلوك الذكي وتنطوي عادة على خصائص تضم الاستدلال والتعلم والإدراك والتنبؤ والتخطيط والتحكم أو السيطرة”. وتؤكد على أنه ينبغي لأي تعريف للذكاء الاصطناعي أن يتغير على مر الزمن وفقاً للتطورات التكنولوجية .
ويأتي الاهتمام بموضوع ضبط هذه النظم في وقت تعمل فيه على تغيير العالم للصالح أو للسوء، مما يزيد من المخاطر على الأمنين الوطني والعالمي، وعلى الحفاظ على الديمقراطية، وعلى حقوق الإنسان كالحق في الحياة والحرية والخصوصية .
فإذا كانت تعد بحل بعض مشكلات المجتمع الأكثر إلحاحًا، فإنها تطرح أيضًا تحديات كخوارزميات الصندوق الأسود التي لا يمكن اختراقها، أو التحيز المحتمل والعناصر التمييزية في النمذجة وتأثيرات أدوات تحليل البيانات، أو الفقدان المحتمل لمناصب الشغل، أو الغياب الفعلي للمرأة في المهن التقنية، أو الاستخدام غير الأخلاقي للبيانات…إلخ .
ففي بداية عام 2020، كان عدد البيانات الموجودة في العالم الرقمي أكبر بـأربعين (40) مرة من عدد النجوم التي يمكن ملاحظتها في الكون. ومن غير المستغرب أن وقع تلك التقنيات على حياة الناس والمجتمع والبيئة لا تعد ولا تحصى ، مما دفع البعض للحديث عن “ديكتاتورية الخوارزميات” .
مفاهيم الدراسة
-الأخلاق
يستعمل مفهوم الأخلاق في اللغات الأجنبية كمقابل ل(morale) أو ل(éthique): فمن الناحية الاشتقاقية: أتت كلمة “الأخلاق(morale) من الكلمة اللاتينية (moralis)، فهي تعني “التزام الفرد باحترام المعايير والقيم في مجتمع ما، ولكنها في الوقت نفسه عملية استيعاب لهذه المعايير في داخله كجزء من تصرفاته”. واشتقت كلمة “الأخلاق(éthique) من الكلمة اليونانية (ethos) التي تعني “الأخلاق” و”العادات”، فهي التأمل في السلوكيات التي يجب أن نتبناها والأفعال التي يجب أن نتخذها . ويجري التمييز فيها بين الأخلاقيات الصلبة والناعمة أو الرخوة .
وتحيل déontologie إلى تعريف الأخلاق (l’éthique) في سياق ممارسة المهنة. فقد دفع تطور التكنولوجيا الحيوية، وتطور المسؤوليات في الممارسة الطبية، وتطور حقوق الإنسان والتعددية الاجتماعية، الباحثين في مجال الصحة إلى وضع جوهر توافقي للمعايير الأخلاقية في سياق الممارسة الطبية والبحوث الطبية الحيوية. وقد وُضعت هذه المعايير التوافقية في شكل أربعة مبادئ : (1)احترام الاستقلالية باحترام قدرات الأشخاص المستقلين على اتخاذ القرار؛ و(2) عدم الإضرار بتجنب التسبب بالضرر؛ و(3)الإحسان بتوفير المنافع ويوازن بين المنافع والمخاطر والكلف؛ و(3)العدالة أي التوزيع العادل للمنافع والمخاطر والكلف.
-القانون الوضعي والضبط
يعرف القانون الوضعي كتقنية للتوجيه العمومي للسلوك البشري؛ لأن القواعد القانونية بصفة عامة هي أدوات، أي أشياء تقدم خدمات للإنسان فهي لها غاية أذاتية، وإن كانت موجودة بشكل موضوعي (عامة ومجردة)؛ وهي قياسات، أي أدوات مرجعية تمنح القياس لشيء ما، ففي الممارسة يجري الحديث عن وضع قواعد قانونية أو مقاييس، وفي حالة قاعدتين قانونيتين مختلفتين تطبقان على حالات متشابهة يجري الحديث عن ” الكيل بمكيالين” دون أن ننسى رمز العدالة وهو الميزان ( La balance) .
وعليه، فإن القانون الوضعي (وسيلة أو تقنية) يؤذي مجموعة من الوظائف سنركز هنا على الضبط، بما يعنيه من ” تقييد للخيار الخاص بفرض قواعد عامة”31 ضمانا للاستقرار. وقد ظهر مفهوم الضبط (La régulation) في القرن الثامن عشر في العلوم التقنية (مع آلة وات)، ثم في القرن التاسع عشر في علم وظائف الأعضاء (عند كلود برنارد Claude BERNARD) (1813- 1878)، وعرف، بعد الحرب العالمية الثانية، انتشارًا واسعا في العلوم الاجتماعية، أولاً تحت تأثير تطوير علم التحكم الآلي، ثم في إطار نظرية الأنساق العامة. ويعد عنصرا أساسيا في النظرية العامة للأنساق حيث يغطي جميع العمليات التي تسعى الأنساق من خلالها إلى الحفاظ على “حالتها المستقرة” بإلغاء تأثير الاضطرابات الخارجية .
منهج الدراسة
ستحاول الدراسة توظيف مقاربة تصنيفية (taxonomic approach)بتقديم جرد لأهم محاولات الضبط الأخلاقي لنظم الذكاء الاصطناعي (أولا) وبعض جهود الضبط القانوني –خاصة حالة القانون الأوروبي للذكاء الاصطناعي –(ثانيا) مع ما تثيره هذه المقاربة من انتقادات بخصوص الحاجة إلى توضيح معايير الإدراج، خاصة سؤال: لماذا يتم إدراج بعض القضايا أو العناصر في هذه القائمة دون غيرها؟ كما “يمكنها في أحسن الحالات أن ترتب كل حالة ضمن فئة مخصوصة، فهي ليست في الحصيلة سوى نوع من الفهرسة” .
ولتجاوز عيوب هذه المقاربة، ونظرا لما يثيره الموضوع من تضارب الرؤى (الأخلاق أو “القانون المرن” أم القانون الوضعي الملزم) وتنازع الدعاوى (الشركات في مواجهة الدول)، ستحاول الدراسة الاستفادة من الإمكانات التي يقدمها المنهج الجدلي، انطلاقا مما قاله أفلاطون: ” إن الأشياء التي لا تدفع العقل إلى التفكير هي تلك التي لا تولد فينا تأثيرين متناقضين في الوقت الواحد، أما إذا ولدت تأثيرين متناقضين لكانت تبعث على التفكير” . ويتميز “بعدم ترك الفرضيات التي يستخدمها دون أن يناقشها أو يبررها ” .
إشكالية الدراسة وخطتها
تستند إشكالية الدراسة نظريا إلى التمييز الذي اقترحه الفيلسوف مارك آلان ديكامب (Marc-Alain DESCAMPS)(1930 – 2018) بين العوامل الثلاثة التي تحدد شرعية الفعل: أولا، القانون يقرر( فهو الذي سيحدد شرعية الفعل أو عدمها)، وثانيا، الخلق العام يأمر لأنه يحمل ثقل المجموعة، وثالثا، الأخلاق النظرية توصي لأنها تمثل ما يعتقد الفرد أنه صواب . وبما أن الأخلاق تلهم القانون، وفي أغلب الأحيان تسبقه، يطرح موضوع الذكاء الاصطناعي عدة أسئلة:
هل الأخلاق كافية لضبط نظم الذكاء الاصطناعي؟ أم لا بد من قواعد القانون الوضعي لضبطه خدمة للأفراد وللمجتمعات وللبحث والابتكار؟
وذلك من خلال الاستدلال على فرضيتين، أولهما فرضية تستدل على أن نظم الذكاء الاصطناعي وتشجيعا للبحث والابتكار يمكن ضبطها بقوانين مرنة ذاتية المصدر (فرضية الأخلاق) (الأطروحة). وثانيهما فرضية تبني دعواها على أساس أن عواقب استعمالات واستخدامات الذكاء الاصطناعي لابد أن تضبط من قبل مصدر خارجي ملزم تضعه الدول (فرضية القانون الوضعي الملزم) (نقيض الأطروحة).
ولكن قبل الإجابة عن هذه الأسئلة، وغيرها، والاستدلال على هذين الفرضيتين ستبدأ الدراسة بعرض بعض الدراسات السابقة التي بحثت موضوع الذكاء الاصطناعي بين الأخلاق والذكاء الاصطناعي، وذلك وفقا للخطة الآتية:
أولا: جدل ضبط الذكاء الاصطناعي في الدراسات السابقة.
ثانيا: الأخلاق وضبط نظم الذكاء الاصطناعي: الفرص والحدود.
ثالثا: القانون الوضعي وضبط نظم الذكاء الاصطناعي: من الفكرة إلى التطبيق.
أولا: جدل ضبط الذكاء الاصطناعي في الدراسات السابقة
تناولت عدة دراسات موضوع قدرة الدول والشركات وغيرهما من الفاعلين في هذا المجال على ضبط نظم الذكاء الاصطناعي سواء بالمعايير الأخلاقية وتوصيات القانون المرن، أو بالقانون الوضعي الصارم، وما هو الإطار الضبطي والتنظيمي الملائم؟ نورد منها على سبيل المثال لا الحصر:
دافع كل من مايكل أندرسون(Michael ANDERSON)، وسوزان لي أندرسون(Susan Leigh ANDERSON) عن “أخلاقيات الآلة”( Machine Ethics) بالتمييز بين تطوير “الأخلاقيات للآلات”، و”الأخلاقيات للإنسان الذي يستخدم الآلات” كمجال من مجالات الأخلاقيات الإنسانية التطبيقية الذي يتضمن توضيح السلوك البشري السليم وغير السليم فيما يتعلق باستخدام الآلات. والنجاح في تطوير أخلاقيات الآلات يمكّنها من العمل (بشكل أو بآخر) بشكل مستقل، وهو ما يعني أنها يمكن أن تعمل دون تدخل بشري بعد أن تكون مصممة لجزء كبير من سلوكها .
وأشار لوتشيانو فلوريدي (Luciano FLORIDI) (1964-) إلى أن ” التحدي الحقيقي لم يعد يتمثل في الابتكار الرقمي الجيد، بل في الإدارة الرشيدة للتكنولوجيا الرقمية” مقترحا ما وصفه بخريطة معيارية تتكون من حكامة (governance) + ضبط (regulation) + أخلاق (ethics) أي باختصار (E + R + G). يشير الضبط إلى الأفعال القانونية وغير القانونية لكنه لا يقول شيئًا عما يمكن أن تكون عليه الأفعال الجيدة والأفضل للحصول على مجتمع أفضل، وهذه هي مهمة الأخلاق (من ناحية القيم والتفضيلات)، والحكامة الجيدة (من ناحية الإدارة) .
وبخصوص سؤال هل يمكن للآلات الذكية (حالة السيارة ذاتية القيادة) أن تتخذ قرارات أخلاقية (سواء زرعت فيها –المقاربة التنازلية – أو تعليمها لها عبر تقليد السلوك البشري – المقاربة التصاعدية-)؟ أجاب عالم الاجتماع أميتاي إتزيوني(Amitai ETZIONI)(1929 – 2023) (في دراسة مشتركة مع أورين إتزيوني(Oren ETZIONI) ) أنه يتعين الرجوع إلى الطريقتين المعتمدتين لتطبيق القيم الأخلاقية والاجتماعية في العالم البشري (الانفاذ القانوني كاختيارات يفرضها المجتمع ويعاقب عليها جسديا، والاختيارات الشخصية التي تعرض مخالفها للعار أو التأديب)، ثم كيف يمكن إدخال هذه القيم إلى عالم الآلات الذكية؟ وأضاف، من خلال دراسة حالة السيارة ذاتية القيادة، أنه رغم قوة حجج المدافعين عن أخلاقيات الآلة فإن نظم الآلات الذكية سوف تحتاج إلى الالتزام بالقوانين، المتفق عليها بشكل جماعي، وسيتعين على مالكيها، ومبرمجيها، ومصنعيها أن يتحملوا المسؤولية عن أي ضرر يحدث. والقرارات الأخلاقية التي لا ينص عليها القانون تُترك للأفراد أو سياراتهم. مما يعني أن الروبوتات الأخلاقية (مثلا) لا تعالج سوى المجالات التي تركها القانون مفتوحة .
ونظرًا لانتشار نظم الذكاء الاصطناعي تزايدت الضغوط لتصميمها وحكامتها لتكون مسؤولة وعادلة وشفافة، ولهذا الغرض اقترحت الباحثة في الأنثروبولوجيا والمهتمة بالذكاء الاصطناعي كورين كاث (Corinne CATH) ثلاثة مجالات بحثية محددة، وهي: (1)”الحكامة الأخلاقية” (بالتركيز على القضايا الأخلاقية الأكثر أهمية التي يثيرها مثل قضايا العدالة والشفافية والخصوصية)؛ و(2) “قابلية الشرح وقابلية التفسير”(بمنح الأفراد، مثلا، الحق في الحصول على تفسير إذا اتخذت الخوارزمية قرارًا بشأنهم)؛ و(3) “التدقيق الأخلاقي” (لفحص مدخلات ومخرجات الخوارزميات بحثًا عن التحيز والأضرار) . وبالنسبة لفاطمة رومات لمواجهة الاستخدام الضار للذكاء الاصطناعي فإن أخلاقيات الذكاء الاصطناعي هي الرد على معضلة جديدة تتطلب من المجتمع الدولي تقديم استجابة قانونية. ولتأكيد دعواها عرضت مجموعة من المبادرات عبارة عن توصيات قدمت بالخصوص في العامين 2018 و 2019 على مستوى أوربا، ومنظمة التعاون والتنمية الاقتصادية، والأمم المتحدة (اليونسكو)، ومجموعة العشرين (G20)، وافريقيا. لتخلص إلى أن الذكاء الاصطناعي يسهل إنشاء نظام دولي جديد، وهو ما يدل عليه السباق نحو الذكاء الاصطناعي في العديد من المجالات والاستثمار الكبير للدول في هذه التقنيات. ومن آثار ذلك أن القانون الدولي العام سوف يتأثر أيضًا بالتغيرات المستقبلية المتعلقة به .
وأكد الباحث في القانون سيمون تشسترمان (Simon CHESTERMAN) (1973 -) على أن الذكاء الاصطناعي يغير الحياة الحديثة مما يطرح سؤال كيف يمكن تكييف الأدوات القانونية الحالية مع البيئة الجديدة؟ والحجة الأساسية هي أن الضبط (بمعنى السيطرة العامة) يتطلب مشاركة فعالة من جانب الدول. ومع ذلك، فإن خصائص الذكاء الاصطناعي – السرعة، والاستقلالية، والعتامة – تجعل مسألة ضبطه وتنظيمه مستحيلة على أي دولة أن تواجهها بمفردها. كما أن الدول التي تقف في طليعة تطوير الذكاء الاصطناعي، كالصين والولايات المتحدة، والتي تتمتع بأكبر قدر من النفوذ لوضع معايير عالمية بشأنه في الوقت الحاضر لديها أقل الاهتمام بالقيام بذلك. وإحدى الحجج الرئيسية في الكتاب هي أن المسؤولية الأساسية عن التنظيم يجب أن تقع على عاتق الدول. وتلعب شركات التكنولوجيا بالفعل دورا كبيرا في تحديد المعايير؛ ومما لا شك فيه أن هذا الدور سوف يتوسع مع زيادة تعقيد نظم الذكاء الاصطناعي. ومع ذلك فإن شرعية تلك المعايير ودمجها في البنيات التنظيمية سوف تكون أعظم، وسوف تكون أكثر فعالية، عندما يتم اعتمادها من قِبَل مؤسسات خاضعة للمساءلة العامة .
وعلى ضوء هذا الجدل ستحاول الدراسة عرض لأهم القضايا التي يثيرها الذكاء الاصطناعي في علاقة بإمكانات وحدود ضبطه لخدمة المجتمع والأفراد، وفي نفس الآن تشجيع الابداع والابتكار المفيد للبشرية، وما هو الإطار المعياري المناسب: هل الأخلاق أم القانون الوضعي؟ وعلى خلاف الاتجاه المنافح عن “أخلاقيات الآلة” أو “أخلاقيات البيانات”، ومنح السلطة الضبطية للفاعلين بعيدا عن الدولة، فإن الدراسة تدافع عن الدعوى القائلة بأن “الأخلاق لا تكفي”، وأن هناك حاجة إلى تدخل الدولة (في إطار دولي تعاوني أو في إطار وطني)، وهو ما ستبينه محاولات وضع أطر قانونية ملزمة (خاصة في التجربة الأوربية).
ثانيا: الأخلاق وضبط الذكاء الاصطناعي: الفرص والحدود
يعود التفكير في “القيم الإنسانية” التي ينبغي تجسيدها في التكنولوجيا إلى نوربرت وينر (Norbert WIENER)(1894 – 1964) (عالم الرياضيات الأمريكي) عندما قام بتأليف كتاب “علم التحكم الآلي” (Cybernetics )، بعد فترة وجيزة من الحرب العالمية الثانية، مشيرا إلى التحديات الاجتماعية والأخلاقية المرتبطة بهذه التطورات، وخاصة وقع تكنولوجيا المعلومات والاتصالات على حقوق الإنسان الأساسية .
وتحيل الدراسات كذلك إلى قوانين إسحاق أسيموف (Isaac ASIMOV)(1920 – 1992) الثلاثة للإنسان الآلي (Robotics) والتي قدمها في العام 1950 . وقد ورد في عام 2007 أن كوريا كانت تدرس استخدام هذه المبادئ كأساس لميثاق أخلاقيات الروبوتات .
وتذهب بعض الدراسات إلى أن “أخلاقيات الآلة” تطرح بعض الأسئلة الأساسية تتعلق ب: أولا “الإنتاجية الأخلاقية”: إلى أي مدى يمكن تطوير آلات “مسؤولة أخلاقيا” على نحو ما – أي قادرة على التصرف بطرق تتوافق مع أنواع المعايير التي نطلبها أخلاقيا من سلوك العناصر البشرية؟ وثانيا “التقبل الأخلاقي”: إلى أي مدى يمكن أن يكون هناك آلات لها “مصالح أخلاقية” أو “سلع أخلاقية” خاصة بها – أي أن لها خصائص تؤهلها ككائنات على البشر واجبات أخلاقية تجاهها؟
كما طرح السؤال: إذا كنت ترغب في وضع الأخلاقيات في الآلة، فكيف ستفعل ذلك؟ وتتمثل إحدى الطرق في تقييد تصرفات الآلة لتجنب النتائج غير الأخلاقية، حيث تتصرف الآلة بشكل أخلاقي لأن وظائفها الداخلية تعمل ضمنا على تعزيز السلوك الأخلاقي (على سبيل المثال الطيار الآلي للطائرة، فإذا وعدت شركة طيران ركاب الطائرة بوجهة ما، فيجب أن تصل الطائرة إلى تلك الوجهة في الوقت المحدد وبأمان. هذه هي النتائج الأخلاقية التي يصممها المهندسون في الطيار الآلي) .
وترتبط القضايا الأخلاقية المتعلقة بنُظم الذكاء الاصطناعي، حسب اليونسكو، بجميع مراحل “دورة حياة نظام الذكاء الاصطناعي” التي تمتد من مرحلة البحث بشأن النظام المعني إلى مراحل تصميمه وإعداده وتطويره، ثم إلى مرحلة نشره واستخدامه، وتشمل صيانة النظام وتشغيله وتسويقه وتمويله ورصده وتقييمه واعتماده وإنهاء استخدامه ووقف العمل به وتفكيكه. ويبرز دور “الجهات الفاعلة المعنية بالذكاء الاصطناعي” أي كل من يشارك في مرحلة واحدة على الأقل من مراحل دورة حياة أي نظام من نُظم الذكاء الاصطناعي، وقد تشير كلمة الجهة إلى الأشخاص الطبيعيين والاعتباريين كالباحثين والمبرمجين والمهندسين وعلماء البيانات والمستخدمين النهائيين ومؤسسات قطاع الأعمال والجامعات والكيانات العامة والخاصة .
لكن، من الصعب الإجابة عن سؤال ما إذا كانت أخلاقيات الآلة موجودة أو قد تكون موجودة في المستقبل إذا لم نتمكن من الاتفاق على ما يمكن اعتباره أخلاقيات الآلة؟ .
وجاءت أهم المبادرات نحو صياغة المبادئ الأخلاقية المتعلقة بالذكاء من الصناعة والمهنيين وجمعياتهم، فعلى سبيل المثال :
*- أثار مشروع Maven (تطوير أنظمة ذكاء اصطناعي لمراقبة الطائرات بدون طيار في عمل مشترك بين Googleوالبنتاغون) (بين 2017 و2021) احتجاجًا كبيرًا بين موظفي الشركة، الذين قدموا التماسًا لقيادة الشركة لإنهاء مشاركتهم في البرنامج. وردا على هذا الطلب أصدر سوندار بيتشاي(Sundar PICHAI)، الرئيس التنفيذي للشركة ، مجموعة عامة من سبعة “مبادئ توجيهية” مصممة لضمان أن يكون عمل الشركة في مجال الذكاء الاصطناعي مسؤولاً اجتماعيا .
-* وقبل ذلك ، في العام 2016، نشر معهد مهندسي الكهرباء والإلكترونيات (Institute of Electrical and Electronics Engineers) (IEEE)(كأكبر اتحاد للمهندسين في العالم. ويقع مقره الرئيس في الولايات المتحدة) المبادئ التوجيهية المطبقة على أنظمة الذكاء الاصطناعي ومعالجة القضايا الاجتماعية والأخلاقية التي يثيرها الذكاء الاصطناعي، أي ما يسمى ب”التصميم المتوافق أخلاقيًا” (يسمى “الأخلاقيات حسب التصميم”)، وهي موجهة كدليل للأخلاقيات في المقام الأول لمطوري ومبرمجي أنظمة الذكاء الاصطناعي . ويتكون “التصميم المتوافق أخلاقيًا” من مبادئ عامة تحدد القيم التي سيتم تنفيذها في أنظمة التعلم من قبل المصممين .
*-وفي الفترة من 5 إلى 8 يناير 2017 انعقد بكاليفورنيا الأمريكية مؤتمر أسيلومار (نسبة إلى المكان الذي انعقد فيه المؤتمر) حول “الذكاء الاصطناعي المفيد” (Beneficial AI) من تنظيم معهد مستقبل الحياة (Future of Life Institute))(FLI) بمشاركة مائة (100) شخصية وباحث مؤثر في الاقتصاد والقانون والأخلاق والفلسفة لاستكشاف وصياغة مبادئ الذكاء الاصطناعي المفيد. وكانت النتيجة إنشاء مجموعة من المبادئ التوجيهية لأبحاث الذكاء الاصطناعي – مبادئ أسيلومار الـ 23 للذكاء الاصطناعي – .
وعلى مستوى المنظمات الغير الحكومية أطلقت منظمة العفو الدولية ومنظمة الوصول الآن (Access Now) ، إلى جانب العديد من المنظمات الشريكة ، في مايو 2018، “إعلان تورونتو بشأن حماية الحق في المساواة وعدم التمييز في نظم التعلم الآلي”. يؤكد الإعلان في تصديره على أن غايته، مع تقدم خطاب “الأخلاقيات”، هي التأكيد على مركزية مجموعة قوانين ومعايير حقوق الإنسان العالمية والملزمة والقابلة للتنفيذ، والتي تحمي الحقوق وتوفر إطارًا متطورًا للانتصاف. وتقع على عاتق الدول التزامات بتعزيز وحماية واحترام حقوق الإنسان. ويتحمل القطاع الخاص، بما في ذلك الشركات، مسؤولية احترام حقوق الإنسان في جميع الأوقات .
وعلى مستوى الأمم المتحدة تعتبر توصية اليونسكو “الخاصة بأخلاقيات الذكاء الاصطناعي”(التي تم اعتمادها على هامش الدورة 41 للمؤتمر العام لليونسكو المنعقد في نونبر 2021 بباريس.) الأخلاقيات أُسساً مرنة للتقييم المعياري والتوجيه المعياري لوسائل تكنولوجيا الذكاء الاصطناعي، وتستند إلى وجوب صون كرامة الإنسان، ووجوب ضمان السلامة والرفاهية، ووجوب درء الضرر باعتبارها البوصلة التي يجب الاسترشاد بها، وباعتبارها مبادئ راسخة في أخلاقيات العلوم والتكنولوجيا .
وحددت اليونسكو شرعة أخلاقيات العلوم والتكنولوجيا (وتشمل الإنتاج والنقل والتوطين والتسخير والاستخدام) في الأمانة والموضوعيــة والنزاهــة والصــدق، واحتــرام كرامــة الإنسان، والرفــق بالحيــوان وحفــظ وحمايــة البيئــة، والمنفعــة وعــدم الإضرار، والعدالــة وحمايــة الحقــوق، والحريــة، والانفتاح والتواصــل المنتــج. وحددت المسـؤوليات الأخلاقية في مسؤوليات الحكومات، ومسؤوليات المؤسسات العاملة في إنتاج العلوم والتكنولوجية، ومسؤوليات الأفراد المشتغلين بالعلم (الباحثين والعلميين والمدربين ومساعدي المدربين والفنيين والطلبة)، ومسؤوليات الجهات الممولة للعلوم والتكنولوجيا .
وعلى المستوى الأوروبي قدمت المفوضية الأوروبية، في 9 مارس 2018، “إعلان بشأن الذكاء الاصطناعي والروبوتات والنظم “المستقلة”، مؤكدا على تسعة مبادئ للذكاء الاصطناعي، وهي : عدم انتهاك الكرامة الإنسانية، والاستقلالية، والمسؤولية، والمساواة، و الديمقراطية، ودولة القانون، والأمن والسلامة و السلامة الجسدية والعقلية، وحماية البيانات والخصوصية، وضمان الاستدامة لاستمرار ازدهار البشرية والحفاظ على بيئة مناسبة للأجيال القادمة .
وفي نفس العام اعتمدت اللجنة الأوروبية المعنية بفعالية العدالة “الميثاق الأخلاقي الأوروبي لاستخدام الذكاء الاصطناعي (بمناسبة الدورة 31 للجنة بمدينة ستراسبورغ الفرنسية أيام 3 و4 دجنبر 2018) ليوفر إطارًا من المبادئ التي تهدف إلى توجيه صانعي السياسات والقانونيين والعاملين في مجال العدالة في إدارة التطور السريع للذكاء الاصطناعي في العمليات القضائية الوطنية .
وفي أبريل 2019 وضع فريق الخبراء المستقل رفيع المستوى المعني بالذكاء الاصطناعي، الذي أنشأته المفوضية الأوروبية في يونيو 2018، “المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الجدير بالثقة” التي حددت جميع أصحاب المصلحة المشاركين في دورة حياة نظم الذكاء الاصطناعي. وركزت على “المصداقية” و”الثقة “. ولا بد من احترام الخصائص الثلاث للذكاء الاصطناعي الجدير بالثقة، وهي: “ذكاء اصطناعي شرعي”(IA licite)، وذكاء اصطناعي أخلاقي (IA éthique)، وذكاء اصطناعي قوي (IA robuste) (فنيا واجتماعيا بمراعاة السياق والبيئة التي يعمل فيها). وتقترح أربعة مبادئ: احترام استقلالية الإنسان، ومنع الضرر، ومبدأ العدالة كإنصاف، ومبدأ قابلية الشرح لتعزيز ثقة المستخدم والحفاظ عليها .
وفي فبراير 2020، نشرت المفوضية الأوروبية كتاب أبيض (Livre Blanc) يحدد “المبادئ التوجيهية الرئيسية لتوصية منظمة التعاون الاقتصادي والتنمية: الذكاء الاصطناعي: نهج أوروبي يركز على التميز والثقة”. مؤكدا على أن “الذكاء الاصطناعي هو تقنية استراتيجية تقدم العديد من الفوائد للمواطنين والشركات والمجتمع ككل، بشرط أن تكون أخلاقية ومستدامة ومتمحورة حول الإنسان وتحترم القيم والحقوق الأساسية” .
و في أكتوبر 2020، ومن أجل بناء الثقة في الأنظمة القائمة على الذكاء الاصطناعي، صوت البرلمان الأوروبي على ثلاثة قرارات تحتوي على توصيات موجهة إلى المفوضية الأوروبية بشأن: الجوانب الأخلاقية للذكاء الاصطناعي ، ونظام المسؤولية المدنية ، وحقوق الملكية الفكرية.
وتعد التوصية بشأن الذكاء الاصطناعي أول معيار حكومي دولي بشأن الذكاء الاصطناعي – اعتمدها مجلس منظمة التعاون الاقتصادي والتنمية (OCDE) في اجتماعه على المستوى الوزاري في 22 مايو 2019، بناءً على اقتراح من لجنة سياسات الاقتصاد الرقمي (CPEN) – وتهدف إلى تحفيز الابتكار وتعزيز الثقة في الذكاء الاصطناعي من خلال الترويج لمقاربة مسؤولة لتقديم ذكاء اصطناعي جدير بالثقة، مع ضمان احترام حقوق الإنسان والقيم الديمقراطية. وفي يونيو 2019، في قمة أوساكا، رحب قادة مجموعة العشرين بمبادئ مجموعة العشرين بشأن الذكاء الاصطناعي، المستمدة من توصية منظمة التعاون الاقتصادي والتنمية. تمت مراجعة التوصية من قبل مجلس منظمة التعاون الاقتصادي والتنمية في 8 نوفمبر 2023 لتحديث تعريفها لـ “نظام الذكاء الاصطناعي” .
ومن جهتها اعتمدت مجموعة السبع (التي تضم كندا وفرنسا وألمانيا وإيطاليا واليابان والمملكة المتحدة والولايات المتحدة الأمريكية) رؤية شارليفوا(Charlevoix) المشتركة لمستقبل الذكاء الاصطناعي، بكندا، في يونيو 2018. وتحتوي هذه الرؤية على إثني عشرة (12) التزامًا، تتعلق بالنهوض بالذكاء الاصطناعي المرتكز على الإنسان عبر حماية الخصوصية الشخصية والشفافية .
وعلى المستوى الافريقي أعلن “إعلان شرم الشيخ” (في مصر) – في 26 أكتوبر 2019- عن إنشاء فريق عمل معني بالذكاء الاصطناعي بناءً على المبادرات الحالية وبالتعاون مع المؤسسات الأفريقية لدراسة: إيجاد موقف أفريقي مشترك بشأن الذكاء الاصطناعي، و تطوير إطار لبناء القدرات على مستوى أفريقيا، وإنشاء مركز أبحاث للذكاء الاصطناعي لتقييم المشاريع والتوصية بها للتعاون فيها بما يتماشى مع أجندة 2063 وأهداف التنمية المستدامة .
ونتيجة هذا الزخم أنه في العام 2020 تم رصد اعتماد أكثر من مائتي نص أخلاقي ،تنوعت مصادرها بين الشركات والمجتمع المدني والحكومات والمنظمات الحكومية الدولية وجميع أصحاب المصلحة.
لكن، رغم هذه الجهود فإن الأخلاق، كما أكدت بعض الدراسات، تفتقر إلى آلية صارمة للتنفيذ فهناك عدد قليل من الشركات تهيمن على صناعة الذكاء الاصطناعي الناشئة، وسوف تفضل المعايير الأخلاقية على القواعد الملزمة لسبب واضح وهو أنه لا توجد عقوبات ملموسة مرتبطة بتغيير الأخلاقيات أو تجاهلها إذا دعت الضرورة . وعندما يُترك القطاع الخاص للتنظيم الذاتي، فمن المرجح أن تنشأ احتكاكات بين الشركات وحكومات الدول. ومن الأمثلة الواضحة على ذلك انتقادات الدول الموجهة لبعض الفاعلين بشأن تعاملهم مع المحتوى عبر الإنترنت، مثل الأخبار المزيفة والبث المباشر لحوادث العنف، أو مدى تعرض خوارزمياتها للتلاعب والتحيز .
وتبعا لذلك، وبعد تحديده لبعض المبادئ التوجيهية الأخلاقية التي تهدف إلى جعل الإنسان العاقل على اتصال مع الآلة العاقلة (إدارة عدم اليقين، والتوتر بين المساواة والسعادة) خلص رجل الدين الكاتوليكي والمهتم بالذكاء الاصطناعي پولو بينانتى (Paolo BENANTI) (1973-) إلى أن ” الأخلاق وحدها هشة. وكما تم دهس الكرامة الإنسانية من قبل الأنظمة الشمولية في القرن العشرين لأنها لم تكن محمية بأي حقوق، فإن أخلاقيات الذكاء الاصطناعي قد تصبح غير فعالة إذا لم تصبح سياسة ملزمة تحمي التعايش الفردي والاجتماعي” .
ونفس الرأي دافع عنه ثيلو هاجندورف(Thilo Hagendorf) (الباحث في مجال أخلاقيات الذكاء الاصطناعي)،في تحليله ومقارنته لاثنين وعشرين (22) مبدأ توجيهيًا أخلاقيا، بطرح سؤال: هل للمبادئ التوجيهية الأخلاقية تأثير فعلي على عملية صنع القرار البشري في مجال الذكاء الاصطناعي والتعلم الآلي؟ وكان جوابه هو: لا. والسبب أن أخلاقيات الذكاء الاصطناعي – أو الأخلاق بشكل عام – تفتقر إلى الآليات اللازمة لتعزيز مطالباتها المعيارية الخاصة. وبالنسبة إليه قد ينطوي إنفاذ المبادئ الأخلاقية على خسائر في السمعة في حالة سوء السلوك، أو قيود على العضوية في بعض المنظمات المهنية. ومع ذلك، فإن هذه الآليات ضعيفة إلى حد ما ولا تشكل أي تهديد واضح. كما أنه سبب يجعل الأخلاق جذابة للغاية للعديد من شركات ومؤسسات الذكاء الاصطناعي. عندما تصوغ الشركات أو معاهد الأبحاث مبادئها التوجيهية الأخلاقية الخاصة، أو تدمج الاعتبارات الأخلاقية بانتظام في عملها في العلاقات العامة، أو تتبنى “التزامات ذاتية” ذات دوافع أخلاقية، فإن الجهود المبذولة لإنشاء إطار قانوني ملزم حقًا يتم تثبيطها باستمرار. وتعمل المبادئ التوجيهية الأخلاقية لصناعة الذكاء الاصطناعي على اقتراح أن الحكم الذاتي الداخلي في العلوم والصناعة كافٍ، وأنه لا توجد قوانين محددة ضرورية للتخفيف من المخاطر التكنولوجية المحتملة والقضاء على سيناريوهات الإساءة” .
مما يظهر الحاجة إلى تدخل الدولة عبر وضع قوانين ملزمة وعدم ترك هذه النظم لقانون الأسواق المفتوحة، فهل هناك قانون وضعي ملزم لضبط الذكاء الاصطناعي؟
ثالثا: الذكاء الاصطناعي والقانون الوضعي: من الفكرة إلى التطبيق
دفعت قدرة نظم الذكاء الاصطناعي على “تشكيل العالم على صورتها الخاصة إلى درجة تحدي الاحتكار المعياري” إلى بروغ اتجاهين: الاتجاه الأول يضم دعاة غياب قانون وضعي ملزم ففي جوابهم عن سؤال : هل يوجد حاليًا (أثير السؤال قبل 2020)، في أوروبا أو في أي مكان آخر، قانون وضعي يحكم ما هو المقصود بالذكاء الاصطناعي؟ ثم التأكيد على أنه “تجدر الإشارة بالفعل إلى أنه يبدو للوهلة الأولى أنه يوجد في الوقت الحالي قانون غير ملزم أكثر من القانون الوضعي الذي يحكم القضايا القانونية المتعلقة بالذكاء الاصطناعي. و الاتجاه الثاني هم المدافعون عن اتجاه الدول إلى وضع قوانين صلبة ومرنة لمواجهة هذه التحديات: فعلى مستوى القانون الدولي العام، يوجد بالفعل عدد كبير من قواعد القانون التي تنطبق على الذكاء الاصطناعي، مثل المعايير الأساسية التي تحكم حقوق الإنسان (حظر التمييز والتعسف، وحماية الحرية الفردية، وحرية التعبير، وحرية الرأي السياسي، والحقوق الإجرائية، وحماية البيانات) . وهناك اتفاقيات محددة، خاصة في مجال حماية البيانات، والتي تغطي أيضًا أنظمة الذكاء الاصطناعي. أحد الأمثلة على ذلك هو اتفاقية 108+ لمجلس أوروبا . كما تتم داخل أروقة الأمم المتحدة العديد من العمليات الجارية المتعلقة بالإطار التنظيمي العام للفضاء الرقمي، ولا سيما داخل فريق الخبراء الحكوميين التابع لها (خاصة مجموعة الخبراء بشأن تعزيز السلوك المسؤول للدولة في الفضاء السيبراني في سياق الأمن الدولي، ومجموعة العمل المفتوحة العضوية المعنية بالتقدم في الحوسبة والاتصالات السلكية واللاسلكية في سياق الأمن الدولي)، كما يجري العمل على الذكاء الاصطناعي في مجلس حقوق الإنسان ، بهدف ضمان احترام هذه الحقوق عند استخدام أنظمة الذكاء الاصطناعي .
لكن، وعلى الرغم من وجود العديد من المعايير المطبقة بالفعل على الذكاء الاصطناعي، تميل المناقشات الدولية نحو اعتماد أدوات تنظيمية جديدة، ويتم افتراض العديد من المبادئ التي تنطبق على استخدام الذكاء الاصطناعي. يمكن تلخيص هذه المبادئ في خمسة مبادئ أساسية : (1)شفافية نظم الذكاء الاصطناعي؛ و(2)الإنصاف والحياد ( لضمان ألا يميز استخدامها ضد أفراد ومجموعات سكانية معينة)؛ و(3)ضمان حماية معينة وألا تسبب ضررًا ؛ و(4)المسؤولية (من المسؤول عن الضرر الذي قد تسببه ؟)؛ و(5)حماية المجال الخاص (بشكل خاص حماية وأمن البيانات).
تبعا لذلك تذهب بعض الدراسات إلى أنه سيقع على عاتق المشرع، تحديد موقفه القانوني في العديد من هذه القضايا، سواء لحماية “الذكاء الاصطناعي”، أو حماية “المجتمع”، عبر تعديل القواعد القانونية بما يتوافق مع هذه المتغيرات بشكل يجعل تشريعاته الوطنية تتوافق مع نظيراتها من الدول السباقة في هذا المجال، من خلال “وضع سياسة تشريعية خاصة مؤطرة للذكاء الاصطناعي في البيئة الرقمية، تترجم من خلال مشروع قانون مؤطر للذكاء الاصطناعي” .
وقد سبق لتقرير اليونسكو “أصوات متعددة عالم واحد” أن أكد أهمية تدخل الدولة، في قطاع الاتصال، وخاصة عبر الوظائف الآتية: التوجيه، المراقبة وتنظيم أنشطة الاتصال. ولضمان تحقيق هذه المهام، فإنها توظف عدة وسائل من بينها “تنظيم، عن طريق التشريع، الحقوق والالتزامات في مختلف ميادين الاتصال” . ويضاف إلى ذلك أسباب أخرى تتعلق بطبيعة عمل الدولة تظهر على ثلاثة مستويات : (1)من الناحية الإيديولوجية والسياسية: تدخلها يتعين أن يكون شاملا لكل القطاعات والميادين التي تكون هناك ضرورة للتدخل فيها. و(2) من الناحية الاقتصادية والمالية: هناك ضرورة لتدخل الدولة للاستثمار في هذا القطاع الاقتصادي المثمر. و(3) من الناحية الأخلاقية: يجب تدخل الدولة باعتبارها الساهر على حماية المجتمع، وحماية ثقافته وقيمه.
وتكمن الحاجة إلى قانون الدولة (القانون الوضعي )في عدة أسباب : (1) عواقب ترك مثل هذه التكنولوجيا غير المستقرة، مثل الذكاء الاصطناعي، دون ضمانات. و(2) أخذ العبرة من جهود إدارة المخاطر في البيئات الصناعية أو محطات الطاقة النووية. ورغم أن الأمر استغرق ما يقرب من قرن من الزمان لتبني المخاطر النووية، فإن القانون مطالب بتوفير استجابات أمنية مماثلة في غضون عشر سنوات فقط. و (3) نظم الذكاء الاصطناعي لديها نصيبها من المشاكل التي يجب معالجتها على وجه السرعة.
كما أن الخدمة التي سيقدمها الإطار القانوني فهي تحديد دور الجهات الفاعلة المختلفة، وهي: (1) “مراقبو النظم” (هيئات المراقبة المستقلة مثل لجان الخبراء أو منظمي القطاع أو مدققي الحسابات من القطاع الخاص)؛ و(2)مطورو النظم (من القطاعين العام والخاص)؛ و(3) مشغلو النظم ومستخدموها (لتحفيز الموردين والبائعين لتطبيقات الذكاء الاصطناعي على الامتثال للإطار القانوني المستقبلي) .
وتحدثت بعض الدراسات عن تقسيم مستخدمي الذكاء الاصطناعي داخل القانون من الناحية النظرية إلى ثلاثة فاعلين: (1) مديرو القانون (مثل المشرع والقاضي والشرطي)، ولديهم القدرة على تفسير القانون وتطبيقه رسميًا، ويتمتعون بسلطة الدولة وعقوباتها التي تقف وراءهم. و(2) وممارسو القانون (مثل المحامي). و(3) ومستعملو القانون (مثل المواطن العادي والشركات) الذين يمتثلون للقانون .
ولضبط أدوار كل فاعل، وبالنظر إلى حدود الالتزام بالقواعد الأخلاقية غير الملزمة، ظهرت الحاجة الملحة إلى سن قانون وضعي ملزم، ففي أوربا بدأت المفاوضات حول قانون الذكاء الاصطناعي في أبريل 2021، وتأثرت لاحقا بظهور ChatGPT في عام 2022 (منشئ النصوص من شركة OpenAI في كاليفورنيا، القادر على كتابة المقالات أو القصائد أو الترجمات في ثوانٍ معدودة)، وقد اختتمت يوم الجمعة ثاني فبراير 2024 . ودخل قانون الذكاء الاصطناعي حيز النفاذ في نهاية مايو 2024.
وعلى الرغم من أن هذا القانون أوربي، فإن آثاره ستتجاوز الحدود الجغرافية للاتحاد الأوروبي. الذي يعد أحد أكبر الأسواق في العالم. وإذا كانت البلدان الأخرى لا تريد أن تفقد الوصول إلى هذه السوق، فسيتعين عليها الامتثال لهذه القواعد. كما أن ما يسمى “تأثير بروكسل” سيجعل من المرجح جدًا أن تعمل أطر الاتحاد الأوروبي كنموذج للوائح الأخرى في جميع أنحاء العالم، كما كانت الحال مع اللائحة العامة لحماية البيانات (GDPR)، والتي ارتقت اليوم إلى مستوى عالمي .
ويحدد القانون الأوروبي للذكاء الاصطناعي المخاطبين بأحكامه وهم : “المشغل” ويضم “المورد” و”المورد الصغير” الذي يمثل مؤسسة صغيرة، و”المستخدم”، و”الوكيل”، و”المستورد”، و”الموزع”، و “السلطة الوطنية المختصة”، التي تضم “السلطة المبلغة” (المسؤولة عن إنشاء وتنفيذ الإجراءات اللازمة لتقييم وتعيين وإخطار هيئات تقييم المطابقة ومراقبتها)، و”هيئة مراقبة السوق”، و”سلطات إنفاذ القانون”(مختصة بمنع الجرائم الجنائية أو كشفها والتحقيق فيها وملاحقتها قضائياً أو تنفيذ العقوبات الجنائية)؛ و”سلطة المراقبة الوطنية”.
وبعد تحديد المخاطبين بأحكامه حدد القانون، في المادة الخامسة (5)، “ممارسات الذكاء الاصطناعي المحظورة”. وصنف نظم الذكاء الاصطناعي على أنها نظم عالية المخاطر (من المادة 6 إلى 15): أي التي من شأن طرحها في السوق أو وضعها في الخدمة أو استخدامها أن ينتج عنها “خطر الإضرار بالصحة والسلامة، أو خطر التأثير السلبي على الحقوق الأساسية، وهو خطر يعادل أو يفوق خطر الضرر أو التأثير السلبي، بالنظر إلى خطورته واحتمال حدوثه”. وهنا يؤكد على التدابير الآتية: نظام إدارة المخاطر (المادة 9)، والبيانات وحكامتها (المادة 10)، والشفافية وتوفير المعلومات للمستخدمين (المادة 13)، والسيطرة البشرية (المادة 14)، والدقة والمتانة والأمن السيبراني (المادة 15).
وأكد القانون على التزامات موردي أنظمة الذكاء الاصطناعي عالية المخاطر (المادة 16) بالتأكد من امتثال أنظمة الذكاء الاصطناعي عالية المخاطر الخاصة بهم للمتطلبات المنصوص عليها في المواد (من 6 إلى 15)؛ إلى جانب الالتزام ب: إنشاء نظام لإدارة الجودة يضمن الامتثال لهذه اللائحة (وفقاً للمادة 17)؛ والالتزام بإنشاء الوثائق الفنية (المادة 18)؛ والتأكد من أن النظم تخضع لإجراءات تقييم المطابقة المعمول بها وفقًا للمادة 43 (المادة 19)؛ والاحتفاظ بالسجلات التي يتم إنشاؤها تلقائيًا بواسطة نظم الذكاء الاصطناعي عالية المخاطر (المادة 20)؛ واتخاذ الإجراءات التصحيحية اللازمة وإبلاغ الموزعين بنظام الذكاء الاصطناعي عالي الخطورة المعني، وعند الاقتضاء، الوكيل والمستوردين وفقًا لذلك (المادة 21)؛ وواجب الإبلاغ عندما يشكل نظام الذكاء الاصطناعي عالي الخطورة خطراً (المادة 22)؛ والتعاون مع السلطات المختصة بناءً على طلب من سلطة وطنية مختصة بتزويدها بجميع المعلومات والوثائق اللازمة لإثبات امتثال نظام الذكاء الاصطناعي عالي المخاطر( المادة 23). وحددت المواد الأخرى التزامات كل من الشركات المصنعة للمنتج (المادة 24)، والوكيل (المادة 25)؛ والمستورد (المادة 26)؛ والموزع (المادة 27)؛ والمستخدم (المادة29).
لكن، رغم أهمية هذا القانون، فقد كان موضوع عدة انتقادات فذهب البعض إلى أنه يتميز بالعديد من الإعفاءات واسعة النطاق والمثيرة للقلق، والتي أثارت جدلاً سياسيًا ساخنًا بين المشرعين في 5 أكتوبر 2022. في الواقع، كانت الأقسام الخاصة بالحظر ونماذج الذكاء الاصطناعي للأغراض العامة (على سبيل المثال ChatGPT) هي نقاط الخلاف الرئيسية التي كادت تمنع الاتفاق النهائي بين الدول الأعضاء في الاتحاد الأوروبي. وعلى الرغم من التوصل إلى اتفاق سياسي في أكتوبر 2023، عملت ألمانيا وإيطاليا وفرنسا في نوفمبر وديسمبر 2023 من أجل إزالة معظم الأحكام المتعلقة بالذكاء الاصطناعي العام. بل هددت بالتصويت ضد القانون بأكمله إذا تُركت هذه الأحكام دون تغيير. وكانت معارضتهم مدفوعة بشدة بجهود الضغط التي بذلتها شركتا -Mistral AI –الفرنسية – وAleph Alpha- الألمانية – وهما الشركتان اللتان كان من المأمول على نطاق واسع أن تنافسا OpenAI وMicrosoft وأن تقدما بديلاً للاتحاد الأوروبي لخدمات ومنتجات الذكاء الاصطناعي العام . وعلى الرغم من التوصل إلى اتفاق سياسي بالفعل، في أوائل ديسمبر 2023، تسببت الأحكام المتعلقة ب”القياسات الحيوية” (Biometrics) (تتكون من كلمتين يونانيتين (bio) وتعني الحياة و (metrics) وتعني القياس) لإنفاذ القانون في تجدد المناقشات. كانت فرنسا في طليعة الدول التي تبنت هذا التوجه، وربما كان الدافع وراء ذلك هو خططها لاستضافة الألعاب الأولمبية في عام 2024 ورغبتها في استخدام برامج الكشف عن التهديدات المدعومة بالذكاء الاصطناعي لأسباب تتعلق بالسلامة. وتخشى بعض منظمات المجتمع المدني أن تؤدي مثل هذه الاستخدامات إلى التوسع في القياسات الحيوية .
ومن بين علامات عدم الرضا عن القانون ، إلى جانب العناصر السابقة، ركزت دراسة ساندرا واتشر (Sandra Wachter) على ما يلي :
*- الاقتصار على التقييم الداخلي لمستويات المخاطر قد يسمح للمزودين بالادعاء بأن أنظمتهم وخدماتهم لا تسبب مخاوف تتعلق بالحقوق الأساسية للإنسان. ومن شأنها كذلك أن تخلق عبئاً كبيراً على سلطة مراقبة السوق في أي دولة عضو (l’autorité de surveillance du marché) المنشأة بموجب المادة 65 وعلى المفوضية المسؤولة عن مراقبة فعالية التقييم وتغيير معاييرها بمرور الوقت. وهذه المقاربة تمنح للمزودين إمكانية طرح النظم في السوق بمجرد إجراء التقييم، ودون الحاجة إلى انتظار الموافقة للتحقق من مستوى مخاطر نظمهم وخدماتهم. في حين، من منظور حقوق الإنسان، كان من الأفضل اتباع مقاربة واضحة تفترض مستويات المخاطر على أساس الاستخدامات المقصودة.
*- حقوق الإنسان والحقوق الأساسية لا تلزم القطاع الخاص بل وُضعت للحد من سلطات الجهات الفاعلة في الدولة. وبالتالي، فمن المشكوك فيه مدى فائدة تقييمات الحقوق الأساسية في التخفيف من مخاطر الذكاء الاصطناعي عالي المخاطر خارج القطاع العام.
*-إن النهج الشائع في التشريع الأوروبي هو وجود مقاييس تم إنشاؤها بواسطة اللجنة الأوروبية للتوحيد القياسي(the European Committee for Standardization) (CEN) واللجنة الأوروبية للتقييس الكهروتقني (European Committee for Electrotechnical Standardization) (CENELEC) ، التي تلعب دورًا سياسيًا مهمًا. وهي بصفتهما هيئات خاصة، لا تتمتع بشرعية ديمقراطية مباشرة كما إن أغلب أصحاب المصلحة في مجموعات العمل ذات الصلة هم ممثلو الصناعة مع إقصاء المجتمع المدني.
ويضاف إلى هذه الحدود قدرة القانون الوضعي على ضبط التطور العلمي لخدمة المجتمع، مما دفع ببعض الدراسات للحديث عن علاقات القوة بينهما؛ فعلى الرغم من أن العلم يبدو وكأنه جزء من عالم مختلف تمامًا عن عالم القانون وغير مرتبط به، إلا أنه في الواقع جزء من حركة القانون ، كما أدت العديد من الأحداث إلى زيادة التوتر بشكل كبير في العلاقة بينهما ، مما دفع للقول بأن القانون يصنعه المهندسون باختراعاتهم وليس رجال القانون بصيغهم القانونية .
خلاصة
حاولت الدراسة الاستدلال على فرضيتين تتعلق أولهما بقدرة الأخلاق على ضبط الذكاء الاصطناعي، وهي الأطروحة التي دافع عنها عدة فاعلين ووجدت صدى لها في وضع مجموعة من اللوائح والتنظيمات الأخلاقية، أحصت بعض الدراسات المئات منها، وخاصة الموضوعة من قبل الشركات الفاعلة في المجال، على أساس أن هذا الضبط الذاتي، كشكل من القانون المرن، من قبل الفاعلين سيمكن من حماية الابتكار وفي نفس الوقت حماية الأفراد والمجتمع. وعلى خلاف هذه الأطروحة دافع البعض، وعلى رأسهم الدول، على ضرورة الضبط القانوني الملزم، لأن الأخلاق، مهما كانت فعاليتها تبقى غير قادرة على حماية حقوق الأفراد وقيم المجتمع، مما فرض ضرورة سن قانون ملزم، وهو ما بدأت به دول الاتحاد الأوربي في وضع قانون الذكاء الاصطناعي في 2024 مما يبين بجلاء الطابع التطوري للقانون واندماجه الفوري في المعطى الاجتماعي كقانون “تكيفي” أو “سريع الاستجابة” ؛ فقد فرض عليه التكيف بالضرورة مع هذه التحولات إذا كان يريد أن يحافظ على قبضته على الجانب الكامل من العلاقات الاجتماعية التي تتطور في عالم سريع التطور.
مراجع الدراسة
اللغة العربية
– إبراهيم أولتيت، “جدلية العلاقة بين القانون الوضعي والتقدم العلمي”، في خديجة مضي، جليلة دريسي (تنسيق)،البحث العلمي ومساهمته في تطوير القانون وتنمية المجتمع، سلسلة كتاب البحث في الدراسات القانونية و السياسية المعاصرة “3”،ج 1، دار العرفان للطباعة و النشر و التوزيع، ط1، اكادير، 2024.
– محمد عرفان الخطيب، “الذكاء الاصطناعي والقانون – دراسة نقدية مقارنة في التشريعين المدني الفرنسي و القطري في ضوء القواعد الأوربية في القانون المدني للإنسالة لعام 2017 والسياسة الصناعية الأوربية للذكاء الاصطناعي والإنسالات لعام 2019″، مجلة الدراسات القانونية، مجلد 2020، المقال الرابع.
– محمد عرفان الخطيب، “أخلاقيات الذكاء الاصطناعي بين التبني الفعلي والتجميلي ؟!” دراسة نقدية في الفلسفة والتأصيل”، مجلة الدراسات القانونية، عدد 2022، المقال الأول.
– منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)، التوصية الخاصة بأخلاقيات الذكاء الاصطناعي، اعتمدت في 23تشرين الثاني – نوفمبر 2021، اليونسكو 2022، ص. 10.
– منظمة الأمم المتحدة للتربية والعلم والثقافة، شرعية أخلاقيات العلوم والتكنولوجيا في المنطقة العربية، اليونسكو، القاهرة، 2019، ص. 14-17.
اللغات الأجنبية
Ouvrages
– Harry SURDEN, “The ethics of Artificial intelligence in law: Basic question”, in Markus D.DUBBER (et al) (ed), Oxford Handbook of ethics of AI, Oxford University Press, 2020.
-Michael ANDERSON, Susan Leigh ANDERSON (Edited by), Machine Ethics, Cambridge university press, New York, First published, 2011.
– Raphael CANVAT, De l’intelligence artificielle dans la pratique du droit : réception en droit européen, incidence sur la profession d’avocat et éthique. Faculté de droit et de criminologie, Université catholique de Louvain, 2020.
-Sean Mc BRIDE (sous la dir…), Voix multiples un seul monde : Communication et société aujourd’hui et demain, Paris, UNESCO, 1980.
– Simon CHESTERMAN, We, the Robots? Regulating Artificial Intelligence and the Limits of the Law, University Printing House, Cambridge, First published, 2021.
– Stanley GREENSTEIN, Panagiotis PAPAPETROU & Rami MOCHAOURAB, “Embedding Human Values into Artificial Intelligence (AI)”, in Katja DE VRIES , Mattias DAHLBERG (Eds), Law, AI and Digitalisation, Författarna och Iustus Förlag AB, Uppsala 2022.
-Stuart J. RUSSEL, Peter NORVI, Artificial Intelligence A Modern Approach, Prentice Hall, 3rd edition, 2010.
Théses
-Relwende Aristide YAMEOGO, Risques et perspectives du big data et de l’intelligence artificielle : approche éthique et épistémologique. THÈSE Pour obtenir le diplôme de doctorat Spécialité Informatique Préparée au sein de l’Université du Havre Normandie, thèse soutenu publiquement le 28 septembre 2020.
Articles
– Amitai ETZIONI, Oren ETZIONI, “Incorporating Ethics into Artificial Intelligence”, the Journal of Ethics, Vol. 21, N°. 4 , 2017.
-Boris BARRAUD, « Les algorithmes au cœur du droit et de l’État postmodernes », Revue internationale de droit des données et du numérique, Vol 4, 2018.
-Burkard EBERLEIN, «L’Etat régulateur en Europe»، Revue française de science politique» , 49e année, N°2, 1999.
-Corinne CATH, “Governing artificial intelligence”, Philosophical Transactions: Mathematical, Physical and Engineering Sciences, Vol. 376, No. 2133, 2018 .
-Fatima ROUMATE, “Artificial Intelligence, Ethics and International Human Rights Law”, International Review of Information Ethics , Vol. 29 , N°3, 2021, pp. 3-7- Fatima ROUMATE, Artificial Intelligence, Ethics and International Human Rights Law, International Review of Information Ethics, Vol. 29, N°03,2021.
-Gaurav SHARMA, « A.I. Systems as Digital Public Goods: Exploring the Potential of Open-Source A.I.”, Observer Research Foundation, N° 612, 2023.
-Jack. M. BALKIN, “The Three Laws of Robotics in the Age of Big Data”, Ohio State Journal Law, Vol 78, N° 5, 2017.
Jacques CHEVALLIER, « La régulation juridique en question », Droit et société, Vol 3, N° 49, 2001.
Jocelyn MACLURE , Marie-Noëlle Saint-Pierre, « Le nouvel âge de l’intelligence artificielle : une synthèse des enjeux éthiques », Les Cahiers de propriété intellectuelle, Vol 30, No 3, 2018.
-Karim BENYEKHLEF et Jie ZHU, « Intelligence artificielle et justice : justice prédictive, conflits de basse intensité et données massives », Les Cahiers de propriété intellectuelle, Vol. 30, N° 3, 2018.
-Laure DASSONVILLE, « L’intelligence artificielle, un potentiel de réinvention des métiers administratifs », Revue Défense Nationale, Vol 5, N° 820, 2019.
Luciano FLORIDI , “Soft ethics, the governance of the digital and the General Data Protection Regulation”, Philosophical Transactions: Mathematical, Physical and Engineering Sciences , 28 November 2018, Vol. 376, No. 2133.
– Marie-Aimée PEYRON, « Droit, éthique et justice », Archives de philosophie du droit, 2018/1, Tome 60.
-Olivier KEMPF – Éloïse BERTHIER, « IA, explicabilité et défense », Les Cahiers de la Revue Défense Nationale, N° 820 ,2019.
-Pablo J. Olmo RODRIGUEZ, Artificial intelligence law : Applications, risks, et opportunities, Revista Juridca Upr, Vol. 90, N° 3 ,2021.
-Paul AMSELEK, «Le Droit, technique de direction publique des conduites humaines»، DROITS (Revue Française de théorie juridique)، N° 10 (Le thème: Définir le droit) , 1989.
Paolo BENANTI, « Algor-éthique : intelligence artificielle et réflexion éthique », traduit de l’italien par Alain THOMASSET, avec l’aide de l’IA DeepL, Revue d’éthique et de théologie morale, Vol 3, N° 307, 2020.
Sandra WATCHER , “Limitations and Loopholes in the EU AI Act and AI Liability Directives: What This Means for the European Union, the United States, and Beyond”, Yale Journal of Law & Technology Vol 26, N° 3, 2024.
Stanislas Renondin DE HAUTECLOCQUE, “L’intelligence artificielle : les différents chemins de la régulation”, Éthique publique, vol. 23, N° 2, 2021
-Stéphane BERNATCHEZ, Alexandra Bouchard and Sarah-Maude Bélanger, “Le droit de la gouvernance pour réguler la gouvernance algorithmique”, Éthique publique , Vol. 23, N° 2 , 2021.
Ryan CALO, “Artificial Intelligence Policy: A Primer and Roadmap”, UC Davis Law Review, Vol51, N°2, 2017.
-Thilo Hagendorf, “The Ethics of AI Ethics: An Evaluation of Guidelines”, Minds and Machines, Vole 30, 2020.
-VA GREIMAN, “Human Rights and Artificial Intelligence “, Journal of Information Warfare, Vol 20, N°1, 2021.
Rapports
-African union, Specialized technical committee on communication and information technologies (STC-CICT),third ordinary session, 22-26 October 2019, Sharm el sheikh, Egypt,2019 Sharm el Sheikh declaration Stic –Cict –
https://au.int/sites/default/files/decisions/37590-2019_sharm_el_sheikh_declaration_-_stc-cict-3_oct_2019_ver2410-10pm-1rev-2.pdf
– COMMISSION EUROPÉENNE , Déclaration sur L’intelligence artificielle, la robotique et les systèmes « autonomes », Direction générale de la recherche et de l’innovation, Groupe Européen D’Éthique des Sciences et des Nouvelles Technologies, Bruxelles, le 9 mars 2018,
-Commission européenne pour l’efficacité de la justice (CEPEJ), Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, Adoptée lors de la 31e réunion plénière de la CEPEJ (Strasbourg, 3-4 décembre 2018), Conseil de l’Europe, février 2019.
-Commission Européenne, Livre Blanc Intelligence artificielle Une approche européenne axée sur l’excellence et la confiance, Bruxelles, le 19.2.2020 COM(2020) 65 final.
-Commission Européenne, proposition de règlement du parlement européen et du conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sue l’intelligence artificielle) et modifiant certains actes législatifs de l’union, Bruxelles, le 21.4.2021 COM(2021) 206 final 2021/0106 (COD)
https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF
-Confédération Suisse, Intelligence artificielle et réglementation internationale, Rapport à l’attention du Conseil fédéral, Berne, 13 avril 2022, pp.6-7.
– David LESLIE (et al), Intelligence artificielle, droits de l’homme, démocratie et Etat de droit guide introductif, Council of Europe et The Alan Turing Institute, juin 2021, p. 27.
-Département fédéral des affaires étrangères DFAE (Confédération Suisse), Intelligence artificielle et réglementation internationale, Rapport à l’attention du Conseil fédéral, Berne, 13 avril 2022, p.13.
-Deborah BERGAMINI(Rapporteur), La nécessité d’une gouvernance démocratique de l’intelligence artificielle, Conseil de l’Europe, Assemblée parlementaire, Commission des questions politiques et de la démocratie, Doc. 15150, 24 septembre 2020.
– Government of Canada, “ Charlevoix common vision for the future of artificial intelligence”, La Malbaie, Quebec, Canada, June 9, 2018.
http://www.g7.utoronto.ca/summit/2018charlevoix/ai-commitment.html
-Groupe d’experts indépendant de haut niveau sur l’intelligence artificielle, constitué par la Commission européenne en juin 2018, Lignes directrices en matière d’éthique pour une IA digne de confiance, Commission européenne ,Bruxelles ,avril 2019, pp.6-16
https://op.europa.eu/fr/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1
– Liis VIHUL , “International Legal Regulation of Autonomous Technologies”, in Centre for International Governance Innovation , Modern conflict and artificial intelligence , 2020, p.20
-National Conference of State Legislatures(NCSL), Artificial Intelligence 2024 Legislation, Updated September 09, 2024
https://www.ncsl.org/technology-and-communication/artificial-intelligence-2024-legislation
-Organisation de coopération et de développement économiques (OCDE), Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449, Adopté(e) le: 22/05/2019, Amendé(e) le: 08/11/2023. https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449
-Parlement européen, Cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes. Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission concernant un cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes (2020/2012(INL)).
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_FR.pdf
-Parlement européen, Un régime de responsabilité civile pour l’intelligence artificielle . Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l’intelligence artificielle (2020/2014(INL).
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_FR.pdf
-Simon CHESTERMAN, From Ethics to Law: Why, When, and How to Regulate AI, NUS Law Working Paper No 2023/014
– Research Centre in Information, Law and Society (Centre de Recherche Information, Droit et Société), Information Ethics Working Group (IEWG) – IFAP/UNESCO
https://www.crids.eu/cooperations/iewg-ifap
Vincent GABRIEL, L’intelligence artificielle, enjeu de puissance du XXIe siècle, Centre d’étude des crises et conflits internationaux , Louvain-la-Neuve Belgique , Septembre 2020 Note d’analyse N°. 72, p.9.
https://cecrilouvain.be/wp-content/uploads/2020/09/IA-VG.pdf






