تاريخ التقديم 20/2    تاريخ القبول 25/3     تاريخ النشر 25/4

حقوق الطباعة محفوظة لدى مجلة كلية القانون والعلوم السياسية في الجامعة العراقية

حقوق الملكية الفكرية محفوظة للمؤلف

حقوق النشر محفوظة للناشر (كلية القانون والعلوم السياسية - الجامعة العراقية)

CC BY-NC-ND 4.0 DEED

Printing rights are reserved to the Journal of the College of Law and Political Science at Aliraqia University

Intellectual property rights are reserved to the author

Copyright reserved to the publisher (College of Law and Political Science - Aliraqia University)

Attribution – Non-Commercial – No Derives 4.0 International

For more information, please review the rights and license

DOI: https://doi.org/10.61279/zc221n81

   

المجال الرقمي بين قواعد القانون الخاص

والقواعد الأخلاقية: دراسة حالة الاتحاد الأوروبي

The digital field between the rules of private law

 and ethical rules: European Union case study

أ.م.د طارق السماره

جامعة الأمير سلطان - المملكة العربية السعودية

Teacher phd .Assistant Tareck Alsamara

Prince Sultan university- Kingdom of Saudi Arabia

talsamara@psu.edu.sa

المستخلص

 يرمي هذا المقال إلى دراسة موضوع تنظيم المجال الرقمي من خلال قواعد القانون الخاص والمواثيق الأخلاقية، وعليه يخرج من مجال الدراسة كل ما يتعلق بالقانون العام. حيث يتم تسليط الضوء على تطور الموضوع على مستوى الاتحاد الأوروبي، بمقارنة تنظيم المجال الرقمي بموجب القواعد القانونية والتنظيم الاخلاقي من خلال مواثيق الاخلاقيات المتعلقة بالموضوع. الدراسة تستخدم المنهج الوصفي لوصف الإطار القانوني المتطور على مستوى الاتحاد الأوروبي والمواثيق الاخلاقية المتصلة بالمجال الرقمي. أيضا يستعين المقال بالمنهج التاريخي لمعرفة تاريخ وتطور الموضوع على الصعيد الأوروبي، ويخلص البحث في النهاية إلى مجموعة من النتائج التي تتمحور حول جدية الاتحاد الأوروبي في توفير إطار قانوني متكامل وسريع التطور للمجال الرقمي. حيث تتفاعل أجهزة الاتحاد الأوروبي حول المجال الرقمي وتتناغم مجهودات مشكلة الفضاء الدولي الفريد من نوعه في مجال القانون الرقمي، من خلال ترقية قواعد القانون الخاص في الدول الأعضاء.

كلمات مفتاحية: المجال الرقمي - القواعد القانونية – المواثيق الأخلاقية – الاتحاد الأوروبي

Abstract

This article aims to study the issue of regulating the digital field through the rules of private law and ethical charters. Issues related to public law are outside the scope of this study. The study sheds light on the development of the issue at the level of the European Union, as it compares regulation according to legal rules and ethical regulation through Codes of ethics related to the topic. The descriptive approach is used to describe the evolving legal framework at the European Union level, as well as the ethical charters related to the digital field. The article also uses the historical approach to know the history and development of the issue at the European level, and the research concludes with a set of results centered around the European Unions seriousness in providing an integrated and rapidly developing legal framework for the digital field. The European Union bodies interact around the digital field and their efforts harmonize with the problem of the unique international space in the field of digital law, through upgrading the rules of private law in member states.

Keywords: The digital field - legal rules - ethical charters - the European Union

المقدمة:

يستخدم مصطلح «المجال الرقمي» لوصف الفضاء الرقمي الذي تتم فيه الأنشطة عبر الإنترنت، بما في ذلك مواقع الويب ومنصات الوسائط الاجتماعية والمنتديات عبر الإنترنت والاتصالات عبر البريد الإلكتروني والمنصات الرقمية الأخرى، وهو يشمل مجمل شبكات الكمبيوتر المترابطة والمعلومات المشتركة داخلها.[1] تطور هذا المجال ليشمل استقلالية كبيرة لدى نظم المعلومات وأصبح تدخل العنصر البشري في بعض التطبيقات منعدما، مثل الذكاء الاصطناعي والمسيرات ذاتية القيادة و التدخلات الجراحية في الطب البشري من خلال ألات مستقلة. [2] 

تعرف القواعد الأخلاقية على أنها مبادئ توجيهية أو مبادئ توجه السلوك الإنساني على أساس اعتبارات أخلاقية أو معنوية،  وهي توفر إطارًا لتقييم ما يعتبر صوابًا أو خطأً في موقف معين، مع التركيز على قيم مثل النزاهة والعدالة والمسؤولية والاحترام.[3]

أما القواعد القانونية فهي تلك القواعد العامة و المجردة التي تنظم السلوك الانساني و التي ترتب جزاء عند مخالفتها، وتخضع لإجراءات خاصة لإصدارها تحددها دساتير الدول.[4]

تلعب القواعد الأخلاقية دورًا مهما في الآونة الأخيرة في المجال الرقمي من خلال توجيه السلوك المسؤول للجهات الفاعلة المشاركة في التكنولوجيا، فهي تساعد في تحديد معايير السلوك لتطوير التقنيات الرقمية واستخدامها وتنظيمها، وهي بذلك تضمن حماية الحقوق الفردية وخصوصية البيانات في سياق رقمي دائم التغير.[5]

أصبحت الأخلاقيات المطلوبة فيما يتعلق بتطوير الذكاء الاصطناعي من بين اهتمامات عدد من الهيئات العامة (منظمة التعاون الاقتصادي والتنمية، اليونسكو، مجلس أوروبا، جامعة الدول العربية، إلخ) والهيئات الدولية الخاصة. وهي جوهر الاستراتيجية التي يطالب بها الاتحاد الأوروبي فيما يتعلق بالذكاء الاصطناعي الذي يرتبط بالمصطلحات :»التميز والثقة»، تتزايد في الوقت الحالي القواعد القانونية و الأخلاقية الناظمة للمجال الرقمي.[6] حيث يرمي البحث إلى الاجابة عن اشكالية مفادها : إلى أي مدى تحقق القواعد القانونية في مجال القانون الخاص و المواثيق الأخلاقية تكاملا في تنظيم المجال الرقمي على مستوى الاتحاد الأوروبي؟

من الأجل الاجابة على الاشكالية السابقة يقسم البحث إلى جزئيين:

الجزء الأول دور القواعد القانونية في تنظيم المجال الرقمي.

الجزء الثاني دور القواعد الأخلاقية في تنظيم المجال الرقمي.

الجزء الأول

دور القواعد القانونية في تنظيم المجال الرقمي

نميز بين نصوص الاتحاد الأوروبي ودور الهيئات داخل الاتحاد في ترقية المجال الرقمي.

المطلب الأول: نصوص الاتحاد الأوروبي المتصلة بالجانب الرقمي :

لابد من الإجابة عن تساؤل مفاده هل تنظيم المجال الرقمي من صلاحيات الاتحاد الأوروبي أم من صميم السلطان الداخلي للدول الأعضاء؟ وهو ما يحدده الفرع الأول، ثم نتعرف على تطور مساهمة الاتحاد الأوروبي في المجال الرقمي وهو ما يناقشه الفرع الثاني.

الفرع الأول اختصاص الاتحاد الأوروبي بتنظيم المجال الرقمي :

في الوثائق المؤسسة للاتحاد لا يوجد نص يشير إلى اختصاص الاتحاد الأوروبي بتنظيم المجال الرقمي، لكن يستخدم الاتحاد الأوروبي بعض النصوص الواردة في اتفاقية تأسيسه التي لها علاقة بالموضوع كأساس لولايته القانونية، حيث يشار إلى المادة 101 المتعلقة بالمنافسة، والمادة 173 المتعلقة بالسياسة الصناعية، والمادة 206 و207 المنظمة للسياسة التجارية، والمادة 179 المتعلقة بالبحث والتطوير التكنولوجي، والمادة 114 المتعلقة بتوحيد القوانين في مجال الأسواق الداخلية.

الفرع الثاني: تطور مساهمة الاتحاد الأوروبي في المجال الرقمي:

أولا: التوجيه الأوروبي المتعلق بحرية نقل المعلومات وحماية حقوق الأفراد:

صدر هذا التوجيه عن البرلمان و المجلس الأوروبي بتاريخ 24 أكتوبر 1995 وتعلق بحماية الأفراد فيما يتعلق بمعالجة البيانات الشخصية وحرية حركة هذه البيانات،[7] حيث أكد هذا التوجيه على أنه  لما كانت أنظمة معالجة البيانات مصممة لخدمة الإنسان؛ حيث يجب عليها، مهما كانت جنسية الأشخاص الطبيعيين أو إقامتهم، احترام حقوقهم وحرياتهم الأساسية، ولا سيما الحق في الخصوصية، والمساهمة في التقدم الاقتصادي والاجتماعي وتوسيع التجارة ورفاهية الأفراد. و شدد على أنه في حين أن معالجة البيانات الشخصية، لكي تكون قانونية، يجب أن تعتمد أيضًا على موافقة صاحب البيانات أو تكون ضرورية ، أو للامتثال «لالتزام قانوني، أو تنفيذ مهمة ذات مصلحة عامة أو تتعلق بممارسة من صلاحيات السلطة العامة، أو حتى تحقيق مصلحة مشروعة لشخص ما، بشرط ألا تتأثر مصلحة أو حقوق وحريات صاحب البيانات؛ في حين أنه، على وجه الخصوص، بهدف ضمان توازن المصالح المعنية، مع ضمان المنافسة الفعالة، يجوز للدول الأعضاء تحديد الشروط التي يمكن بموجبها استخدام البيانات الشخصية وإبلاغها إلى أطراف ثالثة ضمن إطار أنشطة الإدارة اليومية المشروعة للشركات والمنظمات الأخرى؛ و يجوز لهم تحديد الشروط التي يمكن بموجبها إجراء نقل البيانات الشخصية إلى أطراف ثالثة لأغراض تجارية أو خيرية أو للجمعيات أو للمؤسسات الأخرى مثل المؤسسات السياسية. لكن على النحو الذي يتوافق مع الأحكام التي تهدف إلى السماح لأصحاب البيانات بالاعتراض دون الحاجة إلى توضيح أسبابهم ودون تكلفة مالية لقاء معالجة البيانات المتعلقة بهم.[8]

شكل هذا التوجيه خطوة مهمة في مجال حماية البيانات الشخصية للأفراد، حيث تظهرالمبادئ الأساسية له وهي: جودة البيانات ومشروعية معالجة البيانات (المادتان 6 و7 من التوجيه)، وحق الوصول إلى البيانات (المادة 12 من التوجيه)، والموافقة المقدمة من صاحب البيانات (المادة 7 من التوجيه)، والمعلومات حول معالجة البيانات (المادة 10 من التوجيه)، وسرية المعالجة (المادتان 16 و17 من التوجيه). أما فيما يتعلق بالجوانب المختلفة للتنظيم الداخلي لأنشطة معالجة البيانات، اعتمد الاتحاد الأوروبي نموذجًا محددًا من أجل ضمان التحديد الصحيح للشخص المسؤول عن حماية البيانات والتحديد الصحيح للأشخاص الذين يتمثل دورهم في إنفاذ القانون. ويجب الحفاظ على هذا النموذج حتى عندما تستخدم الشركة خدمات طرف ثالث، وخاصة عندما يتم توفير هذه الخدمات باستخدام بنى تحتية خارج الاتحاد الأوروبي، في بلدان ذات مستوى منخفض في مجال حماية البيانات، أو غير موجودة على الإطلاق، والتي تضمنها التشريعات، وكان التوجيه مرجعا لمناقشة عدة قضايا قانونية على مستوى الدول الأعضاء في الاتحاد الأوروبي، نذكر ثلاث قضايا منها في إيطاليا. حيث اختصت بها السلطة الوطنية لحماية المعطيات الشخصية في إيطاليا،[9] الأولى تخص شركة غوغل  (Google Inc) ورأت السلطة أن الشركة استخدمت معدات متواجدة في إيطاليا و منه ينطبق عليها القانون الإيطالي[10] و التوجيه الأوروبي لعام 1995، وذلك كون البيانات تم تصويرها من خلال سيارات الشركة و تم ارسالها إلى مراكز البيانات الخاصة بالشركة في الولايات المتحدة الأمريكية.[11] أما القضية الثانية تتعلق بطلب قدمته شركة (Heinz Italia S.p.a) من السلطة الوطنية لحماية المعطيات الشخصية الإيطالية يتعلق بإجراء تقييم بشأن أداتها المسماة (Heinz 360 Feedback) والتي تهدف إلى تقديم «نموذج لمهارات العمل» استنادًا إلى التعليقات المقدمة من الشركاء الذين يتواصلون مع الموظفين. حيث كان من المقرر إرسال هذه التعليقات إلى خارج إيطاليا في الولايات المتحدة الأمريكية، وقررت السلطة أن نقل البيانات الشخصية هذا يتوافق مع القانون الإيطالي، الذي تم اعتماده بعد صدور توجيه الاتحاد الأوروبي، نظرًا لأن معالجة البيانات كانت مرتبطة بعقد عمل وكانت موافقة صاحب البيانات مطلوبة.[12] أما القضية الثالثة فتتعلق بقيام موقع على شبكة الإنترنت موجود في الولايات المتحدة بنشر معلومات شخصية وآراء مسيئة في حق بعض الباحثين الذين تعرضوا لانتقادات بسبب تجاربهم التي أجريت على الحيوانات. وبغض النظر عن الجوانب المتعلقة بحرية التعبير، نظرت السلطة الإيطالية في القضية من منظور حماية البيانات ورأت أن الانتهاكات ارتكبت عبر مواقع إلكترونية لا تخضع لقانون حماية البيانات الإيطالي لأنها تقع في دولة خارج الاتحاد الأوروبي.[13]

ثانيا: اللائحة العامة لحماية المعطيات الشخصية : GDPR

من المهم الاشارة إلى لائحة الاتحاد الأوروبي رقم (2016/679) الصادرة عن البرلمان الأوروبي والمجلس بتاريخ 27 أبريل 2016 بشأن حماية الأفراد فيما يتعلق بمعالجة البيانات الشخصية وحرية حركة هذه البيانات، حيث تم إلغاء التوجيه 95 /46/EC المذكور سابقا.[14]

كرست المادة 5 من اللائحة أن البيانات الشخصية يجب أن تخضع للمبادئ التالية:

1. مبدأ الشرعية والولاء و الشفافية :

حيث أن معالجتها يجب أن تكون بطريقة قانونية وعادلة وشفافة فيما يتعلق بموضوع البيانات، ويعني ذلك أنها تخضع للقانون ولا تعتمد على أساليب تضليلية بحيث تضر أصحابها.

2. مبدأ تقييد الأغراض:

أي أن يتم جمعها لأغراض محددة وصريحة ومشروعة، ولم تتم معالجتها لاحقًا بطريقة لا تتوافق مع تلك الأغراض؛ ولا تعتبر المعالجة الإضافية لأغراض الأرشفة للمصلحة العامة أو لأغراض البحث العلمي أو التاريخي أو للأغراض الإحصائية، وفقًا للمادة 89(1)، غير متوافقة مع الأغراض الأصلية .

3. مبدأ تقليل البيانات:

معنى هذا المبدأ أن تكون البيانات كافية وذات صلة ومحدودة بما هو ضروري فيما يتعلق بالأغراض التي تتم معالجتها من أجلها، بحيث يلتزم المعالج بعدم طلب معطيات غير مفيدة وغير متصلة بالغرض.

4. مبدأ دقة البيانات:

أن تكون البيانات دقيقة وحديثة عند الضرورة؛ يجب اتخاذ جميع التدابير المعقولة لضمان مسح أو تصحيح البيانات الشخصية غير الدقيقة، مع مراعاة الأغراض التي تتم معالجتها من أجلها، دون تأخير.

5. مبدأ تقييد الاحتفاظ:

أن يتم الاحتفاظ بها في نموذج يسمح بتحديد أصحاب البيانات لفترة لا تتجاوز الفترة اللازمة للأغراض التي تتم معالجتها من أجلها. ويجوز الاحتفاظ بالبيانات الشخصية لفترات أطول إلى الحد الذي ستتم معالجته حصريًا لأغراض الأرشفة للمصلحة العامة، أو لأغراض البحث العلمي أو التاريخي أو لأغراض إحصائية وفقًا للمادة 89، الفقرة 1، ولكن بشرط توفر الإجراءات الفنية والتقنية المناسبة ليتم تنفيذ التدابير التنظيمية التي تطلبها هذه اللائحة من أجل ضمان حقوق وحريات صاحب البيانات.[15]

وحددت المادة 3 من اللائحة اختصاصها الاقليمي،[16] حيث  تنطبق اللائحة على معالجة البيانات الشخصية التي تتم في سياق أنشطة مؤسسة أو معالج في أراضي الاتحاد، سواء تمت المعالجة في الاتحاد أم لا. كما تنطبق اللائحة على معالجة البيانات الشخصية المتعلقة بأشخاص لهم علاقة بأراضي الاتحاد بواسطة وحدة أو معالج غير مؤسس في الاتحاد، حيث ترتبط أنشطة المعالجة بما يلي:

(أ) عرض البضائع أو الخدمات المقدمة لأصحاب البيانات في الاتحاد، سواء كان الدفع مطلوبًا من أصحاب البيانات هؤلاء أم لا.

 (ب) مراقبة سلوك هؤلاء الأشخاص، إلى الحد الذي يتعلق بالسلوك الذي يحدث داخل أراضي الاتحاد.

وتنطبق اللائحة على معالجة البيانات الشخصية من قبل معالج غير موجود في الاتحاد ولكن في مكان ينطبق فيه قانون دولة عضو بموجب القانون الدولي العام.

ويرى أغلب الكتاب أن اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي تتطلب ضمانات كبيرة لحماية البيانات وتطرح تحديات جديدة وفرصًا محتملة للمؤسسات في جميع أنحاء العالم. ومعظم الشركات ليست مستعدة بشكل كافٍ بعد للامتثال للقانون العام لحماية البيانات (GDPR). لتقليل المسؤولية بموجب اللائحة العامة لحماية البيانات، تحتاج المؤسسات في جميع أنحاء العالم إلى إجراء تغييرات لتكون متوافقة مع اللائحة العامة لحماية البيانات. وناقش عدة باحثين تأثير اللائحة العامة لحماية البيانات (GDPR) على تطوير التكنولوجيا العالمية بما في ذلك التحديات والفرص و كيف يمكن للصين والولايات المتحدة، القوتين الاقتصاديتين العالميتين الرائدتين، الاستجابة بشكل أفضل للتحديات والفرص التي يطرحها القانون الأوروبي لحماية البيانات.[17]

ثالثا: توجيه حماية البيانات الشخصية في مجال أجهزة العدالة والشرطة الأوروبية:

يحدد توجيه الشرطة والعدالة القواعد المتعلقة بحماية الأشخاص الطبيعيين فيما يتعلق بمعالجة البيانات الشخصية من قبل السلطات المختصة لأغراض منع واكتشاف الجرائم والتحقيقات والملاحقات القضائية الجنائية في هذا الشأن أو تنفيذ العقوبات الجنائية،[18] بما في ذلك الحماية من التهديدات التي يتعرض لها المجتمع ومنع مثل هذه التهديدات.[19] وشدد التوجيه على الدول الأوروبية أنه يجب جمع البيانات الشخصية لأغراض محددة وصريحة ومشروعة تقع ضمن نطاق هذا التوجيه ولا ينبغي معالجتها لأغراض لا تتوافق مع أغراض منع واكتشاف الجرائم الجنائية والتحقيقات والملاحقات القضائية في هذا الشأن أو تنفيذ العقوبات الجنائية ، بما في ذلك الحماية من التهديدات التي يتعرض لها المجتمع ومنع مثل هذه التهديدات. وإذا تمت معالجة البيانات الشخصية بواسطة نفس وحدة المعالجة أو وحدة معالجة أخرى لغرض يقع ضمن نطاق هذا التوجيه، فيجوز السماح بهذه المعالجة بشرط أن تكون مصرح بها وفقًا للأحكام القانونية المعمول بها وبحيث تكون ضرورية، ومتناسبة مع هذا الغرض.[20]

رابعا: لائحة حرية نقل المعطيات الغير شخصية:

من الضروري الإشارة إلى لائحة (الاتحاد الأوروبي) 2018/1807 الصادرة عن البرلمان الأوروبي والمجلس المؤرخة 14 نوفمبر 2018 والتي تحدد إطارًا ينطبق على التدفق الحر للبيانات غير الشخصية في الاتحاد الأوروبي، حيث نوهت اللائحة إلى أنه يمثل ظهور إنترنت الأشياء والذكاء الاصطناعي والتعلم الآلي مصادر مهمة للبيانات غير الشخصية على سبيل المثال بسبب اعتمادها في عمليات الإنتاج الصناعي الآلية. وتشمل الأمثلة المحددة للبيانات غير الشخصية مجموعات البيانات المجمعة والمجهولة المصدر المستخدمة لتحليلات البيانات الضخمة، والبيانات الزراعية الدقيقة التي يمكن أن تساعد في التحكم في استخدام المبيدات الحشرية والمياه وتحسين استخدامها، أو حتى البيانات المتعلقة باحتياجات صيانة الآلات الصناعية. حيث أتاحت التطورات التكنولوجية تحويل البيانات مجهولة المصدر إلى بيانات شخصية، فهنا يجب التعامل مع هذه البيانات على أنها بيانات شخصية، ويجب تطبيق اللائحة (الاتحاد الأوروبي) 2016/679 وفقًا لذلك.[21] وهدفت اللائحة إلى ضمان التدفق الحر للبيانات بخلاف البيانات الشخصية داخل الاتحاد، من خلال وضع القواعد المتعلقة بمتطلبات توطين البيانات، وإتاحة البيانات للسلطات المختصة ونقل البيانات للمستخدمين المحترفين.[22]

خامسا: توجيه الاتحاد الأوروبي حول البيانات المفتوحة :

يكتسي توجيه الاتحاد الأوروبي )2019/1024( الصادر عن البرلمان الأوروبي والمجلس بتاريخ 20 يونيو 2019 بشأن البيانات المفتوحة وإعادة استخدام معلومات القطاع العام أهمية خاصة.[23] أشار التوجيه إلى إن السماح بإعادة استخدام الوثائق التي تحتفظ بها مؤسسات القطاع العام يوفر قيمة مضافة لصالح المستخدمين الجدد، والمستخدمين النهائيين، والمجتمع ككل، وفي كثير من الحالات، لصالح مؤسسة القطاع العام نفسها. حتى من خلال تعزيز الشفافية والمساءلة والسماح بتلقي ردود الفعل من معيدي الاستخدام والمستخدمين النهائيين، مما يسمح لهيئة القطاع العام المعنية بتحسين جودة المعلومات التي تم جمعها وممارسة مهامها.[24]

سادسا: لائحة الاتحاد الأوروبي حول إدارة البيانات: Data Governance Act

أصدر الاتحاد الأوروبي لائحة رقم (2022/868) الصادرة عن البرلمان الأوروبي والمجلس بتاريخ 30 مايو 2022 بشأن إدارة البيانات الأوروبية حيث عدلت لائحة (الاتحاد الأوروبي) 2018/1724 (لائحة إدارة البيانات). أشارت اللائحة إلى هناك حاجة إلى اتخاذ إجراءات على مستوى الاتحاد لزيادة الثقة في تبادل البيانات من خلال إنشاء آليات مناسبة تسمح لأصحاب البيانات وحاملي البيانات بممارسة السيطرة على البيانات المتعلقة بهم، وإزالة العقبات الأخرى التي تعترض الأداء السليم للاقتصاد التنافسي القائم على البيانات. ويجب ألا يخل هذا الإجراء بالواجبات والتعهدات المنصوص عليها في اتفاقيات التجارة الدولية التي يبرمها الاتحاد.[25] وحددت المادة 30 مهام اللجنة الأوروبية للابتكار في مجال البيانات والتي تتمحور حول تقديم المشورة والمساعدة إلى اللجنة فيما يتعلق بتطوير ممارسة متسقة لهيئات القطاع العام والهيئات المختصة المشار إليها في المادة 7 (1) لإدارة طلبات إعادة استخدام فئات البيانات المشار إليها في المادة 3 (1)؛ و تقديم المشورة والمساعدة للمفوضية في تطوير ممارسة متسقة لتدفق البيانات عبر الاتحاد؛  ومساعدة المفوضية فيما يتعلق بتطوير ممارسة متسقة للسلطات المختصة لخدمات وساطة البيانات والسلطات المختصة لتسجيل منظمات البيانات في تطبيق متطلبات مقدمي خدمات وساطة البيانات والمنظمات فيما يتعلق بالبيانات المعترف بها.

سابعا: لائحة الاتحاد الأوروبي حول السوق الرقمية : Digital Markets Act

أصدر الاتحاد الأوروبي اللائحة رقم (2022/1925) الصادرة عن البرلمان والمجلس بتاريخ 14 سبتمبر 2022 بشأن الأسواق التنافسية والعادلة في القطاع الرقمي حيث عدلت التوجيهات الاتحاد الأوروبي )2019/1937( و )2020/1828(  وهي تحمل اسم لائحة الأسواق الرقمية، وهذا النص يكتسي أهمية بالنسبة للمنطقة الاقتصادية الأوروبية .[26] ويشير قانون الأسواق الرقمية أو (DMA)  إلى المخاطر التي يمثلها الوضع المهيمن للشركات الرقمية العملاقة، التي يشار إليها غالبًا تحت مصــــطلح (GAFAM)،  وهـــــــي ( Google وApple وFacebook وAmazon وMicrosoft). وتهدف اللائحة بشكل خاص إلى مكافحة الممارسات المنافية للمنافسة وتحفيز الابتكار والقدرة التنافسية في السوق الرقمية، وهي ترمي أيضًا إلى تعزيز حرية الاختيار للمستهلكين الأوروبيين.[27]

ثامنا: لائحة الاتحاد الأوروبي حول الخدمات الرقمية : Digital Services Act

من الضروري بمكان الاشارة إلى لائحة الاتحاد الأوروبي رقم (2022/2065) الصادرة عن البرلمان الأوروبي والمجلس بتاريخ 19 أكتوبر 2022 بشأن السوق الموحدة للخدمات الرقمية حيث تم تعديل التوجيه رقم 2000/31/EC الذي يحمل اسم لائحة الخدمات الرقمية.[28]  حيث أشارت اللائحة إلى أنه من أجل تحقيق الهدف المتمثل في ضمان بيئة آمنة ويمكن التنبؤ بها وموثوق بها عبر الإنترنت، يجب أن يتوافق مفهوم «المحتوى غير المشروع»، لأغراض هذه اللائحة، بشكل عام مع القواعد المعمول بها في البيئة غير المتصلة بالإنترنت. وعلى وجه الخصوص، ينبغي تعريف مفهوم «المحتوى غير القانوني» على نطاق واسع بحيث يغطي المعلومات المتعلقة بالمحتوى والمنتجات والخدمات والأنشطة غير القانونية. على وجه الخصوص، ينبغي فهم هذا المفهوم على أنه يشير إلى معلومات، أيًا كان شكلها، والتي تعتبر، بموجب القانون المعمول به، إما غير قانونية في حد ذاتها، مثل خطاب الكراهية غير القانوني ومحتوى الممارسات التمييزية غير القانونية، أو تصبح غير قانونية بموجب القواعد المعمول بها بسبب أنها تتعلق بأنشطة غير قانونية.[29]

المطلب الثاني: تطور دور المؤسسات الخاصة بالاتحاد الأوروبي في تنظيم المجال الرقمي :

نفصل الدور على مستوى الاتحاد الأوروبي كما يلي :

الفرع الاول: دور المجلس الأوروبي لحماية البيانات :

نشأ المجلس الأوروبي لحماية البيانات بموجب لائحة حماية المعطيات الشخصية، وهو جهاز يمارس صلاحيات استشارية و أخرى شبه قضائية. أما الاستشارية فتتمثل في الاستشارة في مجال البيانات الشخصية،[30] أما الصلاحية الشبه قضائية فهي الجهة المخولة للفصل في اختلاف وجهات النظر بين السلطات الوطنية لحماية البيانات الشخصية للدول الأعضاء عندما يتعلق الأمر بموضوع عابر لجدود الدول.[31] وهو أيضا جهاز للتعاون بين الدول الأعضاء في مجال حماية البيانات الشخصية. [32]

الفرع الثاني: دور المراقب الأوروبي في حماية البيانات :

يعمل المراقب على حماية البيانات بوصفه حق أساسي يحميه القانون الأوروبي وتنص عليه المادة الثامنة من ميثاق الحقوق الأساسية للاتحاد الأوروبي. وهو يدافع عن خصوصية الأفراد ويعززها وحماية البيانات في عمله.  تم تحديد مهمة المراقب وسلطته وأهدافه وفقًا للائحة الاتحاد الأوروبي رقم (2018/1725)،[33] على أساس المادة 16 من معاهدة سير الاتحاد الأوروبي. تم إدراج مهام المراقب بموجب المادة 57 من لائحة (الاتحاد الأوروبي) 2018/1725، بينما تم إدراج صلاحياته بموجب المادة 58 من لائحة (الاتحاد الأوروبي) 2018/1725. ولتحقيق هذه الغاية، يتمتع المراقب بصلاحيات التحقيق،  وصلاحيات الاستشارية وعلى وجه الخصوص، في حالة الشكاوى المقدمة من الأفراد، فضلاً عن صلاحيات لفت انتباه محكمة العدل التابعة للاتحاد حول انتهاكات اللائحة وصلاحيات المشاركة في الإجراءات وفقًا للقانون الأساسي.[34]

الفرع الثالث: دور لجان البرلمان الأوروبي في ترقية التنظيم القانوني للمجال الرقمي

على مستوى البرلمان الأوروبي توجد عدة لجان تعمل في مجالات لها علاقة بالمجال الرقمي، نذكر من باب المثال وليس من باب الحصر و التعيين لجنة الشؤون الاقتصادية و النقدية، حيث لها نشاط في مجال التمويل الرقمي و التجارة الالكترونية،[35] أما اللجنة الثانية هي لجنة الثقافة حيث لها دور في مجال الثقافة الرقمية،[36]  وتساهم هذه اللجان في صياغة التشريعات والسياسات والتوصيات المتعلقة بالمشهد الرقمي في الاتحاد الأوروبي، مما يعزز البيئة التنظيمية التي تتوافق مع الطبيعة الديناميكية للتكنولوجيات الرقمية.

الفرع الرابع: دور البنك المركزي الأوروبي في تجسيد مشروع اليورو الرقمي

يعمل البنك المركزي الأوروبي مع البنوك المركزية الوطنية في منطقة اليورو للنظر في إمكانية إصدار اليورو الرقمي. حيث ستكون عملة رقمية للبنك المركزي، أي المعادل الإلكتروني للنقد. ومن شأنه أن يكمل الأوراق النقدية والعملات المعدنية، مما يمنح الأفراد خيارًا إضافيًا حول كيفية الدفع. وأموال البنك المركزي في شكل رقمي، متاحة لأي عمليات دفع إلكترونية في المتاجر أو عبر الإنترنت أو من شخص لآخر. حيث سيكون اليورو الرقمي وسيلة دفع إلكترونية متاحة مجانًا للجميع. وكما هو الحال مع النقود اليوم، يمكنك استخدامها في أي مكان في منطقة اليورو، وستكون آمنة وخاصة. وفي هذا المجتمع الذي يتحول إلى الرقمنة بشكل متزايد، سيكون اليورو الرقمي هو الخطوة التالية للأمام بالنسبة لعملتنا الموحدة.[37]    

الفرع الخامس: دور اللجنة الخاصة المعنية بالذكاء الاصطناعي في العصر الرقمي

بهدف وضع خارطة طريق طويلة المدى للاتحاد الأوروبي بشأن الذكاء الاصطناعي (AI)، أنشأ البرلمان الأوروبي اللجنة الخاصة المعنية بالذكاء الاصطناعي في العصر الرقمي (AIDA) في جلسته العامة المنعقدة في 18 يونيو 2020. وبناءً على التقارير السابقة للجان الدائمة، ستدرس اللجنة تأثير وتحديات طرح الذكاء الاصطناعي، وتحديد الأهداف المشتركة على مستوى الاتحاد الأوروبي، واقتراح توصيات بشأن أفضل السبل للمضي به قدمًا. وتتمثل أولوية اللجنة لمدة 12 شهرًا في اتباع نهج أفقي بشأن الذكاء الاصطناعي، وتحليل تأثيره المستقبلي على اقتصاد الاتحاد الأوروبي، مع التركيز على المهارات والتوظيف والتعليم والصحة والنقل والبيئة والصناعة والحكومة الإلكترونية ونهج البلدان الاخرى. ولتحقيق أهدافها، نظم أعضاء اللجنة جلسات استماع وورش عمل مع أصحاب المصلحة الرئيسيين، بما في ذلك الخبراء وصانعي السياسات ومجتمع الأعمال. وفي نهاية ولايتها، قدمت تقريرًا يتضمن النتائج والتوصيات التي توصلت إليها.[38]

الجزء الثاني

دور القواعد الأخلاقية في تنظيم المجال الرقمي

تستخدم في بعض المجالات الأخلاق لتحديد ميثاق اجتماعي مشترك في وقت ما حول موضوعات غالبًا ما تكون معقدة للغاية ومتطورة. نذكر على سبيل المثال التطورات في المجال الطبي، حيث أنه تم وضع أخلاقيات متعلقة بتقنيات مساعدة الإنجاب قبل صدور القوانين المتعلقة به.

المطلب الأول: ملاحظات عامة حول القواعد الأخلاقية في المجال الرقمي

يقتضي منا المنهج العلمي تقديم ملاحظات عامة حول القواعد الأخلاقية في المجال الرقمي.

الفرع الأول: المجال الرقمي بين القواعد الاخلاقية العامة و القواعد الاخلاقية الخاصة

لابد من الإشارة إلى أن قواعد الاخلاق تنقسم إلى قواعد أخلاق عامة و قواعد اخلاق خاصة بالمجال الرقمي، والأهمية العلمية ناقشها  الباحث مارسيلو فيتالي روزاتي (Marcello Vitali Rosati) وخلص إلى أنه يمكن استكشاف الأخلاقيات الرقمية باستخدام نهجين متميزين. الأول هو اعتبار هذه الأخلاق بمثابة الأخلاق التطبيقية أو فرع من الأخلاق العامة. ومن شأن المبادئ الأخلاقية العامة أن تحدد الخير والشر بصفة عامة. أما الثاني هو الاعتماد على الأخلاقيات المطبقة على العالم الرقمي التي من شأنها أن توضح، على أساس هذه المبادئ، قواعد السلوك في هذا المجال. ومع ذلك، فإن مثل هذا النهج لا يأخذ في الاعتبار حقيقة أن المبادئ الأخلاقية يمكن أن تنشأ من الظروف الملموسة لتطبيقها. ولذلك يمكن النظر في مقاربة أخرى ترتكز على تحليل العالم الرقمي من أجل تأسيس التفكير الأخلاقي على خصائصه. وبالتالي، فإن الأخلاق الرقمية لن تكون أخلاقيات تطبيقية، بل أخلاقيات أولية. وحاول الباحث إرساء أسس التفكير في الأخلاقيات الرقمية من خلال مراعاة التغيرات الثقافية والقيم التي تسببها التقنيات الجديدة.[39]

وجبت الإشارة أيضا إلى أن المواثيق الأخلاقية المختصة بمجالات محددة تنطبق على المجال الرقمي، مثال ذلك مواثيق أخلاقيات الصحة، حيث أن استخدام الذكاء الاصطناعي والبيانات الضخمة في مجال الصحة يعيد ضمنيًا تعريف مفهوم الصحة. وتتميز الصحة الرقمية بأدواتها التكنولوجية، [40] حيث حاليا يمكن استخدام الذكاء الاصطناعي في مجال التشخيص الطبي و مع ازدياد استخدام البيانات الرقمية المتعلقة بالمرضى استوجب مناقشة مدى تعرض مصالح المرضى للخطر، وكل هذه المسائل تنطبق عليها القواعد الأخلاقية المتعلقة بالصحة.

الفرع الثاني: دور القواعد الاخلاقية في تنظيم المجال الرقمي :

من المهم الإشارة إلى خصائص القواعد الأخلاقية حيث تتسم بانها :

أولا: المواثيق الأخلاقية هي قواعد معنوية :

فهي تلك القواعد التي لا يقصد منها بالضرورة أن تصبح قانونًا وهي تتعلق بسلوك الأفراد و المؤسسات من خلال تحديد المثل العليا و مبادىء العمل في المجال الرقمي.

ثانيا: المواثيق الأخلاقية إلى جانب القانون :

المواثيق الأخلاقية ليس في منافسة مع القانون، فهي أحيانا تكون إلى جانب القانون، حيث تلعب المواثيق الأخلاقية دورا في نشر القانون، مثال ذلك أن المهندس لا يطلع على أحكام القانون لكنه من المرجح أن يطلع على المواثيق الأخلاقية لمنظمة المهندسين.

ثالثا: المواثيق الأخلاقية تعزز القانون :

تلعب المواثيق الأخلاقية دور استباقي، فهي تتجاوز القانون، مثال ذلك العمل الذي تم تطويره في فرنسا منذ إنشاء اللجنة الاستشارية الوطنية لأخلاقيات الحياة وعلوم الصحة (CCNE)  في عام 1983، حيث ساهمت اللجنة في وضع مواثيق أخلاقية كانت بمثابة تصور مسبق للقاعدة القانونية. 

المطلب الثاني: تكريس القواعد الاخلاقية في المجال الرقمي :

نناقش تكريس القواعد الأخلاقية في المجال الرقمي كما يلي :

الفرع الأول: مظاهر القواعد الاخلاقية في المجال الرقمي :

يلاحظ انتشار المبادئ التوجيهية والمبادئ الأخلاقية من قبل عدة فاعلين حيث نصنفها كما يلي :

أولا: المؤسسات الغير حكومية:

الشركات الخاصة و الجمعيات :

وهي مدونات قواعد السلوك للشركات و الجمعيات مثل مساهمة  جمعية (CLUSIF)  من خلال وضعها ميثاق أخلاقيات المهن المتعلقة بأنظمة المعلومات،[41]  وهي جمعية مهمتها تعزيز تبادل الأفكار والملاحظات حول المجال السيبراني والثقة الرقمية في فرنسا.[42]

اللجنة الوطنية الرائدة للأخلاقيات الرقمية (CNPEN)

يقع دور اللجنة الوطنية الرائدة للأخلاقيات الرقمية (CNPEN) تحت وصاية اللجنة الاستشارية الوطنية للأخلاق ، وهو تقديم الآراء حول الإحالات الموكلة إليها، وإبلاغ النقاش العام حول قضايا الأخلاقيات الرقمية وصياغة المقترحات المتعلقة بإستدامة الأخلاقيات الرقمية. كما تثري التفكير الوطني في الأخلاقيات الرقمية.  تم إنشاء هذه اللجنة في ديسمبر 2019 بناءً على طلب رئيس الوزراء الفرنسي ووضعها تحت وصاية اللجنة الاستشارية الوطنية للأخلاق . تم تعيين سبعة وعشرين شخصًا من خلفيات مختلفة، خمسة منهم أيضًا أعضاء في اللجنة الاستشارية، لمعالجة قضايا الأخلاقيات الرقمية بشكل شامل. حيث تم تكليف إدارتها من طرف السيد كلود كيرشنر. ويتمثل دور هذه اللجنة في إبلاغ القرارات الفردية والجماعية من خلال ضمان الوعي والمعلومات للمجتمع المدني والمؤسسات العامة أو الخاصة والحكومة. قام رئيس الوزراء بثلاث إحالات أولية تعلقت بالمركبات ذاتية القيادة ووكلاء المحادثة، والتشخيص الطبي والذكاء الاصطناعي، وفي نهاية هذه الفترة التجريبية، سيقدم رئيس اللجنة الاستشارية إلى الحكومة مقترحات تتعلق بطرق إستدامة التفكير في الأخلاقيات الرقمية على المستوى الفرنسي.[43]

ويمكن إحالة هذه المسائل إلى اللجنة ويمكن لها أن تتدخل من تلقاء نفسها في المواضيع المتعلقة بالأخلاقيات الرقمية. ولإعداد تقاريرها أو آرائها، فإنها تعتمد نفس طريقة العمل المتبعة في اللجنة الاستشارية. حيث أن تحديد وحصر الأسئلة الأخلاقية التي يثيرها التقدم في العلوم والتكنولوجيا والاستخدامات الرقمية أخذ في الاعتبار أسئلة بكل تعقيداتها العلمية والفلسفية والقانونية والاجتماعية، وما إلى ذلك، حيث وجب عليها تحليل الدراسات والبيانات حول هذا الموضوع بشكل شامل قدر الإمكان، كما لزم تحليلها بدقة ونقدية.[44]

ساهمت اللجنة الوطنية الرائدة للأخلاقيات الرقمية (CNPEN) في ثلاث مواضيع :

أ. التشخيص الطبي من خلال الذكاء الاصطناعي :

أصدرت اللجنة رأيا في موضوع التشخيص الطبي باستعمال الذكاء الاصطناعي،[45] حيث أشارت اللجنة إلى أن التكنولوجيا الرقمية، وخاصة الذكاء الاصطناعي في مجال الصحة، تفتح آفاقًا كبيرة لتحويل نظامنا الصحي مع القدرة على تعزيز جودة التشخيص والرعاية للمرضى بشكل كبير. في حين أن أنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي (SIADM) [46] تعمل تدريجياً على تعزيز مجالات الممارسة الطبية المختلفة وتحويل العلاقة بين مقدم الرعاية والمريض، فمن الضروري خلق الظروف الملائمة للثقة. وفي الواقع، فإن التشخيص الطبي الذي يدمج هذه الأجهزة يثير قضايا أخلاقية جديدة تجمع بين الجوانب الرقمية والطبية. حيث يوجد تشكيك في تدريب الممارسين، وخصائص أنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي المطبقة، والوساطة الرقمية المشاركة في العلاقة بين الطبيب والمريض، والموافقة المستنيرة للمرضى عند استخدام هذه الأدوات الجديدة. ارتكز رأي اللجنة بشكل عام إلى النصوص التأسيسية في مجال أخلاقيات الطب الحيوي مثل قانون نورمبرغ، أو إعلان هلسنكي، أو تقرير بلمونت أو الإعلان العالمي لأخلاقيات الطب الحيوي وحقوق الإنسان. لقد ألهم هذا التقليد الطبي الحيوي الطويل للتفكير الأخلاقي، بل وأثر في بعض الأحيان، على الطريقة التي تم بها بناء التفكير الأخلاقي المرتكز على التكنولوجيا الرقمية، في الآونة الأخيرة. وهذان المجالان الأخلاقيان لهما هدف مشترك، وهو أصل النهج الأخلاقي، وهو الحفاظ على كرامة الإنسان. هذا الرأي حول القضايا الأخلاقية المرتبطة بظهور وانتشار أنظمة الذكاء الاصطناعي المطبقة على التشخيص الطبي يدعو إلى تعميق الأسئلة المحيطة بالتعبير عن هذين المجالين من التفكير الأخلاقي. يضمن هذا النص أن الأطر الأخلاقية المستخدمة في أخلاقيات البيولوجيا والأخلاق الرقمية قابلة للتطبيق على الذكاء الاصطناعي. [47]

أوصىت اللجنة بما يلي : [48]

من الضروري أن يستمر تدريس طرق التشخيص القائمة بالفعل، والتي لا تتضمن أنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي مسبقًا، وأن تكون موضوعًا للبحث الذي يهدف إلى تطويرها.

يتطلب المكان المتنامي لأنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي في مجال المهارات الطبية إجراء دراسات متعمقة حول التفاعل بين البشر وتقنيات الذكاء الاصطناعي لتقييم تأثير أنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي في ممارسة الطب.

من أجل الشفافية والتتبع، يجب الإشارة إلى استخدام أنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي في التقرير الطبي للاستشارة.

 تتقارب هذه العناصر لصالح سيطرة الإنسان في جميع مراحل الرعاية، بدءاً من الإشارة إلى الفحوصات وحتى نتائج التحاليل والتفسير السياقي لهذه النتائج.

بدء مشاورة وطنية حول جعل أنظمة الذكاء الاصطناعي المستخدمة في التشخيص الطبي متاحة اقتصاديًا لمستخدمي نظام الرعاية الصحية. وفي هذا الصدد، يمكن تقييم الجوانب المتعلقة بتمويل الذكاء الاصطناعي في قوانين تمويل الضمان الاجتماعي.  وفي هذه المناقشة، ينبغي دراسة دور الجهات الفاعلة في مجال الحماية التكميلية في تحديد وتحفيز إمكانية الوصول إلى ابتكارات الذكاء الاصطناعي بعناية.

ب. أنظمة المركبات ذاتية القيادة :

أصدرت اللجنة رأيا بخصوص المركبات ذاتية القيادة، حيث تم تجهيز بعض مركبات الطرق المتداولة حاليًا بوظائف مساعدة القيادة مثل تنظيم السرعة، والتحكم في المسار، والتحكم في مسافة الأمان، والمساعدة في ركن السيارة، واكتشاف العوائق، وتحسين المسار. على الرغم من أن هذه الوظائف تسهل على الإنسان قيادة السيارة، إلا أنها لا تقوم بتعديل  مهمة القيادة نفسها ولا حالة السيارة في بيئتها. فالسائق هو الذي يتحكم في السيارة في بيئة مجهزة ببنية تحتية للإشارات وهو الذي يدركها ويفسرها (الأضواء واللافتات والعلامات الأرضية) و حيث يوجد مستخدمون آخرون، بالإضافة إلى الحيوانات أو الكائنات المختلفة. تعلقت المسألة الأخلاقية بكل التعديلات التي تدخل على الحالة البشرية المرتبطة بتطوير ونشر مثل هذه المركبات. هل ستكون هذه التغييرات مهمة مثل تلك التي لوحظت عندما تم استبدال الحصان بالسيارة؟ هذا السؤال العام المعقد من الممكن دراسته من خلال عدة أسئلة فرعية تتعلق بتصميم المركبة وخصائصها واستخداماتها. أشارت اللجنة إلى أنه قد تم بالفعل تحديد بعض هذه الأسئلة أو كانت موضوع توصيات في آراء اللجان الوطنية أو الدولية أو في وثائق توجيهية. أشارت اللجنة إلى تقرير لجنة الأخلاقيات التي أنشأتها وزارة النقل والبنية التحتية الرقمية الألمانية خصيصًا حول موضوع القيادة الآلية وهي عشرين قاعدة أخلاقية تؤكد على الحد من الحوادث ومتطلبات الميزانية العمومية الإيجابية التي تدرس الفوائد والمخاطر، وكذا توزيع المسؤوليات خاصة أثناء عمليات السيطرة، ومخاطر المراقبة العامة والتحكم في المركبات من خلال البنية التحتية، والحاجة إلى سياسة إدارة البيانات، والإشراف الفني على تعلم أنظمة الإدارة أثناء السفر؛ مع إعطاء الأولوية لحماية الناس و حماية الحيوانات والممتلكات.[49]

جـ. أنظمة المحادثة بالذكاء الاصطناعي : 

حيث تم اخطار اللجنة من طرف الحكومة الفرنسية،[50] واصدرت اللجنة رأيها في الموضوع،[51] حيث أن وكلاء المحادثة (يشار للموضوع أيضا بـ : «chatbots») هي أنظمة رقمية قادرة على التفاعل مع مستخدميها باللغة الطبيعية، المكتوبة والمنطوقة. واليوم، يمكن العثور عليها في العديد من الاحتياجات اليومية (الهواتف الذكية، ومكبرات الصوت المتصلة، والسيارات، والمواقع الإلكترونية): فهي تقدم المشورة الصحية، وتساهم في عمليات التوظيف، وتدير خدمات ما بعد البيع، وتوفر التدريب عن بعد، وتساعد الأشخاص الضعفاء، وما إلى ذلك. وفي فرنسا وعلى المستوى الأوروبي، بدأ وكلاء المحادثة، بسبب اعتمادهم على البيانات الشخصية، في جذب انتباه السلطات والمنظمين والجمهور. وبعيداً عن هذه القضايا التنظيمية، تنشأ العديد من الأسئلة الأخلاقية. ما هي السلوكيات والمعتقدات التي لدينا فيما يتعلق بوكلاء المحادثة؟ هل يمكن لروبوت الدردشة أن يكذب على مستخدمه؟ هل ستكون أخطاء وكلاء المحادثة أكثر قبولا من أخطاء الإنسان؟ هل يجب على برنامج الدردشة الآلي تقليد الإنسان بشكل منهجي؟ ومن بين القضايا الأخلاقية المختلفة التي حددتها اللجنة، تتعلق المسائل الرئيسية بعدم وضوح الحدود بين الآلة والإنسان، وتقليد اللغة والعواطف من خلال برامج الدردشة الآلية، وقدرة وكلاء المحادثة على التلاعب بالمحاورين البشر.[52]

ثانيا: المؤسسات الحكومية :

على سبيل المثال نجد عمل اللجنة الوطنية للمعلوماتية و الحريات الفرنسية  لعام 2017 حول القضايا الأخلاقية للخوارزميات والذكاء الاصطناعي و قرار البرلمان الأوروبي لعام 2020 المتعلق بالجوانب الأخلاقية للذكاء الاصطناعي والروبوتات والتقنيات ذات الصلة.

اللجنة الوطنية للمعلوماتية و الحريات : CNIL

حيث استجابة للمهمة الموكلة إليها بموجب قانون الجمهورية الرقمية[53] للتفكير في المسائل الاجتماعية التي تطرحها التقنيات الرقمية، قادت اللجنة الوطنية للمعلوماتية و الحريات (CNIL) نقاشًا عامًا حول الخوارزميات والذكاء الاصطناعي في الفترة من يناير إلى نوفمبر 2017 . وقد شارك فيها 60 شريكًا من جميع أنحاء فرنسا، وأسفرت عن نشر تقرير موجز يتضمن عدة توصيات.[54]

اكدت اللجنة على مبدأين مهمين، الأول هو مبدأ الولاء المطبق على جميع الخوارزميات ودمج تأثيراتها الجماعية، وليس الشخصية فقط. حيث إن أي خوارزمية، سواء كانت تعالج بيانات شخصية أم لا، يجب أن تكون مخلصة لمستخدميها، ليس فقط كمستهلكين، بل أيضا كمواطنين، أو حتى للمجتمعات أو المصالح الجماعية الكبيرة التي يمكن أن يتأثر وجودها بشكل مباشر والتي يجب أن تأتي في مصالح المستخدمين أولاً. على سبيل المثال، يمكن أن يكون المقصود من هذا المبدأ أن ينطبق التأثير المحتمل للشبكات الاجتماعية على بنية النقاش العام في المجتمع أو على تأثير خوارزميات التنبؤية للمجتمعات أو المدن بأكملها. و المبدأ الثاني يتعلق باليقظة، الذي يتضمن تنظيم شكل من أشكال الأسئلة المنتظمة والمنهجية والتداولية فيما يتعلق بطبيعتها التي لا يمكن التنبؤ بها (المتأصلة في التعلم الآلي)، والطبيعة المجزأة للغاية للسلاسل الخوارزمية التي يتم إدراجها فيها، وأخيرا، الثقة المفرطة التي غالبا ما تؤدي إلى عواقب وخيمة. ويجب تعبئة جميع الروابط في السلسلة الخوارزمية (المصممين، والشركات، والمواطنين) لتجسيد هذا المبدأ، من خلال إجراءات ملموسة (على سبيل المثال، لجان الأخلاقيات التي تضمن الحوار المنهجي والمستمر بين مختلف أصحاب المصلحة).

كما تشارك اللجنة الوطنية للمعلوماتية و الحريات (CNIL) في التفكير في القضايا الأخلاقية والمسائل الاجتماعية التي تثيرها التكنولوجيا المدنية (civic tech)، وجميع النماذج والتقنيات التي تساهم في تجديد الديمقراطية التمثيلية. ومصطلح التكنولوجيا المدنية يقصد به التكنولوجيا التي تعمل على تعزيز العلاقة بين الأفراد والحكومة من خلال برامج الاتصالات وصنع القرار وتقديم الخدمات والعمليات السياسية. ويشمل ذلك تكنولوجيا المعلومات والاتصالات التي تدعم الحكومة بالبرمجيات التي صممتها فرق يقودها المجتمع من المتطوعين والمنظمات غير الربحية والاستشاريين والشركات الخاصة بالإضافة إلى فرق التكنولوجيا المدمجة العاملة داخل الحكومة.[55]

كما ساهمت اللجنة الوطنية للمعلوماتية و الحريات (CNIL) من خلال رأيها الصادر يوم 27 أبريل 2010 بشأن إحداث مساحات عمل رقمية داخل المدارس والجامعات. وترى اللجنة أن تنفيذ هذا البرنامج يجب أن يساهم في رفع وعي المعلمين والطلاب وأولياء أمورهم بمبادئ حماية البيانات الشخصية. حيث تلقت اللجنة الوطنية للمعلوماتية والحريات (CNIL) طلبا من وزارة التربية الوطنية للحصول على رأي حول إحداث مساحات عمل رقمية داخل المدارس والجامعات. وتعتبر خدمات الإدارة الإلكترونية عن بعد، والتي تسمى أحيانًا أيضًا «الموثق الإلكتروني» أو «الموثق الرقمي» أو «المكتب الافتراضي»، وهي عبارة عن مواقع إلكترونية للبوابات تتيح للتلاميذ وأولياء أمورهم والطلاب والمدرسين والموظفين الإداريين وبشكل عام لجميع أعضاء المجتمع التعليمي ، الوصول، عبر نقطة دخول واحدة وآمنة، إلى باقة من الخدمات الرقمية (الولوج إلى المحتوى التربوي والتعليمي، نشر المعلومات الإدارية أو المتعلقة بالحياة المدرسية وسير عمل المؤسسة).[56]

 

البرلمان الأوروبي :

تبنى البرلمان الأوربي قرار حول الجوانب الأخلاقية للذكاء الاصطناعي والروبوتات والتقنيات ذات الصلة،[57] أكد فيه أنه عند تحديد ما إذا كان ينبغي اعتبار الذكاء الاصطناعي والروبوتات والتقنيات ذات الصلة عالية المخاطر وبالتالي تخضع للامتثال للمتطلبات القانونية والمبادئ الأخلاقية المنصوص عليها في الإطار التنظيمي للذكاء الاصطناعي، سيكون من المناسب دائمًا إجراء تحقيق محايد، من خلال التقييم المنظم والخارجي المسبق بناءً على معايير محددة ودقيقة. [58]

 

ثالثا: الأكاديميون أو الخبراء :

على سبيل المثال يتم ذكر فريق الخبراء رفيع المستوى المعني بالذكاء الاصطناعي، حيث عينت المفوضية الأوروبية مجموعة من الخبراء لتقديم المشورة بشأن استراتيجية الذكاء الاصطناعي.[59] نشر الفريق المبادئ التوجيهية الأخلاقية لذكاء اصطناعي جدير بالثقة، وتهدف هذه المبادئ التوجيهية إلى تعزيز الذكاء الاصطناعي الجدير بالثقة. يتمتع الذكاء الاصطناعي الجدير بالثقة بالخصائص الثلاث التالية، والتي ينبغي احترامها طوال دورة حياة النظام: أ) يجب أن يكون قانونيًا، ويضمن الامتثال للقوانين واللوائح المعمول بها؛ ب) يجب أن يكون أخلاقيا، ويضمن الالتزام بالمبادئ والقيم الأخلاقية؛ ج) يجب أن يكون قويا، على الصعيدين الفني والاجتماعي، لأنه حتى مع النوايا الحسنة، يمكن لأنظمة الذكاء الاصطناعي أن تسبب ضررا غير مقصود. كل هذه الخصائص ضرورية في حد ذاتها، لكنها ليست كافية لتحقيق ذكاء اصطناعي جدير بالثقة. ومن الناحية المثالية، ستعمل هذه الخصائص الثلاث في انسجام وتداخل. وإذا نشأت، من الناحية العملية، توترات بين هذه الخصائص، فيجب على المجتمع أن يسعى إلى اصلاحها.[60]

الفرع الثاني: مساوئ القواعد الأخلاقية في المجال الرقمي :

أولا: محتوى المبادئ متغير حسب فئات الفاعلين وضمن الفئة الواحدة :

حيث أن هذه القواعد تختلف باختلاف مستوى التقدم في الخبرات، خصوصا تلك القواعد الأخلاقية التي تضعها الشركات الخاصة، بل ويلاحظ اختلافها حتى ضمن الفئة نفسها. وهذا له تأثير في تفسير القواعد (إمكانية وجود ممارسات مختلفة داخل القطاع نفسه).

ثانيا:صعوبة الترجمة الملموسة للمبادئ :

أحيانا يلاحظ أن القواعد الاخلاقية تتضمن مثل عليا وقيم سامية، غير ملموسة وغير مجسدة في قواعد تتعلق بالممارسة، وعليه من أجل جعل هذه القواعد مفيدة يفترض فيها أن تكون واقعية وقابلة للتجسيد.

 

ثالثا: عدم وجود عقوبات في حالة عدم الالتزام :

خلافا للقواعد القانونية فإن المواثيق الاخلاقية لا يترتب جزاء عند مخالفتها، فالقاعدة القانونية مجهزة بالجزاء الذي يتنوع بين جزاء مدني وإداري و جنائي و دستوري، أما القاعدة الأخلاقية فهي لا تتضمن أي اليات لتنفيذها.

خاتمة :

خلاصة البحث تشير إلى أن الاتحاد الأوروبي يبدي اهتماما كبيرا بتنظيم المجال الرقمي، وهذا يعكس التطور المطرد للقواعد القانونية المكرسة من جانبه، وهي نصوص تتسم بالدقة و الجدية. علاوة على ذلك لا يميل الاتحاد الأوروبي إلى الاعتماد على المواثيق الأخلاقية. خلافا للنظام القانوني الوطني في دول الإتحاد، حيث يظهر فيه اعتماد الممارسين على عدة مواثيق تتصل بالجانب الرقمي تطورت من أجل دعم الثقة في التكنولوجيا. وختاما يشير البحث إلى أن الاتحاد الأوروبي يعمل حاليا على اصدار نصوص قانونية تتعلق بالذكاء الاصطناعي و الخصوصية الرقمية وهو ما يشكل نواة لبحوث جديدة في المستقبل.

نظرا لأثار نصوص الاتحاد الأوروبي و انطباقها على شركات خارج الدول الأعضاء، فإن ذلك يطرح عدة تحديات على الشركات الصينية و الامريكية من أجل استفاء الشروط القانونية المقررة بموجب القانون الرقمي الأوروبي.


[1]  Ottis Rain, and Peeter Lorents, “Cyberspace: Definition and implications,” In International Conference on Cyber Warfare and Security, p. 267. Academic Conferences International Limited, 2010.

[2] Farouk Ghazi, and Tareck Alsamara, “Legal View on Blockchain Technologies in Healthcare: A European States Case Study,” International Journal of Sociotechnology and Knowledge Development (IJSKD) 15, no. 1 (2023): 1-13.

[3]  Massé Raymond, Éthique et santé publique, Enjeux, valeurs et normativité. Presses de lUniversité Laval, 2003.

[4]  Jeammaud Antoine, «La règle de droit comme modèleRevue interdisciplinaire détudes juridiques 25, no. 2 (1990): 125-164.

[5]  Fallery Bernard, «Face à une impossible éthique du numérique, loutil du droit?.» In 3èmes Journées de Recherche RIPCO en comportement organisationnel. 2022.

[6]  Poullet Yves, «À propos de quelques documents internationaux relatifs à léthique de lintelligence artificielle: pistes de réflexionRevue du Droit des Technologies de linformation 81 (2021): 5-14.

[7]   Directive 95/46/EC of the European Parliament and of the Council of 24 October 1995 on the protection of individuals with regard to the processing of personal data and on the free movement of such data. Official Journal L 281 , 23/11/1995 P. 0031 - 0050

[8]  Ibid, para 30.

[9]  Mantelero Alessandro, “Cloud computing, trans-border data flows and the European Directive 95/46/EC: applicable law and task distribution,” European Journal of Law and Technology 3, no. 2 (2012).

[10]  Italian Personal Data Protection Code 2003

[11]  Decision issued by the Italian DPA on 15 October 2010, doc. web n. 1759972, available at http://www.garanteprivacy.it.

[12]  Decision issued by the Italian DPA on 4 November 2010, doc. web n. 1771838, available at http://www.garanteprivacy.it.

[13]  Decision issued by the Italian Data Protection Authority on 24 May 2006.

[14]  Regulation (EU) 2016/679 of the European parliament and of the Council of 27 April 2016, on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection  Regulation), published on : https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:32016R0679

[15]  Tamburri Damian A, “Design principles for the General Data Protection Regulation (GDPR): A formal concept analysis and its evaluation.” Information Systems 91 (2020): 101469.

[16]  Gömann Merlin, “The new territorial scope of EU data protection law: deconstructing a revolutionary achievement,” Common market law review 54, no. 2 (2017).

Kuner Christopher, “Territorial Scope and Data Transfer Rules in the GDPR: Realising the EUs Ambition of Borderless Data Protection,” University of Cambridge Faculty of Law Research Paper 20 (2021).

[17]  Li  He, Lu Yu, and Wu He, “The impact of GDPR on global technology development,” Journal of Global Information Technology Management 22, no. 1 (2019): 1-6.

[18]  Vogiatzoglou Plixavra and Stefano Fantin, “National and Public Security within and beyond the Police Directive.” Security and Law, Legal and Ethical Aspects of Public Security, Cyber Security and Critical Infrastructure Security. Vedder A, Schroers J, Ducuing C, Valcke P.(eds). Intersentia, Cambridge, Antwerp, Chicago 2 (2019).

[19]  La directive n° 2016/680 du 27 avril 2016, dite directive « Police-Justice »

[20]  Ibid, para 29.

[21]  RÈGLEMENT (UE) 2018/1807 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 14 novembre 2018 établissant un cadre applicable au libre flux des données à caractère non personnel dans lUnion européenne.

[22]  Mouron Philippe, «La libre circulation des données est devenue la cinquième liberté consacrée dans le droit de lUnion européenneRevue européenne des médias et du numérique 49 (2019): 5-8.

Douville Thibault, «Éthique et données à caractère personnel (Approche française et européenne),» Revue internationale de droit économique 353, no. 3 (2021): 29-45.

[23]  Directive (UE) 2019/1024 du Parlement européen et du Conseil du 20 juin 2019 concernant les données ouvertes et la réutilisation des informations du secteur public

[24]  Robin Agnès, «Exploitation de linnovationCahiers Droit, Sciences & Technologies 12 (2021): 229-236.

De Velp Sophie Everarts, “Big Data dans lIA et principe de minimisation: défis et risques,” In Time to reshape the digital society: 40th anniversary of the CRIDS, pp. 289-298. Larcier, 2021.

[25]  Règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724 (règlement sur la gouvernance des données) (Texte présentant de lintérêt pour lEEE), para 5.

[26]  Kartal Selin, «Apparition du Règlement 2022/1925 (DMA): quen est-il de son application concomitante avec le droit européen de la concurrence et des législations nationales?.» (2023).

[27]  Léa Bolu, Règlement sur les services numériques (DSA) : ce que vous devez savoir. Sur :https://www.capital.fr/conso/reglement-sur-les-services-numeriques-dsa-ce-que-vous-devez-savoir-1479815

[28]  Gillet Marie, «La protection des utilisateurs sur les plateformes en ligne, analyse comparée des régimes de protection des utilisateurs privés et professionnels,» (2023).

[29]  Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), para 12.

[30]  Jančiūtė Laima, “European Data Protection Board: a nascent EU agency or anintergovernmental club’?.” International Data Privacy Law 10, no. 1 (2020): 57-75.

[31]  Ausloos Jef, René Mahieu, and Michael Veale. “Getting data subject rights right: A submission to the european data protection board from international data rights academics, to inform regulatory guidance,” JIPITECJournal of Intellectual Property, Information Technology and E-Commerce Law 10, no. 3 (2019): 283-309.

[32]  Fuster Gloria González, Laura Drechsler, René Mahieu, and Michalina Nadolna Peeters. “Feedback for the European Data Protection Board (EDPB) in response to the public consultation onGuidelines 10/2020 on restrictions under Article 23 GDPR Version 1.0 Adopted on 15 December 2020,”(2021).

[33]  European Data Protection Supervisor, published on : https://edps.europa.eu/frequently-asked-questions_en

[34]  Jasmontaite Lina, “European Union: The European Data Protection Supervisor (EDPS) Opinion 4/2015 Towards a New Digital Ethics,” Eur. Data Prot. L. Rev. 2 (2016): 93.

[35]  See : https://www.europarl.europa.eu/committees/en/econ/home/highlights

[36]  See : https://www.europarl.europa.eu/committees/en/cult/home/highlights

[37]  BCE, Un euro numérique, publié sur : https://www.ecb.europa.eu/paym/digital_euro/html/index.fr.html

[38]  AIDA, published : https://www.europarl.europa.eu/committees/en/aida/about

[39]  Rosati Marcello Vitali, «Une éthique appliquée?. Considérations pour une éthique du numériqueÉthique publique. Revue internationale déthique sociétale et gouvernementale 14, no. 2 (2012).

[40]  Parizeau Marie-Hélène, «La santé numérique et ses enjeux éthiques: du paternalisme aux normes sociales de santéÉthique publique. Revue internationale déthique sociétale et gouvernementale 25, no. 1 (2023).

[41]  Code dEthique des Métiers de la Sécurité des Systèmes dInformation.

[42]  https://clusif.fr/

[43]  https://www.ccne-ethique.fr/publications/missions-0?taxo=56

[44]  Ibid.

[45]   Avis 141 du CCNE et 4 du CNPEN «Diagnostic Médical et Intelligence Artificielle : Enjeux Ethiques»

[46]   Systèmes dIntelligence Artificielle utilisés pour le Diagnostic Médical

[47]  CCNE, publié sur : https://www.ccne-ethique.fr/fr/publications/avis-141-du-ccne-et-4-du-cnpen-diagnostic-medical-et-intelligence-artificielle-enjeux

[48]  Avis 141 du CCNE et 4 du CNPEN «Diagnostic Médical et Intelligence Artificielle : Enjeux Ethiques», p 57.

[49] CNPEN, Avis n 2, LE « VÉHICULE AUTONOME » :ENJEUX DÉTHIQUE

[50] Letter of July 15, 2019, the Prime Minister of France has given the President of the National Consultative Ethics Committee (CCNE) a mission to launch a probing investigation into the ethical questions.

[51] Opinion n 3, ETHICAL ISSUES OF CONVERSATIONAL AGENTS, published on : https://www.ccne-ethique.fr/en/node/464

[52] CCNE,  CNPEN - Ethical issues of conversational agents, publié sur : https://www.ccne-ethique.fr/en/node/464

[53]  LOI n° 2016-1321 du 7 octobre 2016 pour une République numérique , https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000033202746

[54]  CNIL (2017). Comment permettre à lHomme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de lintelligence artificielle, publié sur https://www.cnil.fr/fr/ethique-et-intelligence-artificielle

[55]  Schrock Andrew R, “What is civic tech? Defining a practice of technical pluralism.” In The right to the smart city, pp. 125-133. Emerald Publishing Limited, 2019.

[56]  Lavis de la CNIL sur les espaces numériques de travail (ENT) dans le système éducatif, 17 novembre 2010, publié sur : https://www.cnil.fr/fr/lavis-de-la-cnil-sur-les-espaces-numeriques-de-travail-ent-dans-le-systeme-educatif

[57]  Résolution parlement européen de 2020, Cadre pour les aspects éthiques de lintelligence artificielle, de la robotique et des technologies connexes) , https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_FR.html

[58]  Bertrand Brunessen, «Chronique Droit européen du numérique-Lémergence dune politique européenne du numériqueRTDEur. Revue trimestrielle de droit européen 01 (2021): 129.

[59]  https://digital-strategy.ec.europa.eu/fr/policies/expert-group-ai

[60]  Commission européenne, Direction générale des réseaux de communication, du contenu et des technologies, Lignes directrices en matière déthique pour une IA digne de confiance, Publications Office, 2019, https://data.europa.eu/doi/10.2759/74304