اتصل بنا للحصول على مزيد من المعلومات

الذكاء الاصطناعي

قانون الذكاء الاصطناعي: المجلس والبرلمان يتوصلان إلى اتفاق بشأن القواعد الأولى للذكاء الاصطناعي في العالم

SHARE:

تم النشر

on

نستخدم تسجيلك لتقديم المحتوى بالطرق التي وافقت عليها ولتحسين فهمنا لك. يمكنك إلغاء الاشتراك في أي وقت.

بعد محادثات "ماراثونية" استمرت ثلاثة أيام، توصلت رئاسة المجلس ومفاوضو البرلمان الأوروبي إلى اتفاق مؤقت بشأن اقتراح بشأن القواعد المنسقة بشأن الذكاء الاصطناعي (AI)، أو ما يسمى بقانون الذكاء الاصطناعي. تهدف مسودة اللائحة إلى التأكد من أن أنظمة الذكاء الاصطناعي المطروحة في السوق الأوروبية والمستخدمة في الاتحاد الأوروبي آمنة وتحترم الحقوق الأساسية وقيم الاتحاد الأوروبي. ويهدف هذا الاقتراح التاريخي أيضًا إلى تحفيز الاستثمار والابتكار في مجال الذكاء الاصطناعي في أوروبا.

كارمي أرتيجاس، وزيرة الدولة الإسبانية للرقمنة والذكاء الاصطناعي

وهذا إنجاز تاريخي، وعلامة فارقة كبيرة نحو المستقبل! تعالج اتفاقية اليوم بشكل فعال التحدي العالمي في بيئة تكنولوجية سريعة التطور في مجال رئيسي لمستقبل مجتمعاتنا واقتصاداتنا. وفي هذا المسعى، تمكنا من الحفاظ على توازن دقيق للغاية: تعزيز الابتكار واستيعاب الذكاء الاصطناعي في جميع أنحاء أوروبا مع الاحترام الكامل للحقوق الأساسية لمواطنينا. كارمي أرتيغاس، وزيرة الدولة الإسبانية للرقمنة والذكاء الاصطناعي

قانون الذكاء الاصطناعي هو أ الرائد مبادرة تشريعية لديها القدرة على تعزيز تطوير واستيعاب الذكاء الاصطناعي الآمن والجدير بالثقة عبر السوق الموحدة للاتحاد الأوروبي من قبل الجهات الفاعلة الخاصة والعامة. الفكرة الرئيسية هي تنظيم الذكاء الاصطناعي بناءً على قدرة الأخير على إلحاق الضرر بالمجتمع بعد وقوع حادث "على أساس المخاطر" مقاربة: كلما زادت المخاطر، أصبحت القواعد أكثر صرامة. باعتباره أول اقتراح تشريعي من نوعه في العالم، فإنه يمكن أن يضع أ المعيار العالمي لتنظيم الذكاء الاصطناعي في ولايات قضائية أخرى، تمامًا كما فعلت اللائحة العامة لحماية البيانات، وبالتالي تعزيز النهج الأوروبي لتنظيم التكنولوجيا على المسرح العالمي.

العناصر الرئيسية للاتفاقية المؤقتة

وبالمقارنة مع الاقتراح الأولي للمفوضية، يمكن تلخيص العناصر الرئيسية الجديدة للاتفاق المؤقت على النحو التالي:

  • القواعد على نماذج الذكاء الاصطناعي للأغراض العامة عالية التأثير التي يمكن أن تسبب مخاطر نظامية في المستقبل، وكذلك على مخاطر عالية أنظمة الذكاء الاصطناعي
  • نظام منقح الحكم مع بعض صلاحيات التنفيذ على مستوى الاتحاد الأوروبي
  • تمديد القائمة المحظورات ولكن مع إمكانية استخدامها تحديد الهوية عن بعد من قبل سلطات إنفاذ القانون في الأماكن العامة، مع مراعاة الضمانات
  • حماية أفضل للحقوق من خلال إلزام القائمين على نشر أنظمة الذكاء الاصطناعي عالية المخاطر بإجراء تقييم الأثر على الحقوق الأساسية قبل وضع نظام الذكاء الاصطناعي موضع الاستخدام.

وبعبارات أكثر تحديدا، يغطي الاتفاق المؤقت الجوانب التالية:

التعاريف والنطاق

لضمان أن تعريف إذا كان نظام الذكاء الاصطناعي يوفر معايير واضحة بما فيه الكفاية لتمييز الذكاء الاصطناعي عن أنظمة البرمجيات الأبسط، فإن اتفاقية التسوية تعمل على مواءمة التعريف مع النهج الذي تقترحه منظمة التعاون الاقتصادي والتنمية.

توضح الاتفاقية المؤقتة أيضًا أن اللائحة لا تنطبق على المجالات التي تقع خارج نطاق قانون الاتحاد الأوروبي ويجب ألا تؤثر بأي حال من الأحوال على اختصاصات الدول الأعضاء في الأمن القومي أو أي جهة تتولى مهام في هذا المجال. علاوة على ذلك، لن ينطبق قانون الذكاء الاصطناعي على الأنظمة المستخدمة حصريًا عسكر or دفاع المقاصد. وبالمثل، تنص الاتفاقية على أن اللائحة لن تنطبق على أنظمة الذكاء الاصطناعي المستخدمة لغرض وحيد هو البحث والابتكارأو للأشخاص الذين يستخدمون الذكاء الاصطناعي لأسباب غير مهنية.

الإعلانات

تصنيف أنظمة الذكاء الاصطناعي على أنها ممارسات عالية الخطورة ومحظورة

وتنص اتفاقية التسوية على أ طبقة أفقية من الحماية، بما في ذلك التصنيف عالي المخاطر، لضمان عدم رصد أنظمة الذكاء الاصطناعي التي من غير المرجح أن تسبب انتهاكات خطيرة للحقوق الأساسية أو غيرها من المخاطر الكبيرة. أنظمة الذكاء الاصطناعي تقدم فقط مخاطر محدودة سوف تخضع للضوء جدا التزامات الشفافية، على سبيل المثال الكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي حتى يتمكن المستخدمون من اتخاذ قرارات مستنيرة بشأن الاستخدام الإضافي.

مجال واسع من مخاطرة عالية سيتم السماح بأنظمة الذكاء الاصطناعي، ولكنها تخضع لمجموعة من المتطلبات والالتزامات للوصول إلى سوق الاتحاد الأوروبي. وقد تم توضيح هذه المتطلبات وتعديلها من قبل المشرعين المشاركين بطريقة أكثر ممكن تقنيا و أقل عبئا لكي يلتزم أصحاب المصلحة بها، على سبيل المثال فيما يتعلق بجودة البيانات، أو فيما يتعلق بالوثائق الفنية التي ينبغي للشركات الصغيرة والمتوسطة إعدادها لإثبات أن أنظمة الذكاء الاصطناعي عالية المخاطر الخاصة بها تمتثل للمتطلبات.

وبما أن أنظمة الذكاء الاصطناعي يتم تطويرها وتوزيعها من خلال سلاسل القيمة المعقدة، فإن اتفاقية التسوية تتضمن تغييرات توضح توزيع المسؤوليات و أدوار الجهات الفاعلة المختلفة في تلك السلاسل، ولا سيما مقدمي ومستخدمي أنظمة الذكاء الاصطناعي. ويوضح أيضًا العلاقة بين المسؤوليات بموجب قانون الذكاء الاصطناعي والمسؤوليات الموجودة بالفعل بموجب تشريعات أخرى، مثل حماية البيانات ذات الصلة في الاتحاد الأوروبي أو التشريعات القطاعية.

بالنسبة لبعض استخدامات الذكاء الاصطناعي، يتم أخذ المخاطر بعين الاعتبار غير مقبول وبالتالي سيتم حظر هذه الأنظمة في الاتحاد الأوروبي. ويحظر الاتفاق المؤقت، على سبيل المثال، المعرفي التلاعب السلوكي، غير المستهدفة الغاء صور الوجه من الإنترنت أو لقطات الدوائر التلفزيونية المغلقة، التعرف على المشاعر في أماكن العمل والمؤسسات التعليمية، التهديف الاجتماعي, التصنيف البيومتري لاستنتاج بيانات حساسة، مثل التوجه الجنسي أو المعتقدات الدينية، وبعض حالات ذلك الشرطة التنبؤية للأفراد.

استثناءات إنفاذ القانون

مع الأخذ في الاعتبار خصوصيات سلطات إنفاذ القانون والحاجة إلى الحفاظ على قدرتهم على استخدام الذكاء الاصطناعي في عملهم الحيوي، وتم الاتفاق على العديد من التغييرات على اقتراح اللجنة فيما يتعلق باستخدام أنظمة الذكاء الاصطناعي لأغراض إنفاذ القانون. بشرط المناسب الضماناتتهدف هذه التغييرات إلى عكس الحاجة إلى احترام سرية البيانات التشغيلية الحساسة فيما يتعلق بأنشطتها. على سبيل المثال، تم تقديم إجراء طارئ يسمح لوكالات إنفاذ القانون بنشر أداة ذكاء اصطناعي عالية الخطورة لم تتجاوز معايير الذكاء الاصطناعي تقييم المطابقة الإجراء في حالة الاستعجال. ومع ذلك، فقد تم أيضًا إدخال آلية محددة لضمان ذلك الحقوق الأساسية ستكون محمية بشكل كافٍ ضد أي إساءة استخدام محتملة لأنظمة الذكاء الاصطناعي.

علاوة على ذلك، فيما يتعلق باستخدام الوقت الحقيقي تحديد الهوية عن بعد الأنظمة في الأماكن العامة التي يمكن الوصول إليها، توضح الاتفاقية المؤقتة الأهداف التي يكون فيها هذا الاستخدام ضروريًا تمامًا لأغراض إنفاذ القانون والتي ينبغي بالتالي السماح لسلطات إنفاذ القانون باستخدام هذه الأنظمة بشكل استثنائي. تنص اتفاقية التسوية على ضمانات إضافية ويقصر هذه الاستثناءات على حالات ضحايا جرائم معينة، ومنع التهديدات الحقيقية أو الحالية أو المتوقعة، مثل الهجمات الإرهابية، والبحث عن الأشخاص المشتبه في ارتكابهم أخطر الجرائم.

أنظمة الذكاء الاصطناعي للأغراض العامة ونماذج الأساس

تمت إضافة أحكام جديدة لتأخذ في الاعتبار المواقف التي يمكن فيها استخدام أنظمة الذكاء الاصطناعي للعديد من الأغراض المختلفة (للأغراض العامة منظمة العفو الدولية)، وحيث يتم لاحقًا دمج تقنية الذكاء الاصطناعي ذات الأغراض العامة في نظام آخر عالي المخاطر. تتناول الاتفاقية المؤقتة أيضًا الحالات المحددة لأنظمة الذكاء الاصطناعي للأغراض العامة (GPAI).

كما تم الاتفاق على قواعد محددة نماذج الأساس، أنظمة كبيرة قادرة على أداء مجموعة واسعة من المهام المميزة بكفاءة، مثل إنشاء فيديو أو نص أو صور أو التحدث بلغة جانبية أو الحوسبة أو إنشاء كود حاسوبي. تنص الاتفاقية المؤقتة على أن نماذج الأساس يجب أن تتوافق مع معايير محددة التزامات الشفافية قبل طرحها في الأسواق. تم تقديم نظام أكثر صرامة ل "تأثير كبير" نماذج الأساس. هذه هي النماذج الأساسية التي تم تدريبها باستخدام كمية كبيرة من البيانات وبتعقيد وقدرات وأداء متقدم أعلى بكثير من المتوسط، والتي يمكنها نشر المخاطر النظامية على طول سلسلة القيمة.

بنية حوكمة جديدة

باتباع القواعد الجديدة بشأن نماذج GPAI والحاجة الواضحة لتطبيقها على مستوى الاتحاد الأوروبي، أ مكتب الذكاء الاصطناعي تم إنشاء الهيئة داخل المفوضية بهدف الإشراف على نماذج الذكاء الاصطناعي الأكثر تقدمًا، والمساهمة في تعزيز المعايير وممارسات الاختبار، وإنفاذ القواعد المشتركة في جميع الدول الأعضاء. أ لجنة علمية من الخبراء المستقلين سوف يقدم المشورة لمكتب الذكاء الاصطناعي حول نماذج GPAI، من خلال المساهمة في تطوير منهجيات لتقييم قدرات نماذج الأساس، وتقديم المشورة بشأن تعيين وظهور نماذج الأساس عالية التأثير، ومراقبة مخاطر سلامة المواد المحتملة المتعلقة بنماذج الأساس.

مجلس الذكاء الاصطناعي ، والتي ستضم ممثلي الدول الأعضاء، وستظل بمثابة منصة تنسيق وهيئة استشارية للمفوضية وستعطي دورًا مهمًا للدول الأعضاء في تنفيذ اللائحة، بما في ذلك تصميم قواعد الممارسة لنماذج المؤسسات. وأخيرا، أ المنتدى الاستشاري لأصحاب المصلحة، مثل ممثلي الصناعة والشركات الصغيرة والمتوسطة والشركات الناشئة والمجتمع المدني والأوساط الأكاديمية، لتقديم الخبرة الفنية لمجلس الذكاء الاصطناعي.

الغرامات

تم تحديد غرامات انتهاكات قانون الذكاء الاصطناعي كنسبة مئوية من إجمالي المبيعات السنوية العالمية للشركة المخالفة في السنة المالية السابقة أو مبلغ محدد مسبقًا، أيهما أعلى. سيكون هذا 35 مليون يورو أو 7% لانتهاكات تطبيقات الذكاء الاصطناعي المحظورة، و15 مليون يورو أو 3% لانتهاكات التزامات قانون الذكاء الاصطناعي و7,5 مليون يورو أو 1,5% لتقديم معلومات غير صحيحة. ومع ذلك، ينص الاتفاق المؤقت على قبعات أكثر تناسبا بشأن الغرامات الإدارية للشركات الصغيرة والمتوسطة والشركات الناشئة في حالة انتهاك أحكام قانون الذكاء الاصطناعي.

توضح اتفاقية التسوية أيضًا أنه يجوز لأي شخص طبيعي أو اعتباري تقديم شكوى إلى الجهة المعنية هيئة مراقبة السوق فيما يتعلق بعدم الامتثال لقانون الذكاء الاصطناعي، ويتوقع أن يتم التعامل مع مثل هذه الشكوى بما يتماشى مع الإجراءات المخصصة لتلك السلطة.

الشفافية وحماية الحقوق الأساسية

وتنص الاتفاقية المؤقتة على أ تقييم الأثر على الحقوق الأساسية قبل طرح نظام الذكاء الاصطناعي عالي الخطورة في السوق من قبل القائمين على نشره. وينص الاتفاق المؤقت أيضا على زيادة شفافية فيما يتعلق باستخدام أنظمة الذكاء الاصطناعي عالية المخاطر. والجدير بالذكر أنه تم تعديل بعض أحكام اقتراح المفوضية للإشارة إلى أن بعض مستخدمي نظام الذكاء الاصطناعي عالي المخاطر والذين هم كيانات عامة سيكونون ملزمين أيضًا بالتسجيل في قاعدة بيانات الاتحاد الأوروبي لأنظمة الذكاء الاصطناعي عالية المخاطر. وعلاوة على ذلك، فإن الأحكام المضافة حديثا تركز على التزام مستخدمي أي نظام التعرف على المشاعر لإبلاغ الأشخاص الطبيعيين عندما يتعرضون لمثل هذا النظام.

تدابير لدعم الابتكار

بهدف إنشاء إطار قانوني أكثر ملاءمة للابتكار وتعزيز التعلم التنظيمي القائم على الأدلة، فإن الأحكام المتعلقة التدابير الداعمة للابتكار تم تعديلها بشكل كبير مقارنة باقتراح اللجنة.

والجدير بالذكر أنه تم توضيح أن الذكاء الاصطناعي صناديق الحماية التنظيمية، والتي من المفترض أن تنشئ بيئة خاضعة للرقابة لتطوير واختبار والتحقق من أنظمة الذكاء الاصطناعي المبتكرة، يجب أن تسمح أيضًا باختبار أنظمة الذكاء الاصطناعي المبتكرة في ظروف العالم الحقيقي. علاوة على ذلك، تم إضافة أحكام جديدة تسمح بذلك تجريب من أنظمة الذكاء الاصطناعي في ظروف العالم الحقيقي، ضمن شروط وضمانات محددة. ولتخفيف العبء الإداري على الشركات الصغيرة، يتضمن الاتفاق المؤقت قائمة بالإجراءات التي يتعين اتخاذها لدعم هؤلاء المشغلين وينص على بعض الاستثناءات المحدودة والمحددة بوضوح.

الانضمام الى القوة

وينص الاتفاق المؤقت على ضرورة تطبيق قانون الذكاء الاصطناعي سنتان بعد دخولها حيز التنفيذ، مع بعض الاستثناءات لأحكام محددة.

الخطوات التالية

وبعد الاتفاق المؤقت الذي تم التوصل إليه اليوم، سيستمر العمل على المستوى الفني في الأسابيع المقبلة لوضع اللمسات الأخيرة على تفاصيل اللائحة الجديدة. وستقدم الرئاسة النص التوفيقي إلى ممثلي الدول الأعضاء (Coreper) للموافقة عليه بمجرد الانتهاء من هذا العمل.

وسيحتاج النص بأكمله إلى موافقة المؤسستين وإخضاعه لمراجعة قانونية ولغوية قبل اعتماده رسميًا من قبل المشرعين المشاركين.

معلومات أساسية

يعد اقتراح المفوضية، الذي تم تقديمه في أبريل 2021، عنصرًا أساسيًا في سياسة الاتحاد الأوروبي لتعزيز التطوير واستيعاب السوق الموحدة للذكاء الاصطناعي الآمن والمشروع الذي يحترم الحقوق الأساسية.

يتبع الاقتراح نهجًا قائمًا على المخاطر ويضع إطارًا قانونيًا موحدًا وأفقيًا للذكاء الاصطناعي يهدف إلى ضمان اليقين القانوني. ويهدف مشروع اللائحة إلى تشجيع الاستثمار والابتكار في الذكاء الاصطناعي، وتعزيز الحوكمة والإنفاذ الفعال للقانون الحالي بشأن الحقوق الأساسية والسلامة، وتسهيل تطوير سوق موحدة لتطبيقات الذكاء الاصطناعي. وهو يسير جنبًا إلى جنب مع مبادرات أخرى، بما في ذلك الخطة المنسقة بشأن الذكاء الاصطناعي التي تهدف إلى تسريع الاستثمار في الذكاء الاصطناعي في أوروبا. في 6 ديسمبر 2022، توصل المجلس إلى اتفاق بشأن نهج عام (تفويض التفاوض) بشأن هذا الملف ودخل في محادثات مشتركة بين المؤسسات مع البرلمان الأوروبي ("الثلاثيات") في منتصف يونيو 2023.

حصة هذه المادة:

ينشر برنامج EU Reporter مقالات من مجموعة متنوعة من المصادر الخارجية التي تعبر عن مجموعة واسعة من وجهات النظر. المواقف التي تم اتخاذها في هذه المقالات ليست بالضرورة مواقف EU Reporter.

وصــل حديــثاً