في 13 مارس 2024، أقر البرلمان الأوروبي قانون الذكاء الاصطناعي، الذي حل بشكل شامل جميع القضايا المتعلقة بالإطار التنظيمي للذكاء الاصطناعي. وسيصبح هذا تشريعًا تاريخيًا للاتحاد الأوروبي في أوروبا.
وسيدخل قانون الذكاء الاصطناعي حيز التنفيذ الكامل في أوروبا في نهاية عام 2026، في غضون 24 شهرًا من نشره. لكن الحظر على أنظمة الذكاء الاصطناعي التي تشكل مخاطر غير مقبولة سيتم تنفيذه خلال ستة أشهر، مما يعني أنه قد يتم تنفيذه في عام 2024. بالإضافة إلى ذلك، سيبدأ تطبيق القواعد المتعلقة بأنظمة الذكاء الاصطناعي العامة في منتصف عام 2025.
ما هو نظام الذكاء الاصطناعي؟
- يتم تعريف أنظمة الذكاء الاصطناعي المذكورة في قانون الذكاء الاصطناعي على أنها أنظمة قائمة على الآلة مصممة للعمل بدرجات متفاوتة من الاستقلالية. تظهر هذه الأنظمة القدرة على التكيف مع الأهداف الصريحة أو الضمنية بعد نشر النظام، مستنتجة من المدخلات التي تتلقاها كيفية إنتاج مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي قد تؤثر على البيئة المادية أو الافتراضية.
- التعريف الواسع لأنظمة الذكاء الاصطناعي يجعل نطاق قانون الذكاء الاصطناعي مرنًا للغاية، ولا يغطي منتجات البرمجيات فحسب، بل يشمل أيضًا جميع الأدوات أو الأجهزة أو الحلول الأخرى التي لديها القدرة على اعتبارها أنظمة مستقلة، يمكنها التعلم والتوصل إلى استنتاجات حول المواقف الجديدة بناءً على البيانات المدخلة التي تم تسليمها لهم مسبقًا. علاوة على ذلك، فإن هذا التعريف الواسع يجعل قانون الذكاء الاصطناعي قابلاً للتطبيق ليس فقط على منتجات الذكاء الاصطناعي نفسها، ولكن أيضًا على أي منتجات أو حلول أخرى تستخدم مكونات الذكاء الاصطناعي.
من ينطبق عليه ذلك؟
- ينطبق قانون الذكاء الاصطناعي على الجهات التي تتعامل مع أنظمة الذكاء الاصطناعي، وعلى الأخص:
- المزود – كيان يقوم بتطوير نظام الذكاء الاصطناعي ويطرحه في السوق أو كخدمة تحت علامته التجارية الخاصة.
- الناشر – كيان يستخدم نظام الذكاء الاصطناعي تحت سلطته الخاصة.
- بالإضافة إلى ذلك، ينطبق قانون الذكاء الاصطناعي أيضًا على أنواع أخرى من الكيانات مثل المستوردين والموزعين والممثلين المعتمدين.
أنظمة الذكاء الاصطناعي المحظورة
يقترح قانون الذكاء الاصطناعي نهجًا للتقييم على أساس المخاطر ويفرض متطلبات مختلفة على فئات مختلفة من أنظمة الذكاء الاصطناعي بناءً على تأثيرها على الأفراد (الأشخاص الطبيعيين المتأثرين بنظام معين للذكاء الاصطناعي).
تشكل أنظمة الذكاء الاصطناعي المحظورة خطراً غير مقبول. مع بعض الاستثناءات، تشمل أنظمة الذكاء الاصطناعي المحظورة ما يلي:
- الأنظمة التي تستخدم تقنيات لا شعورية أو تلاعبية أو خادعة للتأثير على الأفراد لاتخاذ قرارات مستنيرة؛
- أنظمة التسجيل الاجتماعي التي تؤدي إلى معاملة ضارة أو ضارة؛
- واستخدام أنظمة التعرف على الوجه التي تلتقط صورًا غير مستهدفة للوجوه من الإنترنت أو من لقطات كاميرات المراقبة؛
- أنظمة التعرف على المشاعر في أماكن العمل والمؤسسات التعليمية؛
- العديد من أنظمة التصنيف البيومترية؛
- بعض أنظمة القياسات الحيوية عن بعد في الوقت الحقيقي.
أنظمة الذكاء الاصطناعي عالية المخاطر
الفئة الأساسية لقانون الذكاء الاصطناعي هي أنظمة الذكاء الاصطناعي عالية المخاطر، أي الأنظمة التي قد تشكل خطرًا كبيرًا لإلحاق الضرر بصحة الأشخاص الطبيعيين أو سلامتهم أو حقوقهم الأساسية. وفقًا لقانون الذكاء الاصطناعي، تشير أنظمة الذكاء الاصطناعي عالية المخاطر إلى الأنظمة التي تغطيها تشريعات سلامة المنتجات في الاتحاد الأوروبي، بما في ذلك على سبيل المثال لا الحصر الأنظمة التالية:
- أنظمة الذكاء الاصطناعي المستخدمة في البنية التحتية الحيوية؛
- أنظمة الذكاء الاصطناعي للتعليم والتدريب المهني؛
- أنظمة الذكاء الاصطناعي للتوظيف وإدارة العمال والعمل الحر؛
- أنظمة الذكاء الاصطناعي لإنفاذ القانون؛
- أنظمة إدارة الهجرة واللجوء ومراقبة الحدود.
قائمة أنظمة الذكاء الاصطناعي عالية المخاطر في مشروع القانون ليست شاملة، مما يعني أن فئات العينة من أنظمة الذكاء الاصطناعي عالية المخاطر قد يتم استكمالها في المستقبل وتتماشى مع اتجاهات التكنولوجيا.
بالإضافة إلى أنظمة الذكاء الاصطناعي عالية المخاطر، يغطي قانون الذكاء الاصطناعي أيضًا أنظمة الذكاء الاصطناعي الأخرى متوسطة ومنخفضة المخاطر.
التزامات أنظمة الذكاء الاصطناعي عالية المخاطر
سيواجه مقدمو و/أو القائمون على نشر أنظمة الذكاء الاصطناعي عالية المخاطر مجموعة من الالتزامات، مثل:
- تنفيذ أنظمة إدارة المخاطر طوال دورة حياة أنظمة الذكاء الاصطناعي عالية المخاطر، ويشمل ذلك تحديد وتحليل المخاطر المعروفة والمتوقعة بشكل معقول، واتخاذ تدابير مستهدفة لإدارة المخاطر؛
- تنفيذ آليات مناسبة لإدارة البيانات - التأكد من أن البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي والتحقق من صحتها واختبارها مناسبة للغرض وذات جودة مناسبة؛
صياغة والحفاظ على الوثائق الفنية التفصيلية لأنظمة الذكاء الاصطناعي. - تزويد النظام بقدرات حفظ السجلات لتسجيل الأحداث تلقائيًا أثناء تشغيل نظام الذكاء الاصطناعي؛
- الحفاظ على الرقابة البشرية على أنظمة الذكاء الاصطناعي؛
- الحفاظ على مستويات مناسبة من الدقة والقوة والأمن السيبراني لأنظمة الذكاء الاصطناعي؛
- تنفيذ نظام إدارة الجودة؛
- إجراء تقييمات الأثر أو تقييمات المطابقة لفئات معينة من أنظمة الذكاء الاصطناعي؛
- تنفيذ مراقبة ما بعد السوق - جمع وتحليل بيانات نظام الذكاء الاصطناعي؛
- التزامات تسجيل قاعدة بيانات الاتحاد الأوروبي؛
- التزامات المعلومات/الشفافية تجاه الأفراد المتأثرين بأنظمة الذكاء الاصطناعي.
الذكاء الاصطناعي العام
بالإضافة إلى أنظمة الذكاء الاصطناعي القياسية، يحدد قانون الذكاء الاصطناعي أيضًا فئة منفصلة: الأنظمة التي تستخدم الذكاء الاصطناعي (GPAI). هذا نظام ذو طبيعة عامة ويمكن استخدامه في مجموعة واسعة من الأنظمة أو التطبيقات النهائية. تتضمن GPAI نماذج ذكاء اصطناعي يمكنها أداء مجموعة متنوعة من المهام، وهي ذات أغراض عامة، وغالبًا ما تتعلم بشكل مستقل من كميات كبيرة من البيانات، ويمكن استخدامها في مجموعة واسعة من التطبيقات.
بموجب قانون الذكاء الاصطناعي، تواجه GPAI مجموعة منفصلة من المتطلبات:
- الوثائق الفنية التفصيلية لنموذج التنفيذ؛
- تنفيذ سياسات محددة تحترم قانون حق المؤلف؛
- تقديم ملخص "مفصل بما فيه الكفاية" لمحتويات مجموعة بيانات التدريب؛
- التزامات وضع العلامات على المحتوى الذي يتم إنشاؤه أو معالجته بواسطة الذكاء الاصطناعي.
العقوبات على الانتهاكات
اعتمادًا على نوع المخالفة وحجم الشركة، يفرض قانون الذكاء الاصطناعي عقوبات صارمة على الانتهاكات. يمكن أن يؤدي خرق محظورات قانون الذكاء الاصطناعي إلى غرامات تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية، في حين أن عدم الوفاء بالالتزامات بموجب أنظمة الذكاء الاصطناعي عالية المخاطر يمكن أن يؤدي إلى غرامات تصل إلى 15 مليون يورو أو 3% من الإيرادات السنوية العالمية. حجم التداول العالمي السنوي..
إطار قانوني أوسع
على الرغم من أن قانون الذكاء الاصطناعي يركز على التطبيقات عالية المخاطر وGPAI، فمن المهم عدم إغفال التنفيذ الأوسع للذكاء الاصطناعي. يجب على الشركات إجراء تقييم شامل لنشر جميع تقنيات الذكاء الاصطناعي في عملياتها ومراجعة التقنيات التي كانت قيد التشغيل بالفعل قبل إقرار مشروع قانون الذكاء الاصطناعي لضمان الامتثال ليس فقط لمشروع قانون الذكاء الاصطناعي ولكن أيضًا للأطر القانونية الحالية. يتضمن ذلك قضايا الخصوصية وحماية البيانات التي تحكمها اللائحة العامة لحماية البيانات، بالإضافة إلى الامتثال لقوانين الملكية الفكرية وحماية المستهلك ومكافحة التمييز التي تنطبق على أنظمة الذكاء الاصطناعي المختلفة.
Get exact prices For the country / regionE-mail: mail@yezhimaip.com |