سدايا ترسم مستقبل الذكاء الاصطناعي بضوابط أخلاقية صارمة

أطلقت الهيئة العامة للبيانات والذكاء الاصطناعي "سدايا" مسودة "سياسة الذكاء الاصطناعي المسؤول"، لتضع إطاراً أخلاقياً وتنظيمياً قوياً لاستخدام هذه التقنيات في المملكة، بهدف تعزيز الابتكار المسؤول وضمان حماية الأفراد والمجتمع.

تهدف السياسة، التي طرحت للاستطلاع العام، إلى تحقيق توازن دقيق بين تشجيع تبني الذكاء الاصطناعي وتطويره، مع التأكيد على الاستخدام الآمن والأخلاقي. وتسعى "سدايا" من خلال هذه السياسة إلى رفع مستوى الجاهزية لمواجهة المخاطر المحتملة، وتوضيح الأدوار والمسؤوليات لكافة الأطراف المعنية بدورة حياة أنظمة الذكاء الاصطناعي، مما يعزز الثقة في هذه التقنيات.

تستند السياسة إلى سبعة مبادئ أخلاقية أساسية تشمل: النزاهة والإنصاف لضمان خلو الأنظمة من التحيز، والخصوصية والأمن لحماية بيانات الأفراد، والإنسانية بضمان خدمة الذكاء الاصطناعي للإنسان واحترام حقوقه، والمنافع الاجتماعية والبيئية لتحقيق التنمية المستدامة. كما تشمل مبادئ السلامة والموثوقية لضمان أنظمة آمنة وقابلة للاختبار، والشفافية والقابلية للتفسير لفهم آلية عمل الأنظمة، وأخيراً المساءلة والمسؤولية لتحميل كافة الأطراف مسؤولية نتائج الأنظمة.

تتضمن السياسة حوافز لتطوير تقنيات الذكاء الاصطناعي، مثل تمكين التبني المسؤول في القطاعين العام والخاص، وتعزيز البيئة التمكينية للابتكار عبر إتاحة البيانات وتنمية الكفاءات، بالإضافة إلى تسخير الذكاء الاصطناعي لتطوير القطاعات المختلفة وخلق نماذج أعمال جديدة. كما تهدف إلى تعزيز السيادة الرقمية عبر دعم الابتكار المحلي، وتطوير أطر تنظيمية محفزة للاستثمار، واستخدام المشتريات الحكومية كأداة لدعم التبني والابتكار المسؤول.

في المقابل، تحذر السياسة من ممارسات الاستخدام غير المسؤول، مثل نشر المحتوى المضلل، والتأثير غير المشروع على الرأي العام، واستخدام تقنيات مثل "التزييف العميق" دون إفصاح. وتشدد على ضرورة التحقق من موثوقية المصادر، والإفصاح عن المحتوى المنتج بالذكاء الاصطناعي. كما تلزم المطورين والمستخدمين بتحديد مصفوفة واضحة للأدوار والمسؤوليات، وتعيين مسؤول محدد لكل وكيل ذكاء اصطناعي، مع الالتزام بالأنظمة واللوائح الوطنية.

تفرض السياسة التزامات على المطورين تشمل بناء الأنظمة وفق مبادئ الخصوصية والشفافية والسلامة، والتحقق من الامتثال لضوابط السيادة الوطنية للبيانات، وتقليل التحيز في النماذج، وضمان الإشراف البشري المستمر. كما تحدد مسؤوليات واضحة لصناع المحتوى والمستخدمين، مثل حظر نشر المحتوى المضلل، والإبلاغ عن استخدام تقنيات الذكاء الاصطناعي، وحماية بيانات الأطفال. وتُلزم الجهات الحكومية بإنشاء مكاتب مختصة بالذكاء الاصطناعي للإشراف على الامتثال وضمان بنية تحتية تقنية آمنة.