تُعد النماذج اللغوية الضخمة (LLMs) جزءًا من الثورة التكنولوجية الراهنة؛ قدرتها على توليد نصوص أو ردود تلقائيًا تفتح آفاقًا في التعليم، الصحة، العدالة وغيرها، لكنها تحمل مخاطر كبرى إن لم تُنظّم قانونيًا، حيث أن تحيّز خوارزمي يمكن أن يؤدي إلى قرارات ظالمة، تسريب بيانات حسّاسة، أو اتخاذ قرارات دون شفافية ومساءلة. لذلك، وفي ظل التطور السريع، بات من الضروري أن تواكب القوانين هذا الجدول الزمني، لا أن تكون متأخرة.

 

أمثلة من التشريعات والأنظمة العالمية

أ. الاتحاد الأوروبي

الاتحاد الأوروبي هو من روّاد التنظيم القانوني للذكاء الاصطناعي. عام 2024، دخل قانون الذكاء الاصطناعي AI Act حيّز التنفيذ، وهو قانون شامل يعتمد على مبدأ تقييم المخاطر. النماذج التي تُستخدم في المجالات ذات التأثير الكبير مثل الصحة أو العدالة أو المناخ تُصنّف ضمن الأنظمة عالية المخاطر، ومن ثم تُفرض عليها متطلبات صارمة مثل اختبار التحيّز، ضمان الشفافية، والإفصاح عن كيفية تدريب النموذج ومصادر البيانات. كما ينص القانون على فرض غرامات كبيرة على المخالفين، مع مراقبة حكومية مركزية. تشريعات الاتحاد الأوروبي لا تكتفي بمنع الأضرار بل تهدف إلى حماية الحقوق الأساسية، مثل الحق في الخصوصية، وعدم التمييز، والمساءلة عند استخدام الذكاء الاصطناعي. كما تُنشأ هيئات مراقبة وطنية تُتابع التطبيق، وتؤكد أن الإشراف البشري (human oversight) ضروري في القرارات الجوهرية.

ب. إيطاليا كمثال وطني داخل الاتحاد

مؤخرًا، أصدرت إيطاليا تشريعًا وطنيًا يُطابق إلى حد كبير متطلبات الاتحاد الأوروبي، يتضمّن حماية الخصوصية، الإشراف على الاستخدام من قبل الموظفين أو المؤسسات، ويحدد سن موافقة الأهل للقصر عند استخدام تكنولوجيا الذكاء الاصطناعي، ويُلزم بإشراف بشري وشفافية في القطاعات الحساسة مثل التعليم والعدالة والمجالات الطبية.

ج. الولايات المتحدة وكندا

في الولايات المتحدة، ليس هناك حتى الآن قانون اتحادي شامل بنفس صرامة قانون الاتحاد الأوروبي، لكن هناك توجُّه متزايد نحو تنظيم الاستخدام الحكومي للذكاء الاصطناعي، مع تركيز على ما يُعرف بـ “AI Bill of Rights” الذي يطرح مبادئ مثل الشفافية، عدم التمييز، وحق الاستئناف. بعض الولايات المحلية تزود القوانين الخاصة بها، خاصة فيما يتعلق بالخصوصية وحماية البيانات. في كندا أيضًا هناك قوانين حماية الخصوصية التي تؤثر على كيفية تجميع وتخزين البيانات التي تُستخدم لتدريب النماذج، ومعايير شفافة للموافقة. هذه القوانين قد لا ترصد صراحة الذكاء الاصطناعي التوليدي في كل حال، لكنها تؤثر عليه من خلال المتطلبات في حماية البيانات، حقوق الملكية الفكرية، والعقود.

 

تفاصيل التجربة السعودية: ما هو موجود وما هو قيد الإعداد

أ. الأُسس القانونية والمؤسسية

في المملكة السعودية، الهيئة المسؤولة هي الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA)، وهي جهة مركزية تبنّت رؤية وطنية ترتكز على رؤية المملكة 2030 التي تسعى إلى جعل السعودية من الدول المتقدمة في مجال البيانات والذكاء الاصطناعي. سدايا لا تزال تعمل ضمن إطار تشريعي وإرشادي أكثر من أن تكون التشريعات صادرة قانونًا بصرامة مُماثلة لبعض التشريعات الدولية.

ب. المبادئ والإرشادات القائمة

من أهم ما أصدرته SDAIA:

مبادئ أخلاقيات الذكاء الاصطناعي (AI Ethics Principles) التي صُيغت في سبتمبر 2023، وهي مسودة تُرشد المؤسسات والمستخدمين نحو بناء أنظمة الذكاء الاصطناعي مع مراعاة القيم مثل العدالة، حماية الخصوصية، الشفافية، وتقليل المخاطر الاجتماعية والنفسية والسياسية. هذه المبادئ لا تزال في صورة مسودة وليست قانونًا ملزِمًا بعد.

إرشادات الذكاء التوليدي (Generative AI Guidelines) التي صدرت في 1 يناير 2024، بنسختين: واحدة موجهة للجهات الحكومية، وأخرى عامة للمستخدمين أو المؤسسات غير الحكومية. هذه الإرشادات تُقدّم توجيهًا حول أفضل الممارسات، وتحديد المخاطر المحتملة، وكيفية الاستخدام المسؤول للنماذج التوليدية. ومع ذلك، كما المبادئ، هذه الإرشادات ليست قانونًا ملزمًا حتى الآن؛ هي توجيهية بمعنى أنها توصيات يفضل الالتزام بها لتفادي المخاطر.

إطار اعتماد الذكاء الاصطناعي (AI Adoption Framework)، وهو وثيقة توجيهية تساعد القطاعات الحكومية والخاصة في كيفية تبني الذكاء الاصطناعي بشكل منظّم، مع خطوات معيارية لتقييم المخاطر، التصمِيم، التنفيذ، والمتابعة. الهدف هو التأكد من أن التبنّي لا يكون عشوائيًا بل مقرونًا بضوابط واضحة.

 

المكاسب والتحديات للتطبيق

من المكاسب التي توفّرها التجربة السعودية أن هناك وعيًا مؤسساتيًّا ومن الدولة مبكرًا بخطورة استخدام الذكاء الاصطناعي من غير ضوابط، وأن هناك هيكلًا مؤسسيًا واضحًا (سدايا) تعمل على وضع المبادئ والإرشادات. أيضًا، عمل إرشادات مخصّصة للذكاء التوليدي هو خطوة مهمة لأنها تواجه القضايا الفريدة مثل التوليد التلقائي للمحتوى، التزييف العميق، أو البيانات المزيفة.

لكن التحديات كذلك واضحة: أولًا، كون هذه الأدوات غير ملزِمة قانونيًا يعني أن الالتزام يعتمد على إرادة الجهات والمستخدمين، وهذا قد يؤدي إلى تفاوت في التطبيق. ثانيًا، التحيّزات الخوارزمية (خصوصًا فيما يتعلق باللغات أو الفئات الاجتماعية أو المناطق) ربما لم تُختبر تجريبيًا بعد في السياق المحلي بكمّ كافٍ. ثالثًا، غياب قوانين واضحة تُلزِم وتضع مساءلة أو تعويض للمتضرّرين من قرارات آلية، يجعل الأفراد عرضة لأضرار محتملة دون حماية قانونية قوية.

 

التحيّز الخوارزمي في التشريعات: كيف تُعالجها الأنظمة؟

عندما تمرّ النماذج اللغوية بمرحلة التدريب، غالبًا ما تُستخدم بيانات ضخمة من الإنترنت أو قواعد بيانات قديمة، وهذه البيانات قد تعكس تحيّزات اجتماعية (مثل تحيّز عرقي، جنسي، لغوي، أو تحيّز وفق الخلفية الاقتصادية). مثلاً، نصوص باللغة الإنكليزية أكثر من نصوص اللغة العربية أو اللهجات المحلية، مما قد يجعل أداء النموذج أقل دقة أو متحيّزًا عند العمل على السياق العربي.

في التشريعات العالمية، مثل المادة 10 من قانون الذكاء الاصطناعي AI Act الأوروبي، توجد إلزامية أنّ مقدّم النظام (provider) يفحص ما إذا كانت بيانات التدريب، التحقق، والاختبار تفي بمعايير جودة، بما فيها اكتشاف التحيّز وتصحيحه، وحتى جمع بيانات حسّاسة في بعض الحالات لتحقيق الإنصاف.  كذلك، التشريعات الأوروبية تشترط الشفافية في هذا الشأن، كتوضيح مصادر البيانات، وصف طرق المعالجة، وإمكانية استئناف القرار.

في السعودية، الإرشادات التوليدية تصرّ على أنّ المطورين والمستخدمين يُنبَهون إلى هذه المخاطر، وأنهم يتبعون أفضل الممارسات لتخفيفها، مثل مراجعة بيانات التدريب، اختبار النموذج في سياقات محلية متنوعة، مراقبة الأداء بعد النشر، وتوفير آليات لتلقي الملاحظات والتعامل مع الأخطاء أو الأضرار المحتملة. لكن كما ذكرت، الإرشادات ليست ملزمة قانونيًا؛ مما يعني أن الطرق القانونية للمسؤولية لا تزال غير محددة تمامًا، ويُفترض أن تتطور التشريعات في المستقبل لتشمل مسؤولية تعويض وشفافية قانونية أقوى.

 

مقارنة بين ما هو موجود عالميًا وما ينبغي أن يكون في السعودية

إذا قارنا السعودية مع الاتحاد الأوروبي مثلاً، نرى أن الاتحاد الأوروبي لديه قانونًا ملزِمًا (AI Act) يُطبّق ويُلزِم المطوّرين والمستخدمين بمسؤوليات واضحة مع عقوبات لعدم الامتثال. أما في السعودية فالمبدأ الآن هو الإرشاد والتوجّه نحو الأفضل والممارسات المثلى، مع غياب العقوبات القانونية الخاصة بالذكاء الاصطناعي التوليدي أو استخدامه بطريقة مخالفة للمعايير الأخلاقية.

لذلك، من المهم في المستقبل أن:

تُحوّل المبادئ والإرشادات إلى قوانين ملزِمة ذات قوة تنفيذية.

تُحدّد عقوبات وتعويضات واضحة في حال وقوع ضرر أو تمييز ناتج عن قرارات أو مخرجات نموذج لغوي مُخطئ أو متحيّز.

تُنشأ هياكل رقابية مستقلة تمتلك القدرة على التحقيق والرقابة وتقييم النماذج بعد استخدامها في الواقع.

تُطبّق اختبارات محلية للتأكد من أن النماذج تعمل بصورة عادلة في السياق السعودي (اللغة العربية، الخلفيات الثقافية، الفوارق الإقليمية).

 

الخاتمة

التنظيم القانوني للنماذج اللغوية الضخمة أصبح موضوعًا لا يمكن تجنّبه؛ الحكومات والمختصون يدركون أن الابتكار لا يكفي إن لم يصاحبه إطار يحمي الأفراد والمجتمعات. الأمثلة العالمية مثل الاتحاد الأوروبي تُظهر أن القانون الملزِم مع رقابة فعالة وإشراف بشري يُمكن أن يوازن بين الفوائد والمخاطر. أما التجربة السعودية فتقدّم نموذجًا واعدًا: المبادئ، الإرشادات التوليدية، والإطار المؤسسي موجود، لكن الطريق ما زال يتطلّب تشريعات قوية، تحديد مسؤوليات قانونية واضحة، وآليات تعويض. فقط بذلك يمكن أن نضمن أن استخدام النماذج اللغوية يتمّ بصورة عادلة، شفافة، ومسؤولة.

تم تعطيل التعليقات.