شهدت السنوات الأخيرة توسعًا ملحوظًا في استخدام تقنيات الذكاء الاصطناعي داخل المجال القانوني، حيث لم يقتصر دوره على تحليل البيانات أو البحث في السوابق القضائية، بل تجاوز ذلك إلى إنتاج أدلة رقمية مثل الصور، مقاطع الفيديو، التسجيلات الصوتية، والتقارير التحليلية. هذا التحول يطرح تساؤلًا جوهريًا: إلى أي مدى يمكن اعتماد الأدلة المولَّدة بواسطة الذكاء الاصطناعي في المحاكم؟

وتزداد خطورة هذا التساؤل مع بروز تقنيات التزييف العميق Deepfake التي قوضت القدرة على التحقق من أصالة المصادر وهددت ثقة القضاء في الأدلة الرقمية. ولم يتوقف الأمر عند الأدلة الرقمية، بل وصل إلى المذكرات الخطية، فبالفعل استخدم عدد من المحامين أدوات الذكاء الاصطناعي لإعداد مذكرات قضائية تضمنت سوابق مفبركة، ما أدى إلى تعرضهم لعقوبات مهنية وقضائية. هذه الوقائع تكشف عن مشكلة حقيقية تواجه الأنظمة القضائية عالميًا، وهي كيفية الموازنة بين الاستفادة من إمكانيات الذكاء الاصطناعي وبين حماية العدالة من التضليل الرقمي.

أنواع الأدلة المولدة بالذكاء الاصطناعي

تنقسم الأدلة المولدة بالذكاء الاصطناعي إلى نوعين رئيسيين:

الأول هو الأدلة المعترف بها بأنها صادرة أو معدّلة باستخدام الذكاء الاصطناعي، مثل مقاطع إعادة تمثيل الحوادث أو أدوات التحليل الخبيري التي تُفصح صراحة عن آلية إنشائها. هذا النوع يتيح للمحاكم تقييمه بوضوح ضمن سياق تقني معروف.

أما النوع الثاني فهو الأدلة غير المعترف بأنها نتاج ذكاء اصطناعي، وتُقدَّم وكأنها أدلة أصلية في حين أنها مُولدة أو معدلة رقميًا، مثل مقاطع الفيديو المزيفة أو الإيصالات المفبركة أو الصور المغايرة للواقع. هذا النوع يمثل تحديًا أكبر للمحاكم بسبب صعوبة كشف التلاعب.

مشكلة التزييف والهلوسة بالذكاء الاصطناعي

ورغم وضوح الفروق النظرية بين الأدلة المولدة بالذكاء الاصطناعي، إلا أن الواقع القضائي يواجه تحديات حقيقية، أبرزها التزييف العميق Deepfake والهلوسة Hallucination، بما يثير إشكاليات جوهرية حول الموثوقية والمسؤولية القانونية.

ما هو التزييف العميق وكيف تعمل؟

التزييف العميق يُعتبر من أبرز تطبيقات الذكاء الاصطناعي الحديثة، حيث يعتمد على شبكات عصبية تُسمى الشبكات الخصومية التوليدية Generative Adversarial Networks – GANs. تعمل هذه التقنية من خلال وجود شبكتين عصبيتين: الأولى تُسمى المُولِّد Generator وتقوم بإنشاء محتوى مزيف، والثانية تُسمى المُميِّز Discriminator وتُقيِّم مدى واقعية هذا المحتوى. يستمر كلا النموذجين في التدريب المتبادل حتى يصل المُولِّد إلى مستوى من الإتقان يصعب التمييز بين المحتوى المزيف والمحتوى الحقيقي.

فعلى سبيل المثال، يمكن للنظام أن يبدأ بمحاولة تركيب وجه شخص مشهور على مقطع فيديو عادي، ثم يكتشف المُميِّز وجود عيوب في تناسق الإضاءة أو حركات الفم، فيعيد المُولِّد تحسين النتيجة تدريجيًا حتى يبدو الفيديو وكأنه حقيقي تمامًا. وقد استُخدمت هذه التقنية في الإعلانات وصناعة الترفيه ولاقت انتشارًا واسعًا، لكنها في الوقت نفسه فتحت الباب أمام مخاطر تضليل الرأي العام والقضاء.

خطورة التزييف العميق 

بدأ استعمال التزييف العميق يخرج من نطاق الترفيه والدعاية إلى ميادين أكثر حساسية مثل السياسة والقضاء. ففي الولايات المتحدة، في قضية هوانغ ضد شركة تسلا، ظهرت مقاطع فيديو لإيلون ماسك تتعلق بسلامة نظام القيادة الذاتية، ورفضت تسلا الاعتراف بمصداقيتها بسبب احتمال التزييف العميق، ما أدى إلى جدل قانوني حول مصداقية الفيديوهات. كما ظهر مصطلح دفاع التزييف العميق Deepfake Defense في المحاكم، مثل محاكمة Guy Reffitt المتهم في أحداث الكابيتول عام 2021، حيث حاول الدفاع التشكيك في الأدلة المقدمة ضده بزعم أنها قد تكون مفبركة باستخدام الذكاء الاصطناعي. هذه الحالات توضح أن التزييف العميق أصبح أداة جدية يمكن أن تؤثر على سير العدالة.

خطر إنكار الحقائق: مكسب الكاذب

المشكلة لا تقتصر على إمكانية إدخال محتوى مزيف في المحاكم، بل هناك خطر آخر يتمثل في ظاهرة تُعرف باسم مكسب الكاذب Liar’s Dividend. هذا المفهوم صاغه أساتذة القانون بوبي تشيسني ودانيل سيترون، ويعني أن مجرد انتشار تقنيات التزييف العميق يجعل أي شخص متهَم أو محل مساءلة قادرًا على إنكار الأدلة الصحيحة وادعاء أنها مزيفة. وبذلك يمكن أن يتحول الدليل الموثوق نفسه إلى موضع شك، مما يخلق بيئة قضائية مضطربة يتأرجح فيها ميزان العدالة بين قبول الزائف ورفض الأصيل.

ما هي الهلوسة القانونية؟

رغم أن التزييف العميق يمثل خطرًا بصريًا وصوتيًا على الأدلة، إلا أن المحاكم تواجه تحديًا موازياً يتمثل في الهلوسة Hallucination داخل مذكرات المحامين التي أُنجزت بالاعتماد على أدوات الذكاء الاصطناعي.

المقصود بالهلوسة هنا ليس الخطأ البسيط، بل قيام أنظمة الذكاء الاصطناعي باختراع مراجع قانونية أو سوابق قضائية لا وجود لها من الأساس لكنها تُصاغ بطريقة تبدو موثوقة ومتماسكة، ما يترتب عليه تقديم أحكام واقتباسات غير موجودة فعليًا أمام المحكمة.

هذا ما ظهر بوضوح في قضية HoosierVac LLC ضد Mid Central Operating Engineers Health and Welfare Fund أمام المحكمة الجزئية للولايات المتحدة في المنطقة الجنوبية من إنديانا، حيث قُدمت مذكرات تضمنت سوابق مختلقة من قبل المحامي رافائيل راميريز. وعلى الرغم من اعتذاره وسحب المذكرات، فرضت المحكمة عليه غرامة مالية بلغت 15,000 دولار.

وفي قضية Wadsworth ضد Walmart Inc LLC عام 2025 أمام المحكمة الجزئية الأمريكية لمقاطعة وايومنغ، تورط ثلاثة محامين – رودوين أيالا، تي. مايكل مورغان، وتالي جودي – في تقديم مذكرات استندت إلى ثمانية أحكام وهمية بالكامل. وانتهت المحكمة إلى إلغاء مؤقت لصلاحية أيالا كمحامٍ معتمد، مع تغريمه 3,000 دولار، بينما غرّمت مورغان وجودي مبلغ 1,000 دولار لكل منهما.

وهنا نجد أن خطر الهلوسة يشبه خطر التزييف العميق، فإذا كان الأخير يُنتج محتوى بصري أو صوتي كاذب يبدو حقيقيًا، فإن الهلوسة القانونية تنتج محتوى كتابيًا مضللًا يصعب اكتشافه سريعًا. والأسوأ أن هذه الظاهرة قد تغذي ظاهرة مكسب الكاذب Liar’s Dividend، إذ يمكن لأي طرف في نزاع قضائي استغلال انتشار هذه الهلوسات للتشكيك في أي مذكرة أو مرجع قانوني، حتى لو كان صحيحًا.

الحلول القانونية لمواجهة التزييف العميق والهلوسة

لمواجهة التحديات المرتبطة باستخدام الذكاء الاصطناعي في المحاكم، بدأت المؤسسات القضائية بوضع أطر عملية تهدف لضمان موثوقية الأدلة وحماية العدالة.

على المستوى الوطني، طوّر المركز الوطني لمحاكم الولايات NCSC بطاقات إرشادية Bench Cards تساعد القضاة على طرح أسئلة عملية للتحقق من صحة الأدلة ومصدرها قبل الاعتماد عليها. وعلى المستوى الإقليمي، أصدرت محاكم مركز دبي المالي الدولي DIFC Courts مذكرة إرشادية عام 2023 بشأن الذكاء الاصطناعي، أكدت فيها ضرورة الإفصاح عند استخدام هذه الأدوات مع ضبط ضوابط الموثوقية والشفافية، بما يتوافق مع التوجه العالمي نحو تنظيم الأدلة الرقمية.

كما ظهرت مبادرات دولية مثل مشروع C2PA ومبادرة Content Authenticity Initiative، والتي تهدف إلى تطوير آليات تقنية لتوثيق أصل المحتوى الرقمي والتحقق من مصداقيته، وبالتالي الحد من فرص التلاعب أو الاستغلال. وفي سبيل الردع، لجأت المحاكم إلى فرض جزاءات على المحامين الذين استخدموا مخرجات الذكاء الاصطناعي في مذكرات دون مراجعة. فقد فرضت المحكمة الفيدرالية في بنسلفانيا غرامة مالية قدرها 2,500 دولار على المحامي راجا راجان في قضية Mark L. Bunce ضد Visual Technology Innovations, Inc. وMathu Rajan، كما ألزمته بخضوعه لتدريب حول الذكاء الاصطناعي وأخلاقيات المهنة، ما يرسخ مبدأ المسؤولية المهنية عند استخدام التكنولوجيا القانونية.

التشريعات والأطر التنظيمية لمراقبة مصداقية الأدلة الرقمية

وتتسابق الدول في السنوات الأخيرة في اتخاذ إجراءات تشريعية وتطبيقية للتصدي لمخاطر التزييف العميق والهلوسة على الصعيد الرقمي والسياسي. ففي الولايات المتحدة الأمريكية، أُقرّ قانون Take It Down الذي يُلزم المنصات الرقمية بإزالة الصور والفيديوهات الجنسية المزيفة غير المتوافقة خلال 48 ساعة، لضمان حماية الأفراد ومنع التلاعب بالمحتوى. أما في الصين، فقد أصدرت السلطات قواعد جديدة تلزم بتوسيم كل مادة معدلة بالذكاء الاصطناعي، بما في ذلك التزييف العميق، لضمان شفافية المحتوى الرقمي وتمييزه عن المواد الأصلية.

وفي سنغافورة، أُقرت قوانين صارمة لحماية نزاهة الانتخابات والأمن القومي، تمنع إنشاء أو توزيع محتوى انتخابي يحتوي على تزييف عميق أو تعديل مصطنع يُسهم في التضليل. كما أعلنت الدنمارك خطة لحظر المحتوى المزيف بحلول 2026، في حين يتيح نظام حماية البيانات الأوروبي GDPR للضحايا حق مقاضاة من يستخدم بياناتهم دون إذن.

الاستراتيجية السعودية لمكافحة التزييف الرقمي

في المملكة، بدأت الجهود العملية لمواجهة مخاطر التزييف العميق ضمن استراتيجية الذكاء الاصطناعي الوطنية ورؤية 2030، مع التركيز على تعزيز الأمان الرقمي وحماية الثقة في الفضاء الرقمي. فقد أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) وثيقة مبادئ التزييف العميق لتوجيه مطوري المحتوى والمستخدمين نحو الاستخدام المسؤول لتقنيات التزييف العميق، مع الالتزام بالشفافية، الخصوصية، والمساءلة. كما أطلقت سدايا خطوات تنفيذية للتوعية والتعليم لمساعدة الأفراد والمؤسسات على التعرف على أساليب التزييف العميق والاستجابة لها بفعالية. وقد قدمت سدايا سابقاً عام 2022م وثيقة مبادئ أخلاقيات الذكاء الاصطناعي خلال القمة العالمية للذكاء الاصطناعي في نسختها الثانية، بما يضع المملكة في موقع ريادي بالمنطقة في مكافحة التضليل الرقمي.

ورغم عدم وجود قانون مستقل للتزييف العميق، توفر التشريعات السعودية الحالية المتعلقة بالجرائم المعلوماتية، وحماية البيانات الشخصية، ومكافحة نشر المحتوى الضار، أرضية صلبة للتعامل مع هذه الظاهرة. الوثائق الوطنية والمبادئ الصادرة عن سدايا تمثل قاعدة لإعداد أطر تشريعية مستقبلية أكثر تخصصًا، تهدف إلى تنظيم استخدام الذكاء الاصطناعي والتزييف العميق، وتحديد مسؤوليات المحامين والقضاة والمؤسسات لضمان عدالة الإجراءات القضائية، وحماية الأفراد من التلاعب بالمحتوى الرقمي.

الخلاصة

يُظهر توسع استخدام الذكاء الاصطناعي في المجال القانوني، من الأدلة الرقمية إلى المذكرات القضائية، تحديات حقيقية تتعلق بالمصداقية والمسؤولية القانونية، بما في ذلك التزييف العميق والهلوسة القانونية التي قد تضلل المحاكم وتتيح إنكار الحقائق.

لذلك، يجب على المحامين مراجعة جميع مخرجات الذكاء الاصطناعي قبل تقديمها، والالتزام بأخلاقيات المهنة، بينما يحتاج القضاة إلى تعزيز معرفتهم التقنية لضبط مصداقية الأدلة الرقمية، وتطبيق رقابة صارمة على الادعاءات المضللة. وعلى مستوى الدولة، يجب التوسع في وضع قوانين واضحة لتوثيق المحتوى الرقمي والتحقق منه، بما يحمي العدالة ويعزز الثقة في النظام القانوني الرقمي.

تم تعطيل التعليقات.