في سابقة قضائية بالولايات المتحدة، أعلن المجلس القضائي في كاليفورنيا عن إقرار أول إطار إلزامي شامل لتنظيم استخدام تقنيات الذكاء الاصطناعي التوليدي داخل المحاكم. واعتبارًا من سبتمبر 2025، ستصبح جميع محاكم الولاية مُلزمة إمّا بحظر هذه التقنية كليًا أو تبني سياسة مكتوبة وواضحة تحكم استخدامها.
جاءت هذه القواعد ثمرة عمل لجنة متخصصة برئاسة القاضية باتريشيا غيريرو في عام 2024، مستهدفة إيجاد توازن دقيق بين متطلبات الابتكار وضمانات المسؤولية القانونية. وقد أرست هذه السياسة جملة من الضوابط الجوهرية، أبرزها:
🔹 صون سرية المعلومات ومنع إدخالها إلى منصات الذكاء الاصطناعي العامة.
🔹 حظر أي استخدام ينطوي على تمييز أو تحيز مخالف للقانون.
🔹 إلزام المحاكم بالإفصاح عن أي محتوى تنتجه الخوارزميات.
🔹 اشتراط المراجعة والتحقق البشري قبل اعتماد أي مخرجات تقنية.
وتتسم هذه السياسة بقدر من المرونة يسمح بتكييفها وفق طبيعة كل محكمة، مواكبةً للتطور المتسارع في المجال التقني. وكما أوضح القاضي براد هيل، فإن الهدف هو تحقيق توازن يضمن كفاءة الأداء دون الإخلال بمبادئ العدالة أو المساس بالقيم المؤسسية الراسخة.
ولا يقتصر أثر هذه الخطوة على الإطار المحلي، بل تمثل رسالة موجهة إلى الأنظمة القضائية عالميًا، ومنها العالم العربي، مفادها أن استيعاب التقنيات الناشئة يقتضي وضع أطر أخلاقية وتشريعية متينة، تصون حقوق الأفراد وتحافظ على نزاهة السلطة القضائية.
#تحديثات_قانونية #قانون #محاماة
مصدر الخبر:
https://neuron.expert/news/california-court-system-adopts-rule-on-ai-use/13926/ar/
تاريخ الخبر: 18/8/2025