الحفاظ على الخصوصية تحت القصف
كيف تحمي القوانين بيانات المواطنين في زمن الحرب والذكاء الاصطناعي؟
شيماء تاج السر، المحامية

منذ اندلاع الحرب في السودان في 15 أبريل 2023 تحول الفضاء الرقمي إلى ساحة موازية للنزاع المسلح، حيث أصبح رصد الانتهاكات عبر الإنترنت أداة محورية للشهود والناشطين والمنظمات الحقوقية. لكن هذا التحول الرقمي المتسارع يطرح تساؤلات جوهرية حول مصير الخصوصية في عصر الذكاء الاصطناعي، وكيف يمكن للقوانين المحلية والدولية أن تشكل درعًا حامية لبيانات المواطنين وسط هذه العاصفة التكنولوجية.
عندما تصبح البيانات سلاحًا
في صباح الخامس عشر من أبريل عام 2023 لم تكن الصواريخ والدبابات وحدها هي ما هزت العاصمة السودانية الخرطوم. ففي لحظة انفجار المعارك بين القوات المسلحة السودانية وقوات الدعم السريع اندلعت حرب موازية على منصات التواصل الاجتماعي، تحول فيها المواطنون إلى صحفيين وناشطين في آنٍ واحد؛ كل هاتف محمول أصبح أداة توثيق، وكل تغريدة أو منشور أصبح شهادة على ما يجري في الشارع السوداني.
لكن هذه الوفرة المعلوماتية التي أتاحتها التكنولوجيا الرقمية، والتي ساهمت في كشف انتهاكات طرفي النزاع، تحمل في طياتها مخاطر جسيمة. ففي زمن بات فيه الذكاء الاصطناعي قادرًا على تحليل كميات هائلة من البيانات واستخراج أنماط دقيقة عن الأفراد والجماعات يصبح السؤال عن حماية الخصوصية أكثر إلحاحًا من أي وقت مضى.
وهنا لابد من التطرق للإطار القانوني الدولي الذي يحمي بيانات المواطنين في سياق النزاعات المسلحة وتقنيات الذكاء الاصطناعي، مع التركيز على الدروس المستفادة من تجربة السودان كحالة اختبار حية لهذه الإشكاليات.
الحرب الرقمية في السودان نموذج للتعقيدات الجديدة
تحول الفضاء الرقمي إلى ساحة نزاع
منذ اليوم الأول للقتال تعرضت حرية التعبير والوصول إلى المعلومات لهجمات متعددة في السودان. ووفقًا لتقارير منظمة ARTICLE 19 الحقوقية شهدت البلاد انقطاعات متكررة في خدمات الإنترنت والاتصالات وتضليلًا إعلاميًا ممنهجًا من طرفي النزاع واستهدافًا مباشرًا للصحفيين والإعلاميين.
وتشير التقارير إلى أن طرفي النزاع انخرطا في حرب إعلامية موازية للمعارك الميدانية. فقد لجأت قوات الدعم السريع، وفقًا لتحقيقات أجراها مركز أتلانتيك كاونسل بالتعاون مع منصة Beam Reports ، إلى استخدام شبكات من الحسابات الوهمية على منصة تويتر (إكس حاليًا) لتضخيم رسائلها الدعائية ونشر معلومات مضللة. وفي المقابل استخدم الجيش السوداني المنصات الرسمية لإعلامه ونشر روايته الخاصة للصراع.
المخاطر على خصوصية المدنيين
في هذا السياق المتوتر بات المدنيون السودانيون في موقف بالغ الصعوبة. فمن ناحية يعتمدون على منصات التواصل الاجتماعي للحصول على معلومات منقذة للحياة حول تحركات القتال وطرق الإخلاء الآمن وتوفر الخدمات الأساسية مثل الدواء والغذاء، ومن ناحية أخرى فإن مشاركتهم لهذه المعلومات قد تعرضهم لمخاطر جسيمة، خاصة مع تطور أدوات الذكاء الاصطناعي القادرة على تتبع مواقع الناشطين وتحليل علاقاتهم الاجتماعية، واستخلاص استنتاجات قد تصل إلى حد اتهامهم بالانحياز لأحد طرفي النزاع.
ويضيف تعقيدًا آخر إلى هذه المعضلة قيام شركات الاتصالات والإنترنت بدور مزدوج. فبينما أبلغت منظمة SMEX الحقوقية عن قيام الجيش السوداني بإعلان سيطرة قوات الدعم السريع على المركز الرئيسي لشركة سوداتل للاتصالات مما أدى إلى توقف خدماتها، تشير تقارير أخرى إلى قيام الهيئة المنظمة للاتصالات بطلب حجب خدمات الإنترنت في بعض الفترات.
هذا التداخل بين الأطراف المتصارعة والبنية التحتية الرقمية يجعل من بيانات المواطنين رهينة للصراع.
الإطار القانوني الدولي
بين القانون الدولي الإنساني وقانون حقوق الإنسان
ازدواجية التطبيق القانوني في النزاعات المسلحة
عند الحديث عن حماية البيانات والخصوصية في نزاع مثل النزاع السوداني يجب النظر إلى إطار قانوني مزدوج. فالصراع بين القوات المسلحة السودانية وقوات الدعم السريع يُصنف قانونيًا على أنه “نزاع مسلح غير دولي NIAC” مما يستدعي تطبيق قواعد القانون الدولي الإنساني IHL التي تحددها المادة الثالثة المشتركة من اتفاقيات جنيف الأربع لعام 1949 والبروتوكول الإضافي الثاني لعام 1977.
لكن في نفس الوقت يظل قانون حقوق الإنسان الدولي ساري المفعول. فالسودان طرف في العهد الدولي الخاص بالحقوق المدنية والسياسية ICCPR الذي تنص المادة 19 منه على الحق في حرية التعبير والحق في تلقي المعلومات. وهنا يظهر تعقيد مهم: كيف نوفق بين القانون الدولي الإنساني الذي يركز على سلوك أطراف النزاع وقانون حقوق الإنسان الذي يحمي الأفراد حتى في أوقات الحرب؟.
تجيب القاعدة القانونية lex specialis على هذا التساؤل، حيث تُعطي الأولوية للقاعدة الأكثر تخصصًا في حال التعارض. لكن هذا لا يعني تعطيل حقوق الإنسان، بل يعني تطبيقها بطريقة تراعي خصوصية النزاع المسلح.
اتفاقية مجلس أوروبا الإطارية للذكاء الاصطناعي
مثلت اتفاقية مجلس أوروبا الإطارية للذكاء الاصطناعي نقلة نوعية. ففي سبتمبر 2024 تم التوقيع على أول معاهدة دولية ملزمة قانونيًا بشأن الذكاء الاصطناعي ممثلة في “اتفاقية مجلس أوروبا الإطارية بشأن الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون”. تُعد هذه الاتفاقية التي وقعتها دول مثل المملكة المتحدة والولايات المتحدة وإسرائيل تطورًا حاسمًا في حماية الخصوصية في عصر الذكاء الاصطناعي، وتفرض الاتفاقية على الدول الموقعة التزامات واضحة:
– حماية حقوق الإنسان: ضمان عدم تأثير أنظمة الذكاء الاصطناعي سلبًا على الكرامة الإنسانية والاستقلالية الفردية.
– الشفافية والرقابة: اتخاذ تدابير محلية لضمان الشفافية الكافية لأنظمة الذكاء الاصطناعي، مثل وضع علامات على المحتوى المُنشأ آليًا، أو توثيق عمليات الرقابة البشرية.
– المساواة ومنع التمييز: ضمان احترام أنظمة الذكاء الاصطناعي لمبدأ المساواة بما في ذلك المساواة بين الجنسين ومنع جميع أشكال التمييز.
– حماية الخصوصية: اتخاذ تدابير محلية تحمي خصوصية الأفراد واستقلاليتهم وسيطرتهم على بياناتهم الشخصية.
ورغم أن هذه الاتفاقية لا تنطبق بشكل مباشر على الأطراف الخاصة كالشركات، إلا أنها تلزم الدول بسن تشريعات تضمن احترام هذه المبادئ، مما يوفر إطارًا موحدًا للتعامل مع تحديات الذكاء الاصطناعي.
قرار الأمم المتحدة بشأن الذكاء الاصطناعي
في مارس 2024 اتخذت الجمعية العامة للأمم المتحدة خطوة تاريخية باعتماد قرار بشأن اغتنام فرص النظم الآمنة والمأمونة والجديرة بالثقة للذكاء الاصطناعي من أجل تحقيق التنمية المستدامة. دعا القرار جميع الدول الأعضاء إلى الامتناع عن استخدام أنظمة الذكاء الاصطناعي التي يستحيل تشغيلها بما يتوافق مع القانون الدولي لحقوق الإنسان، أو التي تشكل مخاطر غير مبررة على التمتع بهذه الحقوق. وهذا القرار وإن لم يكن ملزمًا قانونيًا إلا أنه يمثل توافقًا دوليًا على ضرورة وضع حقوق الإنسان في صميم تطوير واستخدام الذكاء الاصطناعي، مما يعزز مكانة الخصوصية كحق أساسي غير قابل للتصرف.
حماية البيانات في التشريعات الوطنية: نماذج عالمية
النموذج الكندي: مبادئ الحوكمة المسؤولة
في يناير 2026 أصدرت هيئة خصوصية المعلومات في أونتاريو IPC بالاشتراك مع هيئة حقوق الإنسان في أونتاريو OHRC ستة مبادئ للحوكمة المسؤولة للذكاء الاصطناعي. هذه المبادئ، وإن كانت غير ملزمة قانونيًا، تعكس توجهًا تشريعيًا ناشئًا في كندا يتوقع أن يؤثر على القوانين المستقبلية.
تتضمن المبادئ:
- الصحة والموثوقية: لضمان دقة وموثوقية أنظمة الذكاء الاصطناعي قبل نشرها وأثناء تشغيلها.
- السلامة: بحيث تطور أنظمة الذكاء الاصطناعي بطريقة تمنع الضرر بما في ذلك الأضرار التي تنتهك حقوق الإنسان مثل الخصوصية وعدم التمييز.
- حماية الخصوصية: عبر اعتماد نهج الخصوصية بالتصميم (Privacy by Design) منذ بداية تطوير النظام.
- تأكيد حقوق الإنسان: من خلال تضمين حقوق الإنسان في تصميم ونشر وإدارة أنظمة الذكاء الاصطناعي واتخاذ خطوات استباقية لمنع التمييز.
- الشفافية: لضمان أن تكون أنظمة الذكاء الاصطناعي ونتائجها مفهومة وقابلة للتفسير للأفراد والجهات الرقابية.
- المساءلة: عبر إنشاء أطر حوكمة داخلية قوية مع ضمان وجود عنصر بشري (Human-in-the-Loop) لتحقيق المساءلة.
تتجه كندا أيضًا نحو إصدار قانون الذكاء الاصطناعي والبيانات AIDA يهدف إلى تنظيم أنظمة الذكاء الاصطناعي عالية التأثير، وفرض عقوبات جنائية على الاستخدامات المتهورة أو الخبيثة.
النموذج الأوروبي: قانون الذكاء الاصطناعي الأوروبي
يُعد قانون الذكاء الاصطناعي الأوروبي EU AI Act أول تشريع شامل من نوعه في العالم لتنظيم الذكاء الاصطناعي. يدخل القانون حيز التنفيذ على مراحل؛ حيث بدأ تطبيق حظر أنظمة الذكاء الاصطناعي غير مقبولة المخاطر في فبراير 2025، ومن المتوقع أن تُطبق الالتزامات على الأنظمة عالية المخاطر بحلول أغسطس 2026.
يصنف القانون أنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر التي تشكلها، مع فرض متطلبات صارمة على الأنظمة عالية المخاطر في مجالات مثل البنية التحتية الحيوية والتعليم والتوظيف والخدمات الأساسية. تشمل هذه المتطلبات حوكمة البيانات وإدارة المخاطر وحفظ السجلات والرقابة البشرية.
الدروس المستفادة من التجارب الوطنية
تقدم هذه النماذج التشريعية دروسًا مهمة للدول العربية بما فيها السودان في مجال حماية البيانات في عصر الذكاء الاصطناعي، وفي مقدمتها أهمية النهج القائم على المخاطر بدلاً من التعامل مع الذكاء الاصطناعي كتقنية متجانسة يجب تصنيف تطبيقاته وفقًا لمستوى المخاطر التي تشكلها على حقوق الأفراد.
إضافة إلى ضرورة إشراك الجهات الرقابية المتعددة لا يمكن فصل حماية البيانات عن حماية حقوق الإنسان عموماً، مما يستدعي تنسيقًا بين هيئات حماية البيانات وهيئات حقوق الإنسان.
وكذلك الشفافية والمساءلة وتقديم تفسيرات واضحة للقرارات التي تتخذها أنظمة الذكاء الاصطناعي وتحديد جهات يمكن تحميلها المسؤولية.
آليات المساءلة والرقابة وتطبيقها
تقييمات الأثر الحقوقي
من أهم الآليات المقترحة لضمان حماية الخصوصية في عصر الذكاء الاصطناعي إجراء تقييمات الأثر الخوارزمي قبل نشر أي نظام يؤثر على الحقوق الأساسية، وفقًا لشهادة خبير مقدمة للبرلمان البريطاني يجب أن تشمل هذه التقييمات:
– تحديد الغرض من النظام والحاجة إليه.
– فحص خطوط البيانات وإجراءات تقليل جمع البيانات.
– اختبار التحيز ضد الخصائص المحمية قانونيًا مثل العرق أو الجنس أو الدين.
– خطة للتخفيف من المخاطر المتوقعة .
في سياق النزاع المسلح يمكن أن تسهم هذه التقييمات في منع استخدام أنظمة الذكاء الاصطناعي في أنشطة المراقبة الجماعية أو الاستهداف غير القانوني للمدنيين.
مسؤولية شركات التكنولوجيا
لا يمكن الحديث عن حماية البيانات دون معالجة دور شركات التكنولوجيا خاصة منصات التواصل الاجتماعي. فوفقًا لتوجيهات اللجنة الدولية للصليب الأحمر ICRC تخضع الشركات التي ترتبط أنشطتها ارتباطًا وثيقًا بالنزاع المسلح لالتزامات بموجب القانون الدولي الإنساني .
وفي هذا السياق تعرضت منصة تويتر لانتقادات شديدة بسبب فشلها في التعامل مع حسابات انتحلت صفة قوات الدعم السريع وساهمت في نشر معلومات مضللة خلال الحرب في السودان. كما أشارت منظمة المبادرة العالمية للشبكات GNI إلى ضرورة تبني حكومات العالم سياسات واضحة تضمن احترام شركات التكنولوجيا لحقوق الإنسان، خاصة فيما يتعلق بمراقبة المحتوى وجمع البيانات.
سبل الانتصاف الفعالة
من أهم تحديات عصر الذكاء الاصطناعي ضمان وجود سبل انتصاف فعالة للأفراد الذين تضرروا من استخدام هذه التقنيات. وتشمل التوصيات في هذا المجال:
- الحق في تفسير القرار: الحصول على شرح واضح لأي قرار مهم اتخذ بواسطة نظام ذكاء اصطناعي.
- المراجعة البشرية: إتاحة الحق في مراجعة القرار بواسطة إنسان.
- الانتصاف السريع: توفير آليات سريعة لتقديم الشكاوى وتمكين الدعاوى الجماعية في حالات الأضرار النظامية.
توصيات خاصة بالسياق السوداني
تعزيز البنية التشريعية المحلية
على الرغم من الظروف الاستثنائية التي يمر بها السودان بسبب الحرب يبقى تعزيز الإطار التشريعي لحماية البيانات والخصوصية ضرورة ملحة. يمكن الاستفادة من التجارب الدولية في صياغة تشريعات تنظم جمع ومعالجة البيانات الشخصية وتحدد صلاحيات جهات الرقابة وتنشئ آليات واضحة للمساءلة.
حماية الصحفيين والنشطاء الرقميين
يشكل الحقوقيون والصحفيون والنشطاء الرقميون خط الدفاع الأول في توثيق الانتهاكات أثناء النزاعات المسلحة. يجب تعزيز حمايتهم بموجب القانون الدولي الإنساني الذي يعتبرهم مدنيين يتمتعون بالحماية الكاملة ما لم يشاركوا مباشرة في الأعمال العدائية. كما ينبغي توفير برامج تدريبية حول كيفية حماية بياناتهم وبيانات مصادرهم أثناء استخدامهم للأدوات الرقمية.
التعاون الإقليمي والدولي
لا يمكن للدول العربية وحدها مواجهة تحديات الذكاء الاصطناعي العابرة للحدود. لذا يجب تعزيز التعاون مع المنظمات الدولية مثل مجلس أوروبا والأمم المتحدة، والانخراط في مبادرات متعددة الأطراف لتبادل الخبرات وأفضل الممارسات في مجال حماية البيانات والخصوصية.
نحو مستقبل يحفظ الكرامة الرقمية
إن تجربة السودان منذ 15 أبريل 2023 تقدم نموذجًا صارخًا على التحولات العميقة التي يشهدها مفهوم الخصوصية في زمن الحروب الرقمية. فبينما أتاحت التكنولوجيا فرصًا غير مسبوقة لتوثيق الانتهاكات وكشف الحقائق، خلقت في المقابل مخاطر جديدة على حياة الأفراد وكرامتهم.
في هذا السياق تشكل القوانين المحلية والدولية خط الدفاع الأول عن بيانات المواطنين. فمن اتفاقية مجلس أوروبا الإطارية للذكاء الاصطناعي إلى قانون الذكاء الاصطناعي الأوروبي إلى المبادرات التشريعية في كندا ودول أخرى، يتشكل إطار عالمي جديد يهدف إلى تحقيق التوازن بين الابتكار التكنولوجي وحماية حقوق الإنسان.
لكن القوانين وحدها لا تكفي، فهي تحتاج إلى إرادة سياسية لتنفيذها، وإلى مجتمع مدني قوي للمطالبة بها، وإلى شركات تكنولوجيا تتحمل مسؤولياتها الأخلاقية والقانونية، كما تحتاج إلى وعي مجتمعي متزايد بحقوق الخصوصية وكيفية الدفاع عنها في عصر أصبحت فيه البيانات سلاحًا يمكن أن ينقلب على أصحابه.
ربما يكون الدرس الأهم الذي تقدمه الحرب في السودان هو أن الخصوصية ليست ترفًا فكريًا، بل هي جزء لا يتجزأ من الكرامة الإنسانية والأمن الشخصي. وفي زمن الذكاء الاصطناعي تصبح حماية هذه الخصوصية أكثر إلحاحًا من أي وقت مضى، لأن انتهاكها لم يعد مجرد فضح لأسرار خاصة بل أصبح أداة يمكن استخدامها في الحرب والتدمير.