منعت المفوضية الأوروبية والبرلمان الأوروبي ومجلس الاتحاد الأوروبي وكالاتهم الصحفية من استخدام المحتوى الناتج بالكامل عن الذكاء الاصطناعي. تنشر صحيفة بوليتيكو هذا بالتشاور مع ممثلي المنظمات نفسها.
تم اتخاذ هذا القرار، كما أوضح المحاورون في المنشور، في سياق الاهتمام المتزايد بالتزييف العميق والأشكال الأخرى من محتوى الذكاء الاصطناعي على الإنترنت.
وقال المتحدث باسم المفوضية الأوروبية توماس ريجنير: “إن مقاطع الفيديو والصور التي نستخدمها ونقدمها للصحفيين أو لأغراض المعلومات الرسمية لا تحتوي على محتوى الذكاء الاصطناعي”.
ووفقا له، تظل “الأصالة” على رأس أولويات بروكسل لأنها ترتبط مباشرة بثقة الناس. وفي الوقت نفسه، يُسمح باستخدام الذكاء الاصطناعي لأغراض تقنية – على سبيل المثال، لتحسين جودة الصورة.
ويعكس موقف الاتحاد الأوروبي مخاوف حقيقية من أن استخدام الصور ومقاطع الفيديو التي ينتجها الذكاء الاصطناعي يتسبب في حدوث ارتباك على الإنترنت، حيث أصبحت الخطوط الفاصلة بين الحقيقي والمزيف غير واضحة على نحو متزايد.
وقال والتر باسكواريلي، الباحث في جامعة كامبريدج ومستشار منظمة التعاون الاقتصادي والتنمية: “في عصر تراجع الثقة، هناك حجة مفادها أن الحل الأقوى هو رفض اللعب وفقاً للقواعد”.
نهج آخر
ويختلف النهج الذي يتبناه الاتحاد الأوروبي بشكل ملحوظ عن الممارسة المتبعة في الولايات المتحدة. يستخدم الرئيس دونالد ترامب بشكل نشط محتوى الذكاء الاصطناعي في الاتصالات العامة، بما في ذلك المنشورات الاستفزازية والفيروسية – على سبيل المثال، مقطع فيديو حول خططه لقطاع غزة، حسبما أبرزت صحيفة بوليتيكو.
وفقًا لمعهد بوينتر، وهو منظمة دولية غير ربحية لتدقيق الحقائق، منذ توليه منصبه، استخدم ترامب الذكاء الاصطناعي في 36 من منشوراته على وسائل التواصل الاجتماعي. ومن بينها، على وجه الخصوص، صورة لسياسي يحمل صورة البابا ومقطع فيديو له وهو يسكب البراز على المتظاهرين.
ووفقًا للمنشور، بشكل عام، فإن حجم محتوى الذكاء الاصطناعي يعادل أو حتى يتجاوز حجم المحتوى الذي ينشئه الإنسان: في العام الماضي وحده، تم نشر حوالي 8 ملايين محتوى مزيف عبر الإنترنت.
هل الحظر مبرر؟
وعلى الرغم من رغبتها في حماية سلامة الاتصالات، فإن استراتيجية بروكسل تثير تساؤلات. وأشارت بوليتيكو إلى أنه في الوقت الذي أصبح فيه التواصل السياسي رقميًا بشكل متزايد، فإن الابتعاد عن الذكاء الاصطناعي يمكن أن يقلل من استجابة المنظمات وظهورها.
وقال ألكسندرو فويكا، رئيس قسم السياسة في شركة Synthesia، إن الاتحاد الأوروبي “يركز بشكل صحيح على المخاطر – على ما إذا كان المحتوى يمكن أن يكون مضللاً، ويحاكي الواقع، وما إذا كانت المسؤولية عن هذا المحتوى شفافة”. ومع ذلك، فإن الرفض التام قد يكون إجراءً مفرطًا.
وقال رينو فان زانديك، رئيس وكالة اكسبوجر البلجيكية: “لا ينبغي أن يؤدي خطر تآكل الثقة إلى الشلل أو التقاعس عن العمل. عدم القيام بأي شيء يعد أيضًا استراتيجية سيئة”. ويوافق باسكواريلي على ذلك قائلاً: “الاستخدام المسؤول أفضل من الاستسلام التام”.
وفي الوقت نفسه، وفي سياق الدبلوماسية الرقمية، فإن العامل الرئيسي هو سرعة الاستجابة. وقال فوجكا: “ما يهم أكثر من أي وقت مضى هو مدى سرعة وفعالية استجابتك”.
الفرصة الضائعة
وقد يؤدي التخلص من الذكاء الاصطناعي أيضاً إلى حرمان الاتحاد الأوروبي من القدرة على صياغة معايير لاستخدامه. وفقًا لقانون الاتحاد الحالي، يجب ترميز المحتوى الإجمالي ووضع علامة مائية عليه.
ووفقا للخبراء، فإن المشكلة لا تكمن في محتوى الذكاء الاصطناعي نفسه، بل في استخداماته غير المعلنة.
وقال باسكواريلي: “من خلال التخلي عن هذه الأدوات، تضيع المفوضية الأوروبية الفرصة لإظهار كيف يبدو الاستخدام المسؤول والشفاف للذكاء الاصطناعي في التواصل السياسي”.
وأضاف فويكا أنه إذا لم تستخدم الجهات الحكومية مثل هذه التقنيات علنًا وبعلامات، فلن تساعد الجمهور على تعلم كيفية التعرف عليها عمليًا.
