اقترح باحثون نظاماً جديداً للتحقق من هوية مستخدمي الخدمات الرقمية، سواء كانوا من البشر أم روبوتات الذكاء الاصطناعي، وأطلقوا عليه اسم “إثبات الهوية البشرية” PHC، ليحل محل الأنظمة المتبعة حالياً مثل نظام CAPTCHAs، الذي أكدوا عدم جدواه.
وبحسب الدراسة، أشار باحثون ينتمون إلى جامعات مرموقة وشركات مثل OpenAI ومايكروسوفت إلى أن نظام PHC جاء بسبب مخاوف من استغلال “الجهات الخبيثة” لقدرات الذكاء الاصطناعي الهائلة على تقليد السلوك البشري بشكل مقنع لملء الإنترنت بمحتوى غير بشري.
ومن بين أكبر المخاوف، كانت قدرة الذكاء الاصطناعي على إنتاج محتوى يبدو وكأنه يعبّر عن تجارب أو وجهات نظر شبيهة بالإنسان، وإنشاء صور رقمية تشبه البشر الحقيقيين، بالإضافة إلى مهارة روبوتات الذكاء الاصطناعي المتزايدة في محاكاة السلوكيات البشرية على الإنترنت مثل “حل ألغاز CAPTCHA”.
طريقة جديدة وتحديات كبرى
ويعتبر الباحثون أن فكرة PHC جذابة، إذ يمكن للحكومات أو الشركات إصدار شهادات هوية رقمية فريدة لكل مستخدم، باستخدام تقنية التشفير المعروفة بـ”إثباتات المعرفة الصفرية”، والتي تسمح للشخص بتقديم معلومات محددة دون الكشف عن تفاصيل البيانات.
ويتم تخزين هذه الشهادات على الأجهزة الشخصية للمستخدمين، ما يساعد في الحفاظ على الخصوصية عبر الإنترنت.
ويمكن أن يحل نظام الشهادات مكان عمليات التحقق التقليدية مثل CAPTCHAs، والقياسات البيومترية مثل بصمات الأصابع، لكن الباحثين يعترفون بأن النظام ليس خالياً من العيوب.
وعلى سبيل المثال، هناك احتمال أن يقوم البعض ببيع شهاداتهم للمحتالين، ما يمنح المحتوى الآلي مصداقية زائفة، ويقوّض أهداف المشروع.
كما أن أي مؤسسة تصدر هذه الشهادات قد تصبح ذات نفوذ كبير، ويظل النظام عُرضة للهجمات السيبرانية.
وأوضحت الورقة البحثية أن “أحد التحديات الكبيرة لنظام PHC هو كيفية تركُّز السلطة في يد عدد محدود من المؤسسات، خاصة مُصدري الشهادات، وأيضاً مقدمي الخدمات الكبار الذين ستؤثر قراراتهم بشأن استخدام الشهادات بشكل كبير على النظام”.
كما أن هذا النظام قد يشكل عائقاً أمام المستخدمين غير المتمكنين تقنياً، مثل كبار السن الذين غالباً ما يكونون هدفاً للاحتيال عبر الإنترنت.
ولهذا السبب، يقترح الباحثون أن تضع الحكومات نظام PHC ضمن برامج تجريبية لاختباره.
مشكلة جوهرية
يبقى نظام PHC متجنباً لمشكلة جوهرية وهي أنه يزيد الأعباء الرقمية على المستخدمين، الذين يتعيّن عليهم التعامل مع الرسائل غير المرغوب فيها وغيرها من المشكلات الرقمية في حياتهم اليومية.
ومن المفترض أن تكون شركات التكنولوجيا هي المسؤولة عن حل هذه المشكلات، وليس المستخدمين.
كما يمكن لشركات التكنولوجيا أن تبدأ بإضافة علامات مائية على المحتوى الذي تنتجه نماذج الذكاء الاصطناعي الخاصة بها، أو تطوير آليات لاكتشاف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
وعلى الرغم من أن هذه الحلول ليست مثالية، إلا أنها تعيد المسؤولية إلى مصدر المشكلة.
وفي حال تنصلت شركات التكنولوجيا من هذه المسؤولية، سيكون ذلك وصمة أخرى على سجل وادي السيليكون، الذي اعتاد طرح مشكلات لم يطلبها أحد، بينما يربح من تأثيراتها.
وتشبه هذه المشكلة استهلاك شركات التكنولوجيا لكميات هائلة من الكهرباء والمياه لتشغيل مراكز البيانات الخاصة بالذكاء الاصطناعي، بينما تعاني المجتمعات، خصوصاً في المناطق التي تعاني الجفاف، من تخصيص هذه الموارد.
وعلى الرغم من أن نظام PHC قد يبدو جذاباً على الورق، إلا أنه في الواقع يعيد نقل العبء إلى المستخدمين مرة أخرى.
زر الذهاب إلى الأعلى