سرقة هويات بالذكاء الصناعي.. مؤثرون “استنسخوا” دون علمهم
عادت قصة المؤثرة الأوكرانية “أولغا ليوك” للواجهة، مع نقاش يتسع حول مخاطر الذكاء الصناعي في التزييف العميق.
وكانت ليوك الشابة التي فوجئت ذات يوم بوجهها يتحدث الصينية وبصوتها كذلك في حسابات عدة، بعضها تبيع المنتجات وأخرى تدلي بآراء سياسية، في حالة صدمة وذهول، إذ وجدت أنها “استنسخت” دون علمها أو موافقتها، والكارثة أن مئات الآلاف كن يتابعن شخصياتها المزيفة.
المؤثر الأمريكي، غوردون هاوليت، والذي يتابعه 24 مليون شخص، لم يسلم بدوره من التزييف سرقة هويته على الإنترنت، إذ وجد أن حسابات وروابط يظهر فيها بوجهه مروجاً لأدوية وبصوته طبعاً، وذعر من حقيقة أنه يمكن بالفعل لأي من يريد استخدام الذكاء الصناعي لوضع الكلمات في فمه.
كانت هناك مكالمات مزعومة لقادة وزعماء، اتضح كذلك أنها مزيفة بالذكاء الصناعي، وأصبح من المستحيل الجزم بالتأكيد أو النفي في بعض الحالات من مدى صدق المحتوى.
وتتوالى الأنباء عن عمليات احتيال بملايين الدولارات باستخدام التزييف عبر الذكاء الصناعي.
يحذر خبراء الأمن السيبراني منذ سنوات من مخاطر التزييف العميق، أي المحتوى المولد عبر الذكاء الاصطناعي أو المتلاعب بها ويسهل الاعتقاد بأنها أصلية. وتركزت معظم المخاوف على الصور ومقاطع الفيديو.وخلال الآونة الأخيرة، انتشر نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يسمّى “احتيال التزييف” أو “التلاعب الصوتي”.
ورغم وجود أدوات تقنية لكشف التزييف العميق، إلا أنها تفقد من فعاليتها كلما ابتعد المنتج عن المصدر، بالتالي يمكن لمنشئ مثل هذه المقاطع إضافة ضوضاء وغيرها من وسائل التشتيت، لتضليل أدوات كشف التزييف.
والتصاعد في استخدام التزييف العميق يثير مخاوف جدية حول النزاهة المعلوماتية والأمن الشخصي، كما يهدد بتقويض الثقة في الوسائط الرقمية والإعلام.
و خطورة التزييف العميق لا تقتصر على الأفراد فقط، بل تمتد لتشمل تأثيرات عميقة على الشركات والمؤسسات والمجتمعات والدول بشكل عام.