عليك الحذر جيدا عند استقبال الاتصالات الهاتفية الطارئة، خاصةً التي يُطلب منك فيها تحويل
أموال، أو الإدلاء بمعلومات حسّاسة، حتى لو كان الصوت كصوت أقاربك أو أصدقائك، ففي
عصر الذكاء الاصطناعي بات التزييف يحيط بالناس في كل أمورهم.
وخلال الآونة الأخيرة، انتشر نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يسمّى
"احتيال التزييف" أو "التلاعب الصوتي"، لكن يُمكنك النجاة منه لو انتبهت لهذه المستجدات
، واتبعت النصائح التي يُدلي بها خبيران في الأمن السيبراني وتكنولوجيا المعلومات لموقع
"سكاي نيوز عربية".
كانت شركة "أوبن إيه آي"، المتخصصة في الذكاء الاصطناعي التوليدي، ومبتكرة برنامج
المحادثة الشهير "تشات جي بي تي"، عرضت، مارس الماضي، أداة لاستنساخ الصوت
سيكون استخدامها محدودا لتفادي عمليات الاحتيال.
والأداة التي سُمّيت بـ"فويس إنجين" أو "محرك الصوت" قادرة على إعادة إنتاج صوت
شخص من خلال عينة صوتية مدتها 15 ثانية، حسب ما ذكر بيان لـ"أوبن إيه آي" تطرّق
إلى نتائج اختبار أجري على نطاق صغير.
وأضاف البيان: "ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي
على مخاطر كبيرة، خصوصا في عام الانتخابات هذا"، وأنه لذلك: "نعمل مع شركاء
أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني
وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار".