في عالم تتقدم فيه التكنولوجيا باستمرار، تتزايد معه المخاوف المتعلقة بالسلامة. واكتشف الباحثون مؤخراً طريقة جديدة يمكن للمحتالين من خلالها إساءة استخدام واجهة برمجة التطبيقات الصوتية في الوقت الفعلي من "OpenAI" لبرنامج "ChatGPT-4o" للقيام بعمليات احتيال مالية وسرقة هوية. يقدم نموذج "ChatGPT-4o" ميزات مبتكرة مثل النص والصوت وحتى التفاعلات القائمة على الرؤية، مما يفتح المجال أمام العديد من المزايا وبعض المخاطر.

وقامت "OpenAI" بدمج العديد من إجراءات الحماية التي تهدف إلى اكتشاف المحتوى الضار ومنعه، وخاصة في التفاعلات الصوتية. على سبيل المثال، تتضمن تقنية لمنع انتحال الهوية عن طريق تكرار الأصوات غير المصرح بها، وفقاً لما ذكرته "digit.in".

ومع ذلك، اكتشف الباحثون من "UIUC " أن هذه الحماية قد لا تكون كافية. كما هو موضح في دراستهم، يمكن لعمليات الاحتيال المدعومة بالذكاء الاصطناعي، والتي تنطوي على التحويلات المصرفية وسرقة بطاقات الهدايا وسرقة بيانات اعتماد Instagram أو Gmail تجاوز هذه الدفاعات ببعض التعديلات السريعة.

ما دفع الباحثين لاستخدام أساليب احتيالية متنوعة للكشف عن نقاط الضعف في أنظمة الذكاء الاصطناعي، حيث قاموا بتكوين وكلاء ذكاء اصطناعي مزودين بقدرات صوتية مشابهة لـ ChatGPT-4 لتنفيذ عمليات مثل ملء نماذج البنوك، والتعامل مع رموز المصادقة الثنائية، واتباع خطوات محددة للاحتيال. وخلال التجارب، مثل الباحثون دور الضحايا المتفاعلين مع وكيل الذكاء الاصطناعي، ووصلوا إلى مواقع مصرفية حقيقية للتأكد من إمكانية إتمام المعاملات بنجاح.

وأوضح دانييل كانغ من جامعة "إلينوي في أوربانا-شامبين": "قمنا بمحاكاة الاحتيال عبر التفاعل اليدوي مع الوكيل الصوتي، ولعبنا دور الضحية الساذجة". وقد تراوحت نسبة النجاح بين 20% و60%، حيث استغرقت بعض المهام ما يصل إلى 26 خطوة للمتصفح و3 دقائق لتنفيذها.

وحققت بعض عمليات الاحتيال، مثل سرقة بيانات الاعتماد على Gmail، معدل نجاح بنسبة 60%، في حين حققت عمليات أخرى مثل تحويلات العملات المشفرة أو سرقة حسابات Instagram حوالي 40%. وأشار الباحثون إلى أن كل عملية احتيال كانت رخيصة التنفيذ، حيث بلغت تكلفة التحويلات المصرفية حوالي 2.51 دولار، وبلغ متوسط تكلفة عمليات الاحتيال الأخرى 0.75 دولار فقط.

وردًا على ذلك، سلطت OpenAI الضوء على العمل الذي تقوم به لتحسين الأمان من خلال أحدث طراز لها، o1-preview. وقال متحدث باسم OpenAI لـ" Bleeping Computer": "نعمل باستمرار على تحسين "شات جي بي تي" في إيقاف المحاولات المتعمدة لخداعه، من دون فقدان فائدته أو إبداعه، وأحدث نموذج استدلال o1 لدينا هو الأكثر كفاءة وأمانًا حتى الآن، ويتفوق بشكل كبير على النماذج السابقة في مقاومة المحاولات المتعمدة لإنشاء محتوى غير آمن".

وأكدت OpenAI" أيضًا أن هذه الدراسات تساعدها في تعزيز حماية "شات جي بي تي".