إذا طلبت من روبوت (ChatGPT) أن يكتب رسالة بريد إلكتروني للتصيد الاحتيالي، سيرفض ذلك؛ كما سيشرح لك أضرار التصيد الاحتيالي، واصفًا إياه إنه نشاط ضار وغير قانوني يهدف إلى خداع الأفراد لتقديم معلومات حساسة مثل: كلمات المرور وأرقام بطاقات الائتمان والتفاصيل الشخصية، مضيفًا أنه كنموذج لغة يستند إلى الذكاء الاصطناعي في عمله قد بُرمج على تجنب الانخراط في أنشطة قد تضر الأفراد.
ومع ذلك؛ اكتشف الباحثون في شركة (Check Point Research) للأمن السيبراني أن روبوت (ChatGPT) لا يواجه مشكلة في إنشاء رسائل تصيد احتيالي سليمة بدون أخطاء إملائية أو نحوية، إذ استخدم الباحثون منصة (Codex) – التابعة لشركة (OpenAI) أيضًا وهي منصة تستند في عملها إلى الذكاء الاصطناعي لتوليد الأكواد البرمجية من النصوص – لإنشاء مستند Excel ضار، ثم طلبوا من ChatGPT كتابة رسالة بريد إلكتروني تتضمن المستند الضار. وكل ما تطلبه الأمر لإقناع ChatGPT بكتابة رسالة بريد إلكتروني للتصيد الاحتيالي هو اقتراح بأن يعتبر نفسه شركة استضافة ويب.
كما أشار تقرير من مجلة (New Scientist) إلى أن استخدام ChatGPT في إنشاء رسائل البريد الإلكتروني الاحتيالية يمكن أن يخفض تكاليف عصابات الجرائم الإلكترونية بنسبة تصل إلى 96%، وفقاً لموقع aitnews.
بالإضافة إلى ذلك؛ يُعد روبوت ChatGPT أهم موضوع مطروح في الويب المظلم حاليًا؛ إذ يناقش مجرمو الإنترنت كيفية استخدامه للاحتيال على المستخدمين. أي نعم؛ هناك وسائل حماية مضمنة في ChatGPT تهدف إلى منع استخدامه في عمليات الاحتيال، ولكن يمكن التحايل عليها.
وحذرت شركة (ESET) للأمن السيبراني من أن رسائل البريد الإلكتروني الاحتيالية هي قمة جبل الجليد، وأن مجرمي الإنترنت يمكنهم استخدام ChatGPT أو برنامج مشابه لإنشاء روبوتات دردشة مزيفة تمامًا لخداع مستخدمي الإنترنت وسرقة أموالهم.
0 تعليقات