آونگ پرس ، سامی خوری رئیس مرکز امنیت سایبری کانادا در مصاحبه ای اعلام کرد آژانس وی معتقد است در ایمیل های فیشینگ یا ایجاد ایمیل ها به شیوه سردرگم کننده تر و حتی در کدهای خطرناک و اخبار جعلی از هوش مصنوعی استفاده می شود.
خوری جزییاتی در این باره ارائه نکرد اما اظهارات وی درباره سواستفاده مجرمان سایبری از هوش مصنوعی هشدارها و نگرانی ها درباره این فناوری را پر رنگ تر می کند.
در ماه های اخیر چند گروه ناظر سایبری با انتشار گزارش هایی درباره ریسک های بالای هوش مصنوعی به خصوص مدل های زبانی بزرگ (LLM) هشدار داده اند.این مدل ها متن ها و اسناد قانع کننده ای می سازند.
در ماه مارس یورو پل، سازمان پلیس اروپا گزارشی منتشر و اعلام کرد مدل هایی مانند «چت جی پی تی» جعل هویت سازمان ها و افراد را ساده تر کرده اند.
در همان ماه مرکز ملی امنیت سایبری انگلیس در یک پست وبلاگی هشدار داد احتمال دارد مجرمان از LLM ها برای کمک به حملات سایبری استفاده کنند.