گوگل جزئیاتی را درباره نحوه سوءاستفاده مجرمان و هکرها از مدل هوش مصنوعی جمنای برای اهداف مخرب منتشر کرده است.
گروه اطلاعات تهدید گوگل در بیانیه جدیدش اعلام کرد که برخی گروههای هکری وابسته به دولتها، موسوم به گروههای تهدید مداوم پیشرفته (APT)، از هوش مصنوعی جمنای برای تحقیقات درباره اهداف نظامی و شناسایی آسیبپذیریهای نرمافزاری و دریافت کمک در کدنویسی استفاده کردهاند. این گزارش نشان میدهد که با وجود تدابیر امنیتی گوگل برای جلوگیری از سوءاستفاده از جمنای، برخی از این گروهها تلاش کردهاند تا با روشهای مختلف از این مدل زبانی در راستای اهداف خود بهره ببرند.
براساس این گزارش، گروههای APT کشورهای چین و کوریای شمالی و روسیه بیشترین فعالیت را درزمینه سوءاستفاده از جمنای کردهاند. گوگل تأکید میکند که این گروهها از این هوش مصنوعی بهعنوان ابزار تحقیقاتی استفاده کردهاند تا به اطلاعاتی درباره اهداف نظامی و امنیتی دست یابند. برخی دیگر از کاربردها شامل خلاصهسازی اطلاعات حساس و تحلیل آسیبپذیریهای امنیتی و دریافت راهنمایی در برنامهنویسی بوده است.
علاوهبر این، گروههای عملیات اطلاعاتی (IO) از این مدل هوش مصنوعی برای بهبود ترجمه و تنظیم لحن پیامها و تغییر هویت آنلاین برای عملیات مخفیانه بهره بردهاند. این گروهها که عمدتاً با هدف ایجاد هرجومرج در رسانههای اجتماعی فعالیت میکنند، از جمنای برای تولید محتواهای هدفمند بهمنظور فریب کاربران و گسترش اطلاعات نادرست استفاده کردهاند.
گوگل در گزارش خود تأکید کرده است که اگرچه این گروهها تلاش کردهاند با رفع محدودیت جمنای ازطریق دستورهای خلاقانه پروتکلهای امنیتی را دور بزنند، بیشتر این تلاشها سطحی بودهاند و به موفقیت چندانی در سوءاستفاده از این هوش مصنوعی نرسیدهاند. بااینحال، مهمترین استفاده این گروهها از جمنای در قالب تحقیقات غیرمستقیم و تسهیل فرایندهای هکری بوده است.