Опасные языковые модели стали серьезной угрозой для безопасности криптовалютного рынка

Распространение продвинутых языковых моделей открыло новые возможности для киберпреступников. Об этом заявили эксперты SlowMist. Наряду с развитием ChatGPT, Gemini и других open-source решений, появились так называемые unrestricted LLM — модели без этических ограничений. Эти инструменты модифицируют продукт, снимая защиту от создания вредоносного контента, фишинга и кода для взломов. Они то и становятся новым «орудием» для атак на крипторынке.
Одним из первых известных примеров стал WormGPT — «черная версия» GPT, распространяемая на подпольных форумах. Ее разработчик открыто заявляет об отсутствии моральных ограничений. За $189 в месяц мошенники используют WormGPT для массовой рассылки фишинговых писем от имени криптобирж и криптокошельков. Модель помогает создавать вредоносный код, крадущий файлы и приватные ключи, а также управлять ботами.
Опасность представляет и DarkBERT — изначально исследовательская модель, обученная на данных с даркнета. Хотя ее цель — анализ подпольных форумов для выявления угроз, в руках злоумышленников она становится источником техник социальной инженерии, схем кражи криптовалюты и способов отмывания средств.
FraudGPT, — улучшенная версия WormGPT, предлагает целый набор вредоносных функций. Стоимость подписки варьируется от $200 до $1700 в месяц. В криптопространстве инструмент применяют для создания фальшивых проектов, поддельных сайтов бирж и кошельков, генерации текстов для мошеннических ICO и IDO, а также организации массированных бот-атак в соцсетях.
Еще один пример — GhostGPT, позиционируемый как полностью аморальный AI-ассистент. Его используют для продвинутых фишинговых атак с имитацией уведомлений от криптобирж. Модель помогает искать уязвимости в смарт-контрактах и разрабатывает вредоносный код для кражи seed-фраз. Отдельный риск представляет Venice.ai, открывающая доступ к нескольким малоограниченным LLM одновременно. Благодаря отсутствию ограничений пользователи без навыков легко генерируют опасный контент и тестируют модели на эффективность вредоносных запросов.
Эксперты предупреждают, что все эти инструменты резко упрощают проведение крупных атак и обман пользователей. Защитные меры должны включать усиление фильтрации AI-контента, развитие методов обнаружения фишинга, внедрение защиты моделей от jailbreak-атак и систем водяных знаков для отслеживания авторства подозрительных материалов.