Пандора's Box: Исследование потенциальных угроз, которые неограниченные большие модели представляют для шифрования индустрии
С развитием технологий искусственного интеллекта, от серии GPT до Gemini и различных открытых моделей, современные ИИ глубоко меняют наши рабочие и жизненные способы. Однако, наряду с техническим прогрессом, появляется одна настораживающая проблема - появление неограниченных или злонамеренных крупных языковых моделей и их потенциальные риски.
Безлимитные LLM — это языковые модели, которые были специально разработаны, изменены или "взломаны", чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Разработчики основных LLM обычно вкладывают значительные ресурсы в предотвращение использования своих моделей для генерации ненависти, дезинформации, вредоносного кода или предоставления указаний на незаконные действия. Однако в последние годы некоторые индивидуумы или организации по разным причинам начали искать или самостоятельно разрабатывать неограниченные модели. В этой статье будут рассмотрены типичные инструменты безлимитных LLM, проанализированы их потенциальные способы злоупотребления в шифровании, а также обсуждены соответствующие проблемы безопасности и стратегии реагирования.
Потенциальные угрозы неограниченного LLM
Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д., теперь с помощью неограниченных LLM могут выполнять даже обычные люди без опыта программирования. Злоумышленникам достаточно получить веса и исходный код открытой модели, а затем провести донастройку на наборе данных, содержащем вредоносный контент, предвзятые высказывания или незаконные инструкции, чтобы создать индивидуализированный инструмент для атак.
Эта модель приносит множественные риски: злоумышленники могут нацелиться на конкретные цели и "модифицировать" модель, создавая более обманчивый контент, обходя обычные проверки содержания и ограничения безопасности LLM; модель также может быть использована для быстрого создания кодов-вариантов фишинговых сайтов или для разработки мошеннических текстов, адаптированных для различных социальных платформ; одновременно доступность и модифицируемость открытых моделей способствуют формированию и распространению подпольной AI-экосистемы, создавая благоприятные условия для незаконной торговли и разработки. Ниже приведены несколько типичных неограниченных LLM и их потенциальные угрозы:
WormGPT:черная версия GPT
WormGPT — это вредоносная LLM, продаваемая на подпольных форумах, разработчики которой явно заявляют, что она не имеет никаких моральных ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку, заплатив минимум 189 долларов. Наиболее печально известное применение WormGPT — это генерация высокореалистичных и убедительных коммерческих электронных писем для вторжений (BEC), атак по электронной почте и фишинг-рассылок. Типичные злоупотребления в контексте шифрования включают:
Генерация фишинговых писем/сообщений: имитация запросов "Проверка аккаунта" от криптовалютных бирж, кошельков или известных проектов, чтобы заставить пользователей кликнуть на вредоносные ссылки или раскрыть свои приватные ключи/мнемонические фразы.
Написание вредоносного кода: помощь менее опытным злоумышленникам в написании вредоносного кода с функциями кражи файлов кошельков, мониторинга буфера обмена, записи нажатий клавиш и т.д.
Автоматизация мошенничества: автоматический ответ потенциальным жертвам, направляя их участвовать в ложных аирдропах или инвестиционных проектах.
DarkBERT: двусторонний меч контента темной сети
DarkBERT — это языковая модель, разработанная исследователями Корейского научно-технического института (KAIST) в сотрудничестве с S2W Inc., специально предобученная на данных из темной сети (таких как форумы, черные рынки, утеченные данные). Ее цель — помочь исследователям в области кибербезопасности и правоохранительным органам лучше понимать экосистему темной сети, отслеживать незаконные действия, выявлять потенциальные угрозы и собирать разведывательную информацию о угрозах.
Хотя первоначальная идея DarkBERT была положительной, его знания о данных, методах атак, незаконных торговых стратегиях и другим чувствительным материалам из темной сети могут привести к ужасным последствиям, если они окажутся в руках злоумышленников или если подобные технологии будут использованы для обучения неограниченных моделей. Потенциальные способы злоупотребления в сфере шифрования включают:
Реализация точного мошенничества: сбор информации о пользователях шифрования и командах проектов для социоинженерного обмана.
Имитировать преступные методы: воспроизводить зрелые стратегии кражи монет и отмывания денег в темной сети.
FraudGPT: швейцарский нож для сетевого мошенничества
FraudGPT утверждает, что является улучшенной версией WormGPT, с более широкими возможностями, в основном продается в даркнете и на хакерских форумах, месячная подписка варьируется от 200 до 1 700 долларов. Типичные способы злоупотребления в шифрование-сценарии включают:
Поддельные шифрование проекты: создание правдоподобных белых книг, официальных сайтов, дорожных карт и маркетинговых материалов для осуществления ложного ICO/IDO.
Массовая генерация фишинговых страниц: быстрое создание страниц входа, имитирующих известные платформы для шифрования или интерфейсы подключения кошельков.
Деятельность ботов в социальных сетях: массовое создание ложных комментариев и рекламы, способствующих мошенническим токенам или дискредитации конкурентных проектов.
Социальная инженерия: этот чат-бот может имитировать человеческий разговор, устанавливать доверие с неосведомленными пользователями и подталкивать их к неосознанной утечке конфиденциальной информации или выполнению вредоносных действий.
GhostGPT: не обладающий моральными ограничениями ИИ помощник
GhostGPT является четко определенным AI-чат-ботом без моральных ограничений, и его типичные злоупотребления в шифровании включает в себя:
Продвинутый фишинг: создание высокореалистичных фишинговых писем, выдающих себя за запросы на подделку KYC, уведомления о безопасности или уведомления о заморозке аккаунта от крупных бирж.
Генерация вредоносного кода для смарт-контрактов: без необходимости в знаниях программирования злоумышленники могут с помощью GhostGPT быстро создавать смарт-контракты с скрытыми задними дверями или мошеннической логикой, используемыми для схем Rug Pull или атак на DeFi-протоколы.
Полифункциональный шифровальный кражник криптовалюты: генерирует вредоносное ПО с возможностью постоянной деформации для кражи файлов кошельков, приватных ключей и мнемонических фраз. Его полиморфные характеристики затрудняют обнаружение традиционным программным обеспечением безопасности, основанным на подписи.
Социальная инженерия: с помощью скриптов разговоров, сгенерированных ИИ, атакующие могут размещать роботов на социальных платформах, чтобы вводить пользователей в заблуждение и вовлекать их в фальшивое создание NFT, аирдропы или инвестиционные проекты.
Глубокое фальсификация мошенничество: в сочетании с другими инструментами ИИ, GhostGPT может использоваться для генерации фальшивых голосов основателей криптопроектов, инвесторов или руководителей биржи, для осуществления телефонного мошенничества или вторжения в деловые электронные письма (BEC) атак.
Venice.ai:потенциальные риски доступа без проверки
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшими ограничениями или более свободными условиями. Он позиционирует себя как открытые ворота для пользователей, исследующих различные возможности LLM, предлагая самые современные, самые точные и нецензурированные модели для достижения по-настоящему неограниченного AI-опыта, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски платформы включают:
Обход цензуры для создания вредоносного контента: злоумышленники могут использовать модели с меньшими ограничениями на платформе для генерации шаблонов для фишинга, ложной рекламы или атак.
Снижение порога для подсказок: даже если атакующий не обладает глубокими навыками "джейлбрейка" подсказок, он все равно сможет легко получить изначально ограниченный вывод.
Ускоренная итерация атакующих речей: злоумышленники могут использовать эту платформу для быстрой проверки реакции различных моделей на вредоносные команды, оптимизируя мошеннические скрипты и методы атак.
Заключение
Появление неограниченных LLM знаменует собой новый парадигму атак, с которыми сталкивается кибербезопасность, характеризующуюся более сложными, масштабируемыми и автоматизированными способностями. Такие модели не только снижают порог атаки, но и приносят новые скрытые угрозы с более сильным обманом.
В этой игре, где идет постоянная эскалация атак и обороны, все стороны безопасной экосистемы должны работать совместно, чтобы справиться с будущими рисками: с одной стороны, необходимо увеличить инвестиции в технологии обнаружения, разрабатывать решения, способные идентифицировать и блокировать фишинговый контент, созданный злонамеренными LLM, эксплуатацию уязвимостей смарт-контрактов и злонамеренный код; с другой стороны, следует также продвигать развитие защитных возможностей моделей от взлома, а также исследовать механизмы водяных знаков и отслеживания, чтобы иметь возможность отслеживать источники злонамеренного контента в таких ключевых сценариях, как финансы и генерация кода; кроме того, необходимо установить и укрепить этические нормы и механизмы надзора, чтобы ограничить разработку и злоупотребление злонамеренными моделями с самого начала.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
22 Лайков
Награда
22
5
Поделиться
комментарий
0/400
ContractCollector
· 07-13 07:28
Безопасность — это основа долгосрочного развития
Посмотреть ОригиналОтветить0
GasFeeDodger
· 07-12 00:43
Технология не имеет罪无解
Посмотреть ОригиналОтветить0
BankruptcyArtist
· 07-10 22:01
Это точно таблетка.
Посмотреть ОригиналОтветить0
SilentObserver
· 07-10 21:50
Риски не заканчиваются на этом
Посмотреть ОригиналОтветить0
just_another_wallet
· 07-10 21:44
Необходимость соблюдения Соответствие регуляторных норм
Безлимитные предупреждения о рисках ИИ: WormGPT и другие могут стать новой угрозой для шифрования отрасли.
Пандора's Box: Исследование потенциальных угроз, которые неограниченные большие модели представляют для шифрования индустрии
С развитием технологий искусственного интеллекта, от серии GPT до Gemini и различных открытых моделей, современные ИИ глубоко меняют наши рабочие и жизненные способы. Однако, наряду с техническим прогрессом, появляется одна настораживающая проблема - появление неограниченных или злонамеренных крупных языковых моделей и их потенциальные риски.
Безлимитные LLM — это языковые модели, которые были специально разработаны, изменены или "взломаны", чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Разработчики основных LLM обычно вкладывают значительные ресурсы в предотвращение использования своих моделей для генерации ненависти, дезинформации, вредоносного кода или предоставления указаний на незаконные действия. Однако в последние годы некоторые индивидуумы или организации по разным причинам начали искать или самостоятельно разрабатывать неограниченные модели. В этой статье будут рассмотрены типичные инструменты безлимитных LLM, проанализированы их потенциальные способы злоупотребления в шифровании, а также обсуждены соответствующие проблемы безопасности и стратегии реагирования.
Потенциальные угрозы неограниченного LLM
Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д., теперь с помощью неограниченных LLM могут выполнять даже обычные люди без опыта программирования. Злоумышленникам достаточно получить веса и исходный код открытой модели, а затем провести донастройку на наборе данных, содержащем вредоносный контент, предвзятые высказывания или незаконные инструкции, чтобы создать индивидуализированный инструмент для атак.
Эта модель приносит множественные риски: злоумышленники могут нацелиться на конкретные цели и "модифицировать" модель, создавая более обманчивый контент, обходя обычные проверки содержания и ограничения безопасности LLM; модель также может быть использована для быстрого создания кодов-вариантов фишинговых сайтов или для разработки мошеннических текстов, адаптированных для различных социальных платформ; одновременно доступность и модифицируемость открытых моделей способствуют формированию и распространению подпольной AI-экосистемы, создавая благоприятные условия для незаконной торговли и разработки. Ниже приведены несколько типичных неограниченных LLM и их потенциальные угрозы:
WormGPT:черная версия GPT
WormGPT — это вредоносная LLM, продаваемая на подпольных форумах, разработчики которой явно заявляют, что она не имеет никаких моральных ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку, заплатив минимум 189 долларов. Наиболее печально известное применение WormGPT — это генерация высокореалистичных и убедительных коммерческих электронных писем для вторжений (BEC), атак по электронной почте и фишинг-рассылок. Типичные злоупотребления в контексте шифрования включают:
DarkBERT: двусторонний меч контента темной сети
DarkBERT — это языковая модель, разработанная исследователями Корейского научно-технического института (KAIST) в сотрудничестве с S2W Inc., специально предобученная на данных из темной сети (таких как форумы, черные рынки, утеченные данные). Ее цель — помочь исследователям в области кибербезопасности и правоохранительным органам лучше понимать экосистему темной сети, отслеживать незаконные действия, выявлять потенциальные угрозы и собирать разведывательную информацию о угрозах.
Хотя первоначальная идея DarkBERT была положительной, его знания о данных, методах атак, незаконных торговых стратегиях и другим чувствительным материалам из темной сети могут привести к ужасным последствиям, если они окажутся в руках злоумышленников или если подобные технологии будут использованы для обучения неограниченных моделей. Потенциальные способы злоупотребления в сфере шифрования включают:
FraudGPT: швейцарский нож для сетевого мошенничества
FraudGPT утверждает, что является улучшенной версией WormGPT, с более широкими возможностями, в основном продается в даркнете и на хакерских форумах, месячная подписка варьируется от 200 до 1 700 долларов. Типичные способы злоупотребления в шифрование-сценарии включают:
GhostGPT: не обладающий моральными ограничениями ИИ помощник
GhostGPT является четко определенным AI-чат-ботом без моральных ограничений, и его типичные злоупотребления в шифровании включает в себя:
Venice.ai:потенциальные риски доступа без проверки
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшими ограничениями или более свободными условиями. Он позиционирует себя как открытые ворота для пользователей, исследующих различные возможности LLM, предлагая самые современные, самые точные и нецензурированные модели для достижения по-настоящему неограниченного AI-опыта, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски платформы включают:
Заключение
Появление неограниченных LLM знаменует собой новый парадигму атак, с которыми сталкивается кибербезопасность, характеризующуюся более сложными, масштабируемыми и автоматизированными способностями. Такие модели не только снижают порог атаки, но и приносят новые скрытые угрозы с более сильным обманом.
В этой игре, где идет постоянная эскалация атак и обороны, все стороны безопасной экосистемы должны работать совместно, чтобы справиться с будущими рисками: с одной стороны, необходимо увеличить инвестиции в технологии обнаружения, разрабатывать решения, способные идентифицировать и блокировать фишинговый контент, созданный злонамеренными LLM, эксплуатацию уязвимостей смарт-контрактов и злонамеренный код; с другой стороны, следует также продвигать развитие защитных возможностей моделей от взлома, а также исследовать механизмы водяных знаков и отслеживания, чтобы иметь возможность отслеживать источники злонамеренного контента в таких ключевых сценариях, как финансы и генерация кода; кроме того, необходимо установить и укрепить этические нормы и механизмы надзора, чтобы ограничить разработку и злоупотребление злонамеренными моделями с самого начала.