Темна сторона штучного інтелекту: виклики безпечності, які несуть необмежені великі мовні моделі
З розвитком технологій штучного інтелекту великі мовні моделі глибоко змінюють наш спосіб життя. Однак на цьому світлому фоні непомітно розширюється тривожна тінь - поява безмежних або зловмисних великих мовних моделей.
Безмежні мовні моделі - це ті, які були навмисно спроектовані або модифіковані для обходу вбудованих механізмів безпеки та етичних обмежень звичайних моделей. Хоча розробники основних моделей вкладають багато ресурсів у запобігання зловживанню моделями, деякі недобросовісні особи чи організації починають шукати або самостійно розробляти необмежені моделі з незаконною метою. У цій статті розглядаються典型案例 таких безмежних моделей, їх потенційні загрози в криптоіндустрії, а також пов'язані з цим виклики безпеки та стратегії реагування.
Загроза безмежних великих мовних моделей
Поява таких моделей значно знизила бар'єри для кіберзлочинності. Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, тепер з допомогою необмежених моделей можуть легко виконати навіть звичайні люди без досвіду програмування. Зловмисникам достатньо отримати ваги та вихідний код відкритої моделі, а потім за допомогою набору даних, що містить шкідливий контент або незаконні інструкції, провести тонке налаштування, щоб створити індивідуалізовані інструменти атаки.
Ця тенденція приносить численні ризики: зловмисники можуть налаштовувати моделі під конкретні цілі, створюючи більш обманливий контент, що дозволяє обходити звичайні моделі перевірки контенту; моделі також можуть швидко генерувати варіанти коду фішингових сайтів або адаптувати шахрайські тексти для різних платформ; водночас доступність відкритих моделей сприяє формуванню підпільної AI-екосистеми, створюючи сприятливе середовище для незаконної торгівлі.
Типові необмежені великі мовні моделі та їх потенційні небезпеки
WormGPT: темна версія GPT
WormGPT — це шкідлива модель, яка продається на підпільних форумах і стверджує, що не має жодних моральних обмежень. Вона базується на відкритих моделях, таких як GPT-J 6B, і була навчена на великій кількості даних, пов'язаних із шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ, сплативши 189 доларів. Найбільш ганебним використанням WormGPT є створення надзвичайно реалістичних комерційних листів для атак на електронну пошту та фішингових листів.
У сфері криптовалют WormGPT може бути зловжито:
Генерація фішингових листів: імітація запиту "перевірка облікового запису" з біржі або проекту, спонукаючи користувачів розкривати приватні ключі.
Написання шкідливого коду: допомога атакарам з нижчим рівнем технічних знань у написанні шкідливих програм для крадіжки файлів гаманців.
Автоматизація шахрайства: автоматичні відповіді потенційним жертвам, які ведуть до участі у фальшивих аеродропах або інвестиційних проектах.
DarkBERT: двосічний меч для контенту темної мережі
DarkBERT є мовною моделлю, попередньо навченою на даних з темної мережі, початковою метою якої є надання інструментів для дослідників безпеки та правоохоронних органів для кращого розуміння екосистеми темної мережі. Однак, якщо її використають злочинці або навчать аналогічну модель без обмежень, її потенційна шкода включає:
Впровадження точного шахрайства: збір інформації про користувачів криптовалюти та команди проєктів для соціального шахрайства.
Копіювання злочинних методів: імітація зрілих стратегій крадіжки криптовалюти та відмивання грошей з темної мережі.
FraudGPT: швейцарський ніж для інтернет-шахрайства
FraudGPT заявляє, що є вдосконаленою версією WormGPT, має більш широкі функції, переважно продається в темній мережі та на форумах хакерів. У криптовалютній сфері його можуть зловживати для:
Підробка криптопроектів: створення реалістичних білих книг, веб-сайтів та дорожніх карт для проведення фальшивих ICO.
Масове створення фішингових сторінок: швидке створення підроблених сторінок входу відомих бірж.
Діяльність ботів у соціальних мережах: масове створення фальшивих коментарів, просування шахрайських токенів або дискредитація конкурентних проектів.
Соціальна інженерія: імітація людської розмови, встановлення довіри з користувачем, спонукання до розкриття чутливої інформації.
GhostGPT: без моральних обмежень AI помічник
GhostGPT є чітко позиціонованим AI-чат-ботом без моральних обмежень. У крипто-сфері його можуть зловживати для:
Просунуті фішингові атаки: генерують високоякісні фішингові електронні листи, видаючи себе за біржу та публікуючи фальшиві запити на KYC верифікацію.
Генерація шкідливого коду смарт-контрактів: швидка генерація смарт-контрактів, що містять приховані бекдори, для схем Rug Pull.
Поліморфний криптовалютний крадій: генерує шкідливе програмне забезпечення з можливістю трансформації, що викрадає файли гаманців та приватні ключі.
Атаки соціальної інженерії: розгортання роботів на соціальних платформах, які спонукають користувачів брати участь у фальшивому карбуванні NFT або аірдропах.
Глибокі підробки шахрайств: генерація голосу підроблених засновників проектів або керівників бірж для здійснення телефонних шахрайств.
Venice.ai: потенційні ризики безцензурного доступу
Venice.ai надає доступ до різноманітних мовних моделей з обмеженнями, хоча його спрямування - це відкритий майданчик для дослідження можливостей ШІ, його також можна зловживати для генерації шкідливого контенту. Потенційні ризики включають:
Обійти цензуру для створення шкідливого контенту: використовувати моделі з меншими обмеженнями для генерації шаблонів фішингу або ідей для атак.
Зниження порогу для отримання підказок: навіть без глибоких навичок можна легко отримати раніше обмежений результат.
Прискорення ітерації атакуючих фраз: швидке тестування різних моделей на реакцію на зловмисні команди, оптимізація шахрайських сценаріїв.
Висновок
Поява безмежних великих мовних моделей знаменує нову парадигму атак, з якою стикається кібербезпека, що є більш складною, масштабною та автоматизованою. Це не лише знижує бар'єри для атак, але й приносить нові приховані та більш оманливі загрози.
Стикаючись із цим викликом, всі сторони безпекової екосистеми повинні спільно працювати: збільшити інвестиції в технології виявлення, розробити інструменти, які можуть виявляти та блокувати вміст, згенерований злочинними моделями; сприяти розвитку можливостей моделей запобігання злому, досліджувати механізми водяного знака та відстеження; встановити чіткі етичні норми та механізми регулювання, щоб з самого початку обмежити розробку та зловживання злочинними моделями. Лише комплексний підхід може забезпечити безпеку та здоровий розвиток криптоіндустрії в еру ШІ.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
21 лайків
Нагородити
21
5
Поділіться
Прокоментувати
0/400
AirdropHunterXiao
· 07-09 15:09
Дурень використовує штучний інтелект для злочинів
Переглянути оригіналвідповісти на0
SchrodingerAirdrop
· 07-06 16:39
Чи хтось контролює gpt?
Переглянути оригіналвідповісти на0
TopEscapeArtist
· 07-06 16:31
Ще один сигнал для короткої позиції. Цього разу навіть штучний інтелект почав чинити лихо.
Безпека шифрування в тіні ШІ: нові загрози від безмежних мовних моделей
Темна сторона штучного інтелекту: виклики безпечності, які несуть необмежені великі мовні моделі
З розвитком технологій штучного інтелекту великі мовні моделі глибоко змінюють наш спосіб життя. Однак на цьому світлому фоні непомітно розширюється тривожна тінь - поява безмежних або зловмисних великих мовних моделей.
Безмежні мовні моделі - це ті, які були навмисно спроектовані або модифіковані для обходу вбудованих механізмів безпеки та етичних обмежень звичайних моделей. Хоча розробники основних моделей вкладають багато ресурсів у запобігання зловживанню моделями, деякі недобросовісні особи чи організації починають шукати або самостійно розробляти необмежені моделі з незаконною метою. У цій статті розглядаються典型案例 таких безмежних моделей, їх потенційні загрози в криптоіндустрії, а також пов'язані з цим виклики безпеки та стратегії реагування.
Загроза безмежних великих мовних моделей
Поява таких моделей значно знизила бар'єри для кіберзлочинності. Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, тепер з допомогою необмежених моделей можуть легко виконати навіть звичайні люди без досвіду програмування. Зловмисникам достатньо отримати ваги та вихідний код відкритої моделі, а потім за допомогою набору даних, що містить шкідливий контент або незаконні інструкції, провести тонке налаштування, щоб створити індивідуалізовані інструменти атаки.
Ця тенденція приносить численні ризики: зловмисники можуть налаштовувати моделі під конкретні цілі, створюючи більш обманливий контент, що дозволяє обходити звичайні моделі перевірки контенту; моделі також можуть швидко генерувати варіанти коду фішингових сайтів або адаптувати шахрайські тексти для різних платформ; водночас доступність відкритих моделей сприяє формуванню підпільної AI-екосистеми, створюючи сприятливе середовище для незаконної торгівлі.
Типові необмежені великі мовні моделі та їх потенційні небезпеки
WormGPT: темна версія GPT
WormGPT — це шкідлива модель, яка продається на підпільних форумах і стверджує, що не має жодних моральних обмежень. Вона базується на відкритих моделях, таких як GPT-J 6B, і була навчена на великій кількості даних, пов'язаних із шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ, сплативши 189 доларів. Найбільш ганебним використанням WormGPT є створення надзвичайно реалістичних комерційних листів для атак на електронну пошту та фішингових листів.
У сфері криптовалют WormGPT може бути зловжито:
DarkBERT: двосічний меч для контенту темної мережі
DarkBERT є мовною моделлю, попередньо навченою на даних з темної мережі, початковою метою якої є надання інструментів для дослідників безпеки та правоохоронних органів для кращого розуміння екосистеми темної мережі. Однак, якщо її використають злочинці або навчать аналогічну модель без обмежень, її потенційна шкода включає:
FraudGPT: швейцарський ніж для інтернет-шахрайства
FraudGPT заявляє, що є вдосконаленою версією WormGPT, має більш широкі функції, переважно продається в темній мережі та на форумах хакерів. У криптовалютній сфері його можуть зловживати для:
GhostGPT: без моральних обмежень AI помічник
GhostGPT є чітко позиціонованим AI-чат-ботом без моральних обмежень. У крипто-сфері його можуть зловживати для:
Venice.ai: потенційні ризики безцензурного доступу
Venice.ai надає доступ до різноманітних мовних моделей з обмеженнями, хоча його спрямування - це відкритий майданчик для дослідження можливостей ШІ, його також можна зловживати для генерації шкідливого контенту. Потенційні ризики включають:
Висновок
Поява безмежних великих мовних моделей знаменує нову парадигму атак, з якою стикається кібербезпека, що є більш складною, масштабною та автоматизованою. Це не лише знижує бар'єри для атак, але й приносить нові приховані та більш оманливі загрози.
Стикаючись із цим викликом, всі сторони безпекової екосистеми повинні спільно працювати: збільшити інвестиції в технології виявлення, розробити інструменти, які можуть виявляти та блокувати вміст, згенерований злочинними моделями; сприяти розвитку можливостей моделей запобігання злому, досліджувати механізми водяного знака та відстеження; встановити чіткі етичні норми та механізми регулювання, щоб з самого початку обмежити розробку та зловживання злочинними моделями. Лише комплексний підхід може забезпечити безпеку та здоровий розвиток криптоіндустрії в еру ШІ.