Пандора на коробка: обговорення потенційних загроз для шифрування індустрії з боку безмежних великих моделей
З розвитком технологій штучного інтелекту, від серії GPT до Gemini, а також різноманітних відкритих моделей, передові AI глибоко змінюють наші робочі та життєві практики. Однак, поряд з прогресом технологій, поступово виникає питання, яке варто взяти до уваги - поява необмежених або зловмисних великих мовних моделей та їх потенційні ризики.
Безмежні LLM – це ті, які були спеціально розроблені, модифіковані або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Розробники основних LLM зазвичай витрачають великі ресурси, щоб запобігти використанню своїх моделей для генерації ненависницьких висловлювань, неправдивої інформації, шкідливого коду або надання вказівок для незаконної діяльності. Проте в останні роки деякі особи чи організації з різних мотивів почали шукати або самостійно розробляти необмежені моделі. У цій статті буде розглянуто типові інструменти безмежних LLM, проаналізовано їх потенційні способи зловживання в сфері шифрування та обговорено пов'язані проблеми безпеки та стратегії реагування.
Потенційні загрози без обмежень LLM
Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, організація шахрайства тощо, тепер за допомогою необмежених LLM можуть легко виконати навіть звичайні люди без досвіду програмування. Зловмисникам потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання на наборі даних, що містить шкідливий контент, упереджені висловлювання або незаконні інструкції, щоб створити індивідуалізований інструмент атаки.
Ця модель приносить численні ризики: зловмисники можуть «пампити» модель на конкретну ціль, генеруючи більш оманливий контент, обходячи звичайну перевірку змісту та безпекові обмеження LLM; модель також може бути використана для швидкого створення варіантів коду фішингових веб-сайтів або для створення шахрайських текстів, адаптованих до різних соціальних платформ; водночас доступність та змінність відкритих моделей також сприяє формуванню та розповсюдженню підпільної екосистеми ШІ, що створює сприятливі умови для незаконної торгівлі та розробки. Ось кілька типових необмежених LLM та їх потенційні загрози:
WormGPT: чорна версія GPT
WormGPT є шкідливим LLM, що продається на підпільних форумах, його розробники чітко заявляють, що він не має жодних етичних обмежень. Він заснований на відкритих моделях, таких як GPT-J 6B, і тренується на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ, сплативши мінімум 189 доларів. Найбільш ганебне використання WormGPT полягає у створенні надзвичайно реалістичних і переконливих комерційних електронних листів для вторгнень (BEC) атак та фішингових листів. Його типовими зловживаннями у сфері шифрування є:
Генерація фішингових електронних листів/повідомлень: імітація запитів "перевірка облікового запису" від криптовалютних бірж, гаманців або відомих проектів, щоб спонукати користувачів натиснути на шкідливі посилання або розкрити свої приватні ключі/мнемонічні фрази.
Написання шкідливого коду: допомога атакам з низьким рівнем технічної підготовки в написанні шкідливого коду, який викрадає файли гаманців, моніторить буфер обміну, реєструє натискання клавіш тощо.
Автоматизація шахрайства: автоматичні відповіді потенційним жертвам, які спонукають їх брати участь у фальшивих аеродромах або інвестиційних проектах.
DarkBERT: двосічний меч контенту темної мережі
DarkBERT – це мовна модель, розроблена дослідниками Корейського науково-технічного інституту (KAIST) у співпраці з S2W Inc., спеціально попередньо навчена на даних з темної мережі (таких як форуми, чорні ринки, витоки даних). Її мета полягає в тому, щоб допомогти дослідникам з кібербезпеки та правоохоронним органам краще зрозуміти екосистему темної мережі, відстежувати незаконну діяльність, ідентифікувати потенційні загрози та отримувати інформацію про загрози.
Хоча первісна мета DarkBERT була позитивною, володіння ним чутливими даними про темну мережу, методи атак, стратегії незаконних交易 тощо, може призвести до страшних наслідків, якщо ці дані потраплять до рук злочинців або якщо за допомогою аналогічних технологій будуть навчені необмежені великі моделі. Потенційні способи зловживання ним у сценаріях шифрування включають:
Впровадження точного шахрайства: збір інформації про користувачів шифрування та команди проекту для соціальної інженерії.
Імітація кримінальних методів: відтворення зрілих стратегій крадіжки та відмивання грошей з темної мережі.
FraudGPT: швейцарський армійський ніж для мережевих шахрайств
FraudGPT стверджує, що є вдосконаленою версією WormGPT, має більш розширені функції, в основному продається в темній мережі та на форумах хакерів, щомісячна плата коливається від 200 до 1,700 доларів. Його типові зловживання в сцені шифрування включають:
Підробка шифрувальних проектів: створення правдоподібних білих книг, веб-сайтів, дорожніх карт та маркетингових текстів для проведення фальшивих ICO/IDO.
Масове створення фішингових сторінок: швидке створення сторінок входу або інтерфейсів підключення гаманців, що імітують відомі біржі криптовалюти.
Активність ботів у соціальних мережах: масове створення фальшивих коментарів та пропаганди, що сприяє шахрайським токенам або дискредитації конкурентних проектів.
Соціальна інженерія: цей чат-бот може імітувати людську розмову, встановлювати довіру з необізнаними користувачами, спонукаючи їх випадково розкривати чутливу інформацію або виконувати шкідливі дії.
GhostGPT: неетичний AI асистент
GhostGPT є чітко визначеним AI-чат-ботом без етичних обмежень, який має типові зловживання в сцені шифрування, такі як:
Просунутий фішинг: генерує дуже реалістичні фішингові електронні листи, що маскуються під запити на фальшиву KYC перевірку, сповіщення про безпеку або повідомлення про замороження облікового запису від провідних бірж.
Генерація злочинного коду смарт-контрактів: без знань програмування, зловмисники можуть швидко створити смарт-контракти з прихованими бекдорами або шахрайською логікою за допомогою GhostGPT, які використовуються для схем Rug Pull або атак на DeFi-протоколи.
Поліморфний шифрувальний крадій: генерує шкідливе програмне забезпечення з безперервною здатністю до трансформації для викрадення файлів гаманця, приватних ключів та мнемонічних фраз. Його поліморфні характеристики ускладнюють виявлення традиційним програмним забезпеченням безпеки, що базується на підписах.
Соціальна інженерія: поєднуючи сценарії розмов, згенеровані AI, зловмисники можуть розгортати роботів на соціальних платформах, спокушаючи користувачів брати участь у фальшивому NFT-емісії, аеродропах або інвестиційних проектах.
Глибоке підроблення шахрайства: у поєднанні з іншими інструментами штучного інтелекту, GhostGPT може бути використаний для генерації голосу підроблених засновників крипто проектів, інвесторів або керівників бірж для здійснення телефонного шахрайства або вторгнення в комерційну пошту (BEC) атаки.
Venice.ai: потенційні ризики без цензурного доступу
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншими обмеженнями або з м'якими обмеженнями. Він позиціонує себе як відкриті ворота для користувачів, які досліджують можливості різних LLM, пропонуючи найсучасніші, найточніші та нецензуровані моделі для справжнього безмежного AI-досвіду, але також може бути використаний злочинцями для генерації шкідливого контенту. Ризики платформи включають:
Обход цензури для створення шкідливого контенту: зловмисники можуть використовувати моделі з меншими обмеженнями на платформі для створення фішингових шаблонів, фальшивої реклами або атакуючих стратегій.
Зниження порогу вхідних даних: навіть якщо зловмисник не має глибоких навичок "джейлбрейку", він може легко отримати вихід, який зазвичай обмежений.
Прискорена ітерація атакуючих сценаріїв: зловмисники можуть використовувати цю платформу для швидкого тестування різних моделей реакції на шкідливі команди, оптимізуючи шахрайські скрипти та методи атак.
Висновок
Поява LLM без обмежень знаменує собою нову парадигму атак, що стикається з інформаційною безпекою, яка є більш складною, масовою та автоматизованою. Ці моделі не лише знижують поріг для атак, але й приносять нові, більш приховані та оманливі загрози.
У цій грі з безперервним ескалацією атак і захисту всі учасники безпечної екосистеми можуть впоратися з майбутніми ризиками лише спільними зусиллями: з одного боку, потрібно збільшити інвестиції в технології виявлення, розробити рішення, які можуть ідентифікувати та блокувати фішинговий контент, що генерується зловмисними LLM, експлуатацію вразливостей смарт-контрактів та зловмисний код; з іншого боку, також слід сприяти розвитку можливостей протидії зламу моделей і досліджувати механізми водяних знаків та відстеження, щоб у критичних сценаріях, таких як фінанси та генерація коду, можна було відстежувати джерела зловмисного контенту; крім того, необхідно встановити впорядковані етичні норми та механізми регулювання, щоб обмежити розробку та зловживання зловмисними моделями з самого початку.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Безмежні ризики штучного інтелекту: WormGPT та інші можуть стати новими загрозами для шифрування-індустрії
Пандора на коробка: обговорення потенційних загроз для шифрування індустрії з боку безмежних великих моделей
З розвитком технологій штучного інтелекту, від серії GPT до Gemini, а також різноманітних відкритих моделей, передові AI глибоко змінюють наші робочі та життєві практики. Однак, поряд з прогресом технологій, поступово виникає питання, яке варто взяти до уваги - поява необмежених або зловмисних великих мовних моделей та їх потенційні ризики.
Безмежні LLM – це ті, які були спеціально розроблені, модифіковані або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Розробники основних LLM зазвичай витрачають великі ресурси, щоб запобігти використанню своїх моделей для генерації ненависницьких висловлювань, неправдивої інформації, шкідливого коду або надання вказівок для незаконної діяльності. Проте в останні роки деякі особи чи організації з різних мотивів почали шукати або самостійно розробляти необмежені моделі. У цій статті буде розглянуто типові інструменти безмежних LLM, проаналізовано їх потенційні способи зловживання в сфері шифрування та обговорено пов'язані проблеми безпеки та стратегії реагування.
Потенційні загрози без обмежень LLM
Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, організація шахрайства тощо, тепер за допомогою необмежених LLM можуть легко виконати навіть звичайні люди без досвіду програмування. Зловмисникам потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання на наборі даних, що містить шкідливий контент, упереджені висловлювання або незаконні інструкції, щоб створити індивідуалізований інструмент атаки.
Ця модель приносить численні ризики: зловмисники можуть «пампити» модель на конкретну ціль, генеруючи більш оманливий контент, обходячи звичайну перевірку змісту та безпекові обмеження LLM; модель також може бути використана для швидкого створення варіантів коду фішингових веб-сайтів або для створення шахрайських текстів, адаптованих до різних соціальних платформ; водночас доступність та змінність відкритих моделей також сприяє формуванню та розповсюдженню підпільної екосистеми ШІ, що створює сприятливі умови для незаконної торгівлі та розробки. Ось кілька типових необмежених LLM та їх потенційні загрози:
WormGPT: чорна версія GPT
WormGPT є шкідливим LLM, що продається на підпільних форумах, його розробники чітко заявляють, що він не має жодних етичних обмежень. Він заснований на відкритих моделях, таких як GPT-J 6B, і тренується на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ, сплативши мінімум 189 доларів. Найбільш ганебне використання WormGPT полягає у створенні надзвичайно реалістичних і переконливих комерційних електронних листів для вторгнень (BEC) атак та фішингових листів. Його типовими зловживаннями у сфері шифрування є:
DarkBERT: двосічний меч контенту темної мережі
DarkBERT – це мовна модель, розроблена дослідниками Корейського науково-технічного інституту (KAIST) у співпраці з S2W Inc., спеціально попередньо навчена на даних з темної мережі (таких як форуми, чорні ринки, витоки даних). Її мета полягає в тому, щоб допомогти дослідникам з кібербезпеки та правоохоронним органам краще зрозуміти екосистему темної мережі, відстежувати незаконну діяльність, ідентифікувати потенційні загрози та отримувати інформацію про загрози.
Хоча первісна мета DarkBERT була позитивною, володіння ним чутливими даними про темну мережу, методи атак, стратегії незаконних交易 тощо, може призвести до страшних наслідків, якщо ці дані потраплять до рук злочинців або якщо за допомогою аналогічних технологій будуть навчені необмежені великі моделі. Потенційні способи зловживання ним у сценаріях шифрування включають:
FraudGPT: швейцарський армійський ніж для мережевих шахрайств
FraudGPT стверджує, що є вдосконаленою версією WormGPT, має більш розширені функції, в основному продається в темній мережі та на форумах хакерів, щомісячна плата коливається від 200 до 1,700 доларів. Його типові зловживання в сцені шифрування включають:
GhostGPT: неетичний AI асистент
GhostGPT є чітко визначеним AI-чат-ботом без етичних обмежень, який має типові зловживання в сцені шифрування, такі як:
Venice.ai: потенційні ризики без цензурного доступу
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншими обмеженнями або з м'якими обмеженнями. Він позиціонує себе як відкриті ворота для користувачів, які досліджують можливості різних LLM, пропонуючи найсучасніші, найточніші та нецензуровані моделі для справжнього безмежного AI-досвіду, але також може бути використаний злочинцями для генерації шкідливого контенту. Ризики платформи включають:
Висновок
Поява LLM без обмежень знаменує собою нову парадигму атак, що стикається з інформаційною безпекою, яка є більш складною, масовою та автоматизованою. Ці моделі не лише знижують поріг для атак, але й приносять нові, більш приховані та оманливі загрози.
У цій грі з безперервним ескалацією атак і захисту всі учасники безпечної екосистеми можуть впоратися з майбутніми ризиками лише спільними зусиллями: з одного боку, потрібно збільшити інвестиції в технології виявлення, розробити рішення, які можуть ідентифікувати та блокувати фішинговий контент, що генерується зловмисними LLM, експлуатацію вразливостей смарт-контрактів та зловмисний код; з іншого боку, також слід сприяти розвитку можливостей протидії зламу моделей і досліджувати механізми водяних знаків та відстеження, щоб у критичних сценаріях, таких як фінанси та генерація коду, можна було відстежувати джерела зловмисного контенту; крім того, необхідно встановити впорядковані етичні норми та механізми регулювання, щоб обмежити розробку та зловживання зловмисними моделями з самого початку.