This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
無制限のAIリスクアラート:WormGPTなどは、暗号業界の新たな脅威になる可能性があります
パンドラの箱:無制限の大モデルが暗号化業界に与える潜在的な脅威を探る
人工知能技術の急速な発展に伴い、GPTシリーズからGemini、さらにはさまざまなオープンソースモデルに至るまで、高度なAIは私たちの仕事や生活様式を深く変えています。しかし、技術の進歩と同時に、警戒すべき問題も次第に浮上しています - 無制限または悪意のある大型言語モデルの出現とその潜在的リスク。
無制限LLMとは、主流モデルに内蔵された安全機構や倫理的制限を回避するために特別に設計、修正、または"ジェイルブレイク"された言語モデルを指します。主流LLMの開発者は、モデルがヘイトスピーチ、偽情報、悪意のあるコードを生成したり、違法行為に関する指示を提供したりするのを防ぐために、大量のリソースを投入することが一般的です。しかし近年、一部の個人や組織は、さまざまな動機から無制限のモデルを探したり、自ら開発したりするようになっています。本稿では、典型的な無制限LLMツールを整理し、暗号化業界における潜在的な悪用方法を分析し、関連するセキュリティの課題と対応策について考察します。
! Pandora's Box:無制限の大規模モデルはどのように暗号業界のセキュリティを脅かすのか?
無制限のLLMに対する潜在的な脅威
過去には専門的なスキルが必要だったタスク、例えば悪意のあるコードの作成、フィッシングメールの制作、詐欺の計画などが、現在では無制限のLLMの助けを借りれば、プログラミング経験のない一般の人でも簡単に始められるようになりました。攻撃者はオープンソースモデルの重みとソースコードを取得し、悪意のあるコンテンツ、偏見のある発言、または違法な指示を含むデータセットで微調整を行うだけで、カスタマイズされた攻撃ツールを作成できます。
このモデルは複数のリスクをもたらします:攻撃者は特定のターゲットに対して"魔改"モデルを使用し、より欺瞞的なコンテンツを生成し、通常のLLMのコンテンツ審査と安全制限を回避することができます;モデルはまた、フィッシングサイトのコード変種を迅速に生成したり、異なるソーシャルプラットフォームに合わせた詐欺文をカスタマイズしたりするために使用される可能性があります;同時に、オープンソースモデルの入手可能性と改変可能性は、地下AIエコシステムの形成と拡大を助長し、違法取引や開発の温床を提供しています。以下は、いくつかの典型的な無制限LLMとその潜在的な脅威です:
WormGPT: GPT のブラック バージョン
WormGPTは、地下フォーラムで公開販売されている悪意のあるLLMで、その開発者は明確に倫理的制限がないと宣言しています。これは、GPT-J 6Bなどのオープンソースモデルに基づいており、悪意のあるソフトウェアに関連する大量のデータで訓練されています。ユーザーは最低189ドルを支払うことで、1ヶ月間の使用権を得ることができます。WormGPTの最も悪名高い利用法は、高度にリアルで説得力のあるビジネスメール侵入(BEC)攻撃メールやフィッシングメールを生成することです。その暗号化シーンでの典型的な悪用方法には、以下が含まれます:
DarkBERT:暗号化ネットのコンテンツの両刃の剣
DarkBERTは韓国科学技術院(KAIST)の研究者とS2W Inc.が共同開発した言語モデルで、主に暗号化ネットワークデータ(フォーラム、ブラックマーケット、漏洩情報など)で事前訓練されています。その目的は、サイバーセキュリティ研究者や法執行機関が暗号化ネットワークのエコシステムをよりよく理解し、違法活動を追跡し、潜在的な脅威を特定し、脅威情報を取得することです。
DarkBERTの設計の初衷は前向きだが、その暗号化されたデータ、攻撃手段、違法取引戦略などの敏感な内容が悪意のある行為者に取得されたり、類似の技術で無制限の大規模モデルが訓練されると、結果は想像を絶するものとなる。その暗号化シーンにおける潜在的な悪用方法には、以下が含まれる:
FraudGPT:ネット詐欺のスイスアーミーナイフ
FraudGPTはWormGPTのアップグレード版であり、機能がより包括的で、主にダークウェブやハッカー掲示板で販売されています。月額料金は200ドルから1,700ドルまでさまざまです。暗号シーンでの典型的な悪用方法には以下が含まれます:
GhostGPT:倫理に縛られないAIアシスタント
GhostGPTは倫理的制約のないAIチャットボットとして明確に位置付けられており、その暗号化シーンでの典型的な悪用方法には以下が含まれます:
Venice.ai:無審査アクセスの潜在的リスク
Venice.aiは、いくつかの審査が少ないまたは制限が緩いモデルを含む多様なLLMへのアクセスを提供します。ユーザーがさまざまなLLMの能力を探求するためのオープンポータルとして自らを位置づけ、最先端で最も正確かつ未審査のモデルを提供し、真に制限のないAI体験を実現しますが、悪意のあるコンテンツを生成するために不法分子によって利用される可能性もあります。このプラットフォームのリスクには、以下が含まれます:
まとめ
無制限LLMの出現は、ネットワークセキュリティがより複雑で、規模化され、自動化された攻撃の新しいパラダイムに直面していることを示しています。この種のモデルは、攻撃の敷居を下げるだけでなく、より隠密で、欺瞞的な新しい脅威をもたらしました。
この攻防が持続的にエスカレートするゲームにおいて、安全エコシステムの各方面は協調して努力することしかできず、未来のリスクに対処することができる:一方では、検出技術への投資を増やし、悪意のあるLLMが生成したフィッシングコンテンツ、スマートコントラクトの脆弱性の利用、悪意のあるコードを識別し、阻止できる技術を開発する必要がある;もう一方では、モデルの脱獄防止能力の構築を促進し、金融やコード生成などの重要なシーンで悪意のあるコンテンツの出所を追跡できるように、透かしやトレーサビリティメカニズムを探求する必要がある;さらに、倫理規範と監督メカニズムを整備し、悪意のあるモデルの開発と悪用を根本的に制限する必要がある。
! Pandora's Box:無制限の大規模モデルはどのように暗号業界のセキュリティを脅かすのか?