# AIとWeb3の融合トレンドにおけるセキュリティの課題最近イスタンブールで開催されたブロックチェーンウィークイベントでは、業界の専門家たちが人工知能とWeb3の融合トレンドについて深く議論し、このトレンドに伴って現れる新たなセキュリティの課題に特に注目しました。大規模言語モデルとAIエージェントの急速な発展に伴い、「DeFAI」(分散型人工知能金融)と呼ばれる新しい金融モデルが徐々に形成されつつあります。この革新は将来性があるものの、新たなセキュリティリスクや攻撃面ももたらしています。専門家は、従来の固定論理に基づくスマートコントラクトとは異なり、AIエージェントの意思決定プロセスは、文脈、時間、さらには過去のインタラクションなど、さまざまな要因の影響を受けると指摘しています。この予測不可能性はリスクを増加させるだけでなく、潜在的な攻撃者にとっても機会を提供します。! [IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題](https://img-cdn.gateio.im/social/moments-a0a1e7d2a396ea70a1e538a7508b046a)AIエージェントは本質的にAIロジックに基づいて自律的に意思決定と実行を行うインテリジェントエージェントであり、通常はユーザー、プロトコル、または分散型自治組織によって運営が許可されています。その中で、AI取引ロボットは最も典型的な代表です。現在、ほとんどのAIエージェントは依然としてWeb2アーキテクチャ上で運営されており、中央集権的なサーバーやAPIに依存しているため、注入攻撃、モデル操作、データ改ざんなどのさまざまな攻撃にさらされやすくなっています。一度AIエージェントがハッキングされると、資金の損失を引き起こす可能性があるだけでなく、全体のプロトコルの安定性にも影響を与える可能性があります。専門家たちは、典型的な攻撃シナリオの例を示しました。DeFiユーザーが運用しているAIトレーディングエージェントが、取引シグナルとしてソーシャルメディアのメッセージを監視しているとき、攻撃者は、特定のプロトコルが攻撃を受けていると主張する偽の警報を発表する可能性があります。これにより、AIエージェントが直ちに緊急清算操作を開始することを誘発し、ユーザーの資産損失を引き起こすだけでなく、市場の変動を引き起こし、攻撃者が先行取引などの手段を通じてこれを利用する可能性があります。これらのリスクに対処するために、専門家たちはAIエージェントの安全性が単一の側面によって担保されるべきではなく、ユーザー、開発者、第三者の安全機関が共同で努力する必要があると一致して認識しています。ユーザーは代理が持つ権限の範囲を明確に理解し、慎重に権限を与え、高リスクなAI代理の操作を注意深く審査する必要があります。開発者は設計段階で防御策を実施すべきであり、たとえば、プロンプトの強化、サンドボックス隔離、レート制限、フォールバックロジックなどのメカニズムを採用することが求められます。第三者のセキュリティ会社は、AI代理のモデルの動作、インフラストラクチャ、およびオンチェーン統合の方法について独立したレビューを提供し、開発者やユーザーと協力してリスクを特定し、緩和策を提案する必要があります。DeFAIの方向性を探求している開発者に対して、専門家はAIエージェントを"ブラックボックス"ではなく、攻撃される可能性のあるコードとして見ることを推奨しています。したがって、スマートコントラクトと同様に、AIエージェントも専門的なセキュリティ監査とペネトレーションテストを実施し、その安全性と信頼性を確保する必要があります。! [IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題](https://img-cdn.gateio.im/social/moments-580c83b37b8f1a74d4d09bcbc9ef024b)AIとWeb3の深い融合に伴い、安全性の課題は引き続き進化していくでしょう。業界関係者は、各方面に警戒を保ち、より安全で信頼性の高い分散型人工知能金融エコシステムの構築に向けて共に努力することを呼びかけています。
AIとWeb3の融合におけるDeFAIセキュリティの課題と対応策
AIとWeb3の融合トレンドにおけるセキュリティの課題
最近イスタンブールで開催されたブロックチェーンウィークイベントでは、業界の専門家たちが人工知能とWeb3の融合トレンドについて深く議論し、このトレンドに伴って現れる新たなセキュリティの課題に特に注目しました。
大規模言語モデルとAIエージェントの急速な発展に伴い、「DeFAI」(分散型人工知能金融)と呼ばれる新しい金融モデルが徐々に形成されつつあります。この革新は将来性があるものの、新たなセキュリティリスクや攻撃面ももたらしています。
専門家は、従来の固定論理に基づくスマートコントラクトとは異なり、AIエージェントの意思決定プロセスは、文脈、時間、さらには過去のインタラクションなど、さまざまな要因の影響を受けると指摘しています。この予測不可能性はリスクを増加させるだけでなく、潜在的な攻撃者にとっても機会を提供します。
! IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題
AIエージェントは本質的にAIロジックに基づいて自律的に意思決定と実行を行うインテリジェントエージェントであり、通常はユーザー、プロトコル、または分散型自治組織によって運営が許可されています。その中で、AI取引ロボットは最も典型的な代表です。現在、ほとんどのAIエージェントは依然としてWeb2アーキテクチャ上で運営されており、中央集権的なサーバーやAPIに依存しているため、注入攻撃、モデル操作、データ改ざんなどのさまざまな攻撃にさらされやすくなっています。一度AIエージェントがハッキングされると、資金の損失を引き起こす可能性があるだけでなく、全体のプロトコルの安定性にも影響を与える可能性があります。
専門家たちは、典型的な攻撃シナリオの例を示しました。DeFiユーザーが運用しているAIトレーディングエージェントが、取引シグナルとしてソーシャルメディアのメッセージを監視しているとき、攻撃者は、特定のプロトコルが攻撃を受けていると主張する偽の警報を発表する可能性があります。これにより、AIエージェントが直ちに緊急清算操作を開始することを誘発し、ユーザーの資産損失を引き起こすだけでなく、市場の変動を引き起こし、攻撃者が先行取引などの手段を通じてこれを利用する可能性があります。
これらのリスクに対処するために、専門家たちはAIエージェントの安全性が単一の側面によって担保されるべきではなく、ユーザー、開発者、第三者の安全機関が共同で努力する必要があると一致して認識しています。
ユーザーは代理が持つ権限の範囲を明確に理解し、慎重に権限を与え、高リスクなAI代理の操作を注意深く審査する必要があります。開発者は設計段階で防御策を実施すべきであり、たとえば、プロンプトの強化、サンドボックス隔離、レート制限、フォールバックロジックなどのメカニズムを採用することが求められます。第三者のセキュリティ会社は、AI代理のモデルの動作、インフラストラクチャ、およびオンチェーン統合の方法について独立したレビューを提供し、開発者やユーザーと協力してリスクを特定し、緩和策を提案する必要があります。
DeFAIの方向性を探求している開発者に対して、専門家はAIエージェントを"ブラックボックス"ではなく、攻撃される可能性のあるコードとして見ることを推奨しています。したがって、スマートコントラクトと同様に、AIエージェントも専門的なセキュリティ監査とペネトレーションテストを実施し、その安全性と信頼性を確保する必要があります。
! IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題
AIとWeb3の深い融合に伴い、安全性の課題は引き続き進化していくでしょう。業界関係者は、各方面に警戒を保ち、より安全で信頼性の高い分散型人工知能金融エコシステムの構築に向けて共に努力することを呼びかけています。