Alerta de risco de IA sem restrições: WormGPT e outros podem se tornar uma nova ameaça para a indústria encriptação

robot
Geração de resumo em curso

Caixa de Pandora: Discussão sobre as potenciais ameaças dos modelos grandes sem restrições à indústria de encriptação

Com o rápido desenvolvimento da tecnologia de inteligência artificial, desde a série GPT até o Gemini, passando por vários modelos de código aberto, a IA avançada está mudando profundamente a nossa forma de trabalhar e viver. No entanto, com o progresso tecnológico, uma questão que merece atenção também está surgindo gradualmente - o aparecimento de modelos de linguagem de grande escala sem restrições ou maliciosos e os seus riscos potenciais.

LLM sem restrições refere-se àqueles que foram projetados, modificados ou "jailbroken" especificamente para contornar os mecanismos de segurança e restrições éticas incorporados nos modelos convencionais. Os desenvolvedores de LLM convencionais geralmente investem muitos recursos para evitar que seus modelos sejam usados para gerar discursos de ódio, informações falsas, códigos maliciosos ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, algumas pessoas ou organizações, por diferentes motivos, começaram a procurar ou desenvolver seus próprios modelos sem restrições. Este artigo irá revisar as ferramentas típicas de LLM sem restrições, analisar suas potenciais formas de abuso na indústria de encriptação e discutir os desafios de segurança relacionados e estratégias de resposta.

Caixa de Pandora: Como modelos grandes e ilimitados ameaçam a segurança da encriptação?

As potenciais ameaças de LLM sem restrições

As tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns sem experiência em programação, com a ajuda de LLMs sem restrições. Os atacantes só precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, ajustar finamente em conjuntos de dados que contenham conteúdo malicioso, discursos de ódio ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo traz múltiplos riscos: atacantes podem "bombear" modelos direcionados a alvos específicos, gerando conteúdos mais enganadores, contornando a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser usado para gerar rapidamente variantes de código de sites de phishing, ou para criar textos fraudulentos personalizados para diferentes plataformas sociais; ao mesmo tempo, a acessibilidade e a modificabilidade de modelos de código aberto também estão alimentando a formação e a propagação de um ecossistema AI subterrâneo, criando um terreno fértil para transações e desenvolvimentos ilegais. Aqui estão alguns LLMs típicos sem restrições e suas potenciais ameaças:

WormGPT:versão preta do GPT

WormGPT é um LLM malicioso vendido publicamente em fóruns subterrâneos, cujo desenvolvedor afirma claramente que não tem nenhuma limitação ética. Ele é baseado em modelos de código aberto como o GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários pagam um mínimo de 189 dólares para obter um mês de acesso. O uso mais notório do WormGPT é gerar e-mails comerciais altamente realistas e persuasivos para invasões (BEC), e-mails de ataque e phishing. Seus típicos abusos no cenário de encriptação incluem:

  • Gerar e-mails/mensagens de phishing: imitar uma exchange de encriptação, carteira ou projeto conhecido para enviar aos usuários pedidos de "verificação de conta", induzindo-os a clicar em links maliciosos ou a divulgar chaves privadas/frases-semente.
  • Escrever código malicioso: Ajudar atacantes com nível técnico mais baixo a escrever código malicioso com funcionalidades como roubar arquivos de carteira, monitorar a área de transferência e registrar o teclado.
  • Impulsionar fraudes automatizadas: responder automaticamente a potenciais vítimas, orientando-as a participar em airdrops falsos ou projetos de investimento.

DarkBERT: a espada de dois gumes do conteúdo da dark web

DarkBERT é um modelo de linguagem desenvolvido por pesquisadores do Instituto de Ciência e Tecnologia da Coreia (KAIST) em colaboração com a S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros, dados vazados). Seu objetivo é ajudar pesquisadores de segurança cibernética e órgãos de aplicação da lei a compreender melhor a ecologia da dark web, rastrear atividades ilegais, identificar ameaças potenciais e obter inteligência sobre ameaças.

Apesar de o design do DarkBERT ter uma intenção positiva, os dados sensíveis que ele possui sobre a dark web, métodos de ataque, estratégias de transações ilegais, etc., se forem obtidos por agentes maliciosos ou se tecnologias semelhantes forem usadas para treinar modelos de grande escala sem restrições, as consequências podem ser catastróficas. As formas potenciais de abuso em cenários de encriptação incluem:

  • Implementar fraudes precisas: coletar informações de usuários de encriptação e equipes de projetos para fraudes de engenharia social.
  • Imitar métodos de crime: reproduzir estratégias maduras de roubo e lavagem de dinheiro na dark web.

FraudGPT: a faca suíça da fraude online

FraudGPT afirma ser a versão melhorada do WormGPT, com funcionalidades mais abrangentes, sendo vendido principalmente na dark web e em fóruns de hackers, com mensalidades variando de 200 dólares a 1.700 dólares. Suas formas típicas de abuso no cenário de encriptação incluem:

  • Projetos de encriptação falsificados: gerar whitepapers, sites, roteiros e textos de marketing que parecem autênticos, utilizados para implementar ICOs/IDOs fraudulentos.
  • Geração em massa de páginas de phishing: crie rapidamente páginas de login ou interfaces de conexão de carteira que imitam as de conhecidas bolsas de encriptação.
  • Atividades de bots em redes sociais: criação em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou denegrindo projetos concorrentes.
  • Ataque de engenharia social: Este chatbot pode imitar diálogos humanos, estabelecendo confiança com usuários desavisados, levando-os a divulgar informações sensíveis inadvertidamente ou a realizar operações prejudiciais.

GhostGPT:assistente de IA sem restrições morais

GhostGPT é um chatbot de IA claramente posicionado como sem limitações éticas, cujo uso típico de abuso no cenário de encriptação inclui:

  • Ataques de phishing avançados: gera e-mails de phishing altamente realistas, fingindo ser trocas populares que emitem pedidos falsos de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de código malicioso de contratos inteligentes: sem necessidade de conhecimentos de programação, um atacante pode rapidamente gerar contratos inteligentes com backdoors ocultos ou lógicas fraudulentas usando o GhostGPT, para esquemas de Rug Pull ou ataques a protocolos DeFi.
  • Roubo de criptomoeda polimórfico: gera malware com capacidade de deformação contínua, destinado a roubar arquivos de carteira, chaves privadas e frases-semente. Suas características polimórficas dificultam a detecção por software de segurança baseado em assinatura tradicional.
  • Ataques de engenharia social: combinando scripts de conversa gerados por IA, os atacantes podem implantar robôs em plataformas sociais para induzir os usuários a participar de mintagem de NFT falsa, airdrops ou projetos de investimento.
  • Fraude de deepfake: em conjunto com outras ferramentas de IA, o GhostGPT pode ser utilizado para gerar vozes de fundadores de projetos de encriptação, investidores ou executivos de bolsas, realizando fraudes telefônicas ou invasões de e-mails comerciais (BEC).

Venice.ai: potenciais riscos de acesso sem censura

A Venice.ai oferece acesso a vários LLMs, incluindo alguns modelos com menos censura ou restrições mais flexíveis. Posiciona-se como um portal aberto para os usuários explorarem as diversas capacidades dos LLMs, fornecendo modelos de ponta, precisos e não censurados, para uma verdadeira experiência de IA sem restrições, mas que também pode ser utilizada por indivíduos mal-intencionados para gerar conteúdo prejudicial. Os riscos da plataforma incluem:

  • Contornar a censura para gerar conteúdo malicioso: os atacantes podem usar modelos com menos restrições na plataforma para gerar templates de phishing, propaganda falsa ou ideias de ataque.
  • Reduzir a barreira de entrada para engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de "jailbreak" de prompts, eles conseguem facilmente obter saídas que antes estavam restritas.
  • Aceleração da iteração de scripts de ataque: os atacantes podem utilizar esta plataforma para testar rapidamente diferentes modelos de resposta a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Conclusão

O surgimento de LLM sem restrições marca um novo paradigma de ataques mais complexos, escaláveis e automatizados que a segurança cibernética enfrenta. Esses modelos não apenas reduzem a barreira de entrada para ataques, mas também trazem novas ameaças mais encobertas e com maior capacidade de engano.

Na contínua escalada de ataques e defesas neste jogo, todas as partes do ecossistema de segurança só poderão enfrentar os riscos futuros através de esforços colaborativos: por um lado, é necessário aumentar o investimento em tecnologias de detecção, desenvolvendo soluções que possam identificar e interceptar conteúdos de phishing gerados por LLM maliciosos, explorações de vulnerabilidades em contratos inteligentes e códigos maliciosos; por outro lado, também deve-se promover a construção da capacidade de defesa contra jailbreaks dos modelos e explorar mecanismos de marca d'água e rastreamento, a fim de rastrear a origem de conteúdos maliciosos em cenários críticos como finanças e geração de código; além disso, é necessário estabelecer normas éticas e mecanismos de regulação sólidos, limitando desde a raiz o desenvolvimento e o abuso de modelos maliciosos.

Pandora's Box: Como grandes modelos sem restrições ameaçam a segurança da encriptação?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Partilhar
Comentar
0/400
ContractCollectorvip
· 07-13 07:28
A segurança é a chave para um desenvolvimento sustentável.
Ver originalResponder0
GasFeeDodgervip
· 07-12 00:43
A tecnologia não é culpada nem tem solução.
Ver originalResponder0
BankruptcyArtistvip
· 07-10 22:01
Está certo, é uma pílula.
Ver originalResponder0
SilentObservervip
· 07-10 21:50
O risco não se limita a isso
Ver originalResponder0
just_another_walletvip
· 07-10 21:44
亟待Conformidade监管规范
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)