Alerta de riesgo AI sin restricciones: WormGPT y otros pueden convertirse en una nueva amenaza para la encriptación.

robot
Generación de resúmenes en curso

Caja de Pandora: explorando la amenaza potencial de los modelos grandes sin restricciones en la industria de la encriptación

Con el rápido desarrollo de la tecnología de inteligencia artificial, desde la serie GPT hasta Gemini, y diversos modelos de código abierto, la avanzada IA está cambiando profundamente nuestras formas de trabajar y vivir. Sin embargo, con el avance tecnológico, también ha surgido un problema que merece ser advertido: la aparición de modelos de lenguaje grandes sin restricciones o malintencionados y sus riesgos potenciales.

Los LLM sin restricciones se refieren a aquellos modelos de lenguaje que han sido diseñados, modificados o "jailbreakeados" intencionalmente para eludir los mecanismos de seguridad y las limitaciones éticas integradas en los modelos principales. Los desarrolladores de LLM convencionales suelen invertir grandes recursos para evitar que sus modelos se utilicen para generar discursos de odio, información falsa, código malicioso o para proporcionar instrucciones sobre actividades ilegales. Sin embargo, en los últimos años, algunas personas u organizaciones, por diferentes motivos, han comenzado a buscar o desarrollar sus propios modelos sin restricciones. Este artículo revisará herramientas típicas de LLM sin restricciones, analizará sus potenciales formas de abuso en la industria de la encriptación y discutirá los desafíos de seguridad relacionados y las estrategias de respuesta.

Caja de Pandora: ¿Cómo amenazan los modelos grandes e ilimitados a la seguridad de la encriptación en la industria?

Amenazas potenciales de LLM sin restricciones

Las tareas que anteriormente requerían habilidades profesionales, como escribir código malicioso, crear correos electrónicos de phishing y planificar fraudes, ahora pueden ser realizadas fácilmente por personas comunes sin experiencia en programación con la ayuda de LLM sin restricciones. Los atacantes solo necesitan obtener los pesos y el código fuente de modelos de código abierto, y luego afinar en conjuntos de datos que contengan contenido malicioso, discursos de odio o instrucciones ilegales para crear herramientas de ataque personalizadas.

Este modo trae múltiples riesgos: los atacantes pueden "modificar" modelos dirigidos a objetivos específicos, generando contenido más engañoso que puede eludir la revisión de contenido y las restricciones de seguridad de los LLM convencionales; el modelo también puede ser utilizado para generar rápidamente variantes de código de sitios web de phishing, o para personalizar texto de fraude para diferentes plataformas sociales; al mismo tiempo, la accesibilidad y modificabilidad de los modelos de código abierto también están fomentando la formación y propagación de un ecosistema de IA subterránea, proporcionando un caldo de cultivo para el comercio y desarrollo ilegal. A continuación se presentan algunos LLM típicos sin restricciones y sus amenazas potenciales:

WormGPT: versión negra de GPT

WormGPT es un LLM malicioso que se vende públicamente en foros oscuros, cuyos desarrolladores afirman claramente que no tiene ninguna restricción ética. Se basa en modelos de código abierto como GPT-J 6B y se entrena en una gran cantidad de datos relacionados con malware. Los usuarios pueden obtener un mes de acceso por un mínimo de 189 dólares. El uso más infame de WormGPT es generar correos electrónicos comerciales altamente realistas y persuasivos para la invasión de correos electrónicos de ataque (BEC) y correos electrónicos de phishing. Su forma típica de abuso en el escenario de encriptación incluye:

  • Generar correos/e-mails de phishing: imitar intercambios de encriptación, billeteras o proyectos conocidos para enviar a los usuarios solicitudes de "verificación de cuenta", induciéndolos a hacer clic en enlaces maliciosos o a revelar claves privadas/frases de recuperación.
  • Escribir código malicioso: Ayudar a atacantes con un nivel técnico bajo a escribir código malicioso que robe archivos de billetera, monitoree el portapapeles, registre teclas, entre otras funciones.
  • Impulsar la automatización del fraude: responder automáticamente a posibles víctimas, guiándolas a participar en lanzamientos aéreos falsos o proyectos de inversión.

DarkBERT: la espada de doble filo del contenido de la dark web

DarkBERT es un modelo de lenguaje desarrollado en colaboración por investigadores del Instituto de Ciencia y Tecnología de Corea (KAIST) y S2W Inc., especializado en el preentrenamiento en datos de la dark web (como foros, mercados negros, datos filtrados). Su intención es ayudar a los investigadores de seguridad cibernética y a las agencias de aplicación de la ley a comprender mejor la ecología de la dark web, rastrear actividades ilegales, identificar amenazas potenciales y obtener inteligencia sobre amenazas.

A pesar de que el diseño de DarkBERT es positivo, los datos sensibles que posee sobre la dark web, métodos de ataque, estrategias de transacciones ilegales, etc., podrían tener consecuencias desastrosas si cayeran en manos de actores maliciosos o se utilizara una tecnología similar para entrenar un modelo grande sin restricciones. Las posibles formas de abuso en el escenario de encriptación incluyen:

  • Implementar fraudes precisos: recopilar información de los usuarios de encriptación y del equipo del proyecto, para realizar fraudes sociales.
  • Imitar métodos delictivos: recrear estrategias maduras de robo y lavado de dinero en la dark web.

FraudGPT: el cuchillo suizo del fraude en línea

FraudGPT afirma ser la versión mejorada de WormGPT, con funciones más completas, y se vende principalmente en la dark web y foros de hackers, con una tarifa mensual que varía entre 200 y 1,700 dólares. Su forma típica de abuso en el escenario encriptación incluye:

  • Proyectos de encriptación falsificados: generación de libros blancos, sitios web, hojas de ruta y copias de marketing que parecen reales, utilizados para llevar a cabo ICO/IDO fraudulentos.
  • Generación masiva de páginas de phishing: crea rápidamente páginas de inicio de sesión o interfaces de conexión de billetera que imitan a los conocidos intercambios de encriptación.
  • Actividades de ejército de agua en redes sociales: fabricación masiva de comentarios y propaganda falsos, impulsando tokens fraudulentos o desacreditando proyectos competidores.
  • Ataques de ingeniería social: este chatbot puede imitar conversaciones humanas, estableciendo confianza con usuarios desprevenidos, induciéndolos a revelar información sensible o a realizar acciones perjudiciales sin darse cuenta.

GhostGPT: asistente de IA sin restricciones morales

GhostGPT es un chatbot de IA claramente posicionado sin restricciones morales, y sus formas típicas de abuso en el escenario de encriptación incluyen:

  • Ataques de phishing avanzados: generación de correos electrónicos de phishing altamente realistas que suplantan a los intercambios de criptomonedas principales para enviar solicitudes falsas de verificación KYC, alertas de seguridad o notificaciones de congelación de cuentas.
  • Generación de código malicioso para contratos inteligentes: Sin necesidad de conocimientos de programación, un atacante puede utilizar GhostGPT para generar rápidamente contratos inteligentes que contienen puertas traseras ocultas o lógica de fraude, utilizados para estafas de Rug Pull o ataques a protocolos DeFi.
  • Robador de criptomonedas polimórfico: genera malware con capacidad de transformación continua para robar archivos de billetera, claves privadas y frases de recuperación. Su característica polimórfica dificulta la detección por parte del software de seguridad basado en firmas tradicional.
  • Ataques de ingeniería social: combinando guiones de conversación generados por IA, los atacantes pueden desplegar bots en plataformas sociales para inducir a los usuarios a participar en la acuñación de NFT falsa, airdrops o proyectos de inversión.
  • Estafa de falsificación profunda: junto con otras herramientas de IA, GhostGPT puede ser utilizado para generar la voz de fundadores de proyectos de encriptación, inversionistas o ejecutivos de intercambios falsificados, llevando a cabo estafas telefónicas o intrusiones en correos comerciales (BEC).

Venice.ai: riesgos potenciales de acceso sin censura

Venice.ai ofrece acceso a una variedad de LLM, incluidos algunos modelos con menos censura o con restricciones más flexibles. Se posiciona como una puerta abierta para que los usuarios exploren las capacidades de diversos LLM, proporcionando modelos de vanguardia, precisos y no censurados, para lograr una experiencia de IA verdaderamente ilimitada, aunque también puede ser utilizado por individuos malintencionados para generar contenido malicioso. Los riesgos de la plataforma incluyen:

  • Eludir la censura para generar contenido malicioso: los atacantes pueden utilizar modelos con menos restricciones en la plataforma para generar plantillas de phishing, propaganda falsa o ideas de ataque.
  • Reducir la barrera de entrada para el desarrollo de prompts: incluso si los atacantes no tienen habilidades avanzadas de "jailbreaking", pueden obtener fácilmente la salida que normalmente estaría restringida.
  • Aceleración de la iteración de discursos de ataque: los atacantes pueden utilizar esta plataforma para probar rápidamente diferentes modelos de reacción a instrucciones maliciosas, optimizando scripts de fraude y técnicas de ataque.

Conclusión

La aparición de LLM sin restricciones marca un nuevo paradigma de ataques más complejos, escalables y automatizados que enfrenta la ciberseguridad. Este tipo de modelos no solo reduce el umbral de ataque, sino que también introduce nuevas amenazas más encubiertas y engañosas.

En este juego de ataque y defensa en constante escalada, todas las partes del ecosistema de seguridad deben colaborar para enfrentar los riesgos futuros: por un lado, es necesario aumentar la inversión en tecnologías de detección, desarrollando capacidades para identificar y bloquear contenido de phishing generado por LLM maliciosos, así como la explotación de vulnerabilidades en contratos inteligentes y código malicioso; por otro lado, también se debe fomentar la construcción de capacidades de defensa contra el jailbreak de modelos y explorar mecanismos de marca de agua y trazabilidad, para poder rastrear el origen de contenido malicioso en escenarios críticos como el financiero y la generación de código; además, es necesario establecer un marco ético y regulatorio sólido, para limitar desde la raíz el desarrollo y abuso de modelos maliciosos.

Caja de Pandora: ¿Cómo amenazan los modelos grandes e ilimitados la seguridad de la encriptación?

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
ContractCollectorvip
· Hace27m
La seguridad es la clave para un desarrollo sostenible.
Ver originalesResponder0
GasFeeDodgervip
· 07-12 00:43
La tecnología no es culpable ni tiene solución.
Ver originalesResponder0
BankruptcyArtistvip
· 07-10 22:01
Está condenado.
Ver originalesResponder0
SilentObservervip
· 07-10 21:50
El riesgo no se limita a esto.
Ver originalesResponder0
just_another_walletvip
· 07-10 21:44
亟待Cumplimiento监管规范
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)