Fusión de AI y DePIN: la red GPU descentralizada lidera la nueva tendencia de potencia computacional

La intersección de la IA y DePIN: el auge de las redes GPU descentralizadas

Desde 2023, la IA y DePIN se han convertido en tendencias populares en el ámbito de Web3, alcanzando un valor de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo explorará la intersección de ambos y estudiará el desarrollo de los protocolos en este campo.

En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos de computación. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, lo que dificulta que otros desarrolladores obtengan suficientes GPU para computar. DePIN ofrece una alternativa más flexible y rentable, utilizando recompensas en tokens para incentivar las contribuciones de recursos que cumplan con los objetivos de la red.

AI DePIN empaqueta recursos de GPU de propietarios individuales a centros de datos, formando un suministro unificado para los usuarios que necesitan acceder al hardware. Esto no solo proporciona a los desarrolladores personalización y acceso bajo demanda, sino que también brinda ingresos adicionales a los propietarios de GPU.

AI y el punto de intersección de DePIN

Resumen de la red DePIN de IA

Render

Render es un pionero de la red P2P que proporciona capacidad de cálculo GPU, centrado en renderizar gráficos para la creación de contenido, y luego se expandió para incluir tareas de cálculo que van desde campos de reflexión neuronales hasta IA generativa.

Destacar:

  • Fundada por la empresa de gráficos en la nube OTOY, que posee tecnología ganadora de un Oscar.
  • La red GPU ha sido utilizada por grandes empresas de la industria del entretenimiento como Paramount Pictures y PUBG.
  • Colaborar con Stability AI y Endeavor, integrando modelos de IA con flujos de trabajo de renderizado de contenido 3D
  • Aprobar múltiples clientes de computación, integrar más GPU de redes DePIN

Akash

Akash se posiciona como una alternativa de "súper nube" que soporta almacenamiento, cálculos en GPU y CPU. Utilizando una plataforma de contenedores y nodos de computación gestionados por Kubernetes, se puede desplegar software de manera fluida a través de entornos, ejecutando cualquier aplicación nativa de la nube.

Destacados:

  • Para una amplia gama de tareas de computación, desde computación general hasta alojamiento en red.
  • AkashML permite ejecutar más de 15,000 modelos en Hugging Face
  • Aplicaciones como el chatbot del modelo LLM de Mistral AI, el modelo SDXL de Stability AI, entre otros.
  • La plataforma para construir el metaverso, el despliegue de IA y el aprendizaje federado está utilizando Supercloud

io.net

io.net ofrece acceso a clústeres de GPU en la nube distribuidos, específicamente para casos de uso de IA y ML. Agrega recursos de GPU de centros de datos, mineros de criptomonedas y otras redes Descentralización.

Destacar:

  • IO-SDK es compatible con marcos como PyTorch y Tensorflow, la arquitectura de múltiples capas puede expandirse dinámicamente según las necesidades de cálculo.
  • Soporta la creación de 3 tipos diferentes de clústeres, que se pueden iniciar en 2 minutos.
  • Integrar recursos GPU en colaboración con Render, Filecoin, Aethir y Exabits.

Gensyn

Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. Asegura haber logrado un mecanismo de verificación más eficiente mediante conceptos como pruebas de aprendizaje, protocolos de localización precisos basados en gráficos y juegos de incentivos que involucran la participación y la reducción de los proveedores de computación.

Destacados:

  • Se espera que el costo por hora de un GPU equivalente a V100 sea de aproximadamente 0.40 dólares, lo que representa un gran ahorro de costos.
  • Se puede ajustar un modelo base preentrenado para completar tareas más específicas.
  • Estos modelos básicos serán Descentralización, de propiedad global, y ofrecerán funciones adicionales.

Aethir

Aethir está diseñado específicamente para implementar GPU empresariales, enfocándose en áreas de computación intensiva, principalmente AI, aprendizaje automático, juegos en la nube, etc. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones basadas en la nube, trasladando la carga de trabajo desde dispositivos locales a los contenedores, logrando una experiencia de baja latencia.

Destacar:

  • Expansión a servicios de teléfonos en la nube, colaboración con APhone para lanzar teléfonos inteligentes en la nube de Descentralización.
  • Establecer una amplia colaboración con grandes empresas de Web2 como NVIDIA, Super Micro y HPE
  • En el ámbito de Web3, junto a múltiples socios como CARV, Magic Eden, Sequence, etc.

Phala Network

Phala Network actúa como la capa de ejecución de soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin necesidad de confianza, diseñada para abordar problemas de privacidad mediante el uso de un entorno de ejecución confiable (TEE).

Destacados:

  • Actuar como un protocolo de coprocesador de cómputo verificable, permitiendo a los agentes de IA acceder a recursos en la cadena.
  • Los contratos de agentes de IA se pueden obtener a través de Redpill para acceder a los principales modelos de lenguaje como OpenAI, Llama, entre otros.
  • El futuro incluirá sistemas de prueba múltiple como zk-proofs, computación multipartita y cifrado homomórfico completo.
  • Se planea soportar otras GPU TEE como la H100, mejorando la capacidad de cálculo.

AI y el punto de intersección de DePIN

Comparación de proyectos

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque comercial | Renderizado gráfico y AI | Computación en la nube, renderizado y AI | AI | AI | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de AI en cadena | | Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución | | Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Cifrado&Hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costo de reserva | Tarifas bajas | 20% por sesión | Proporcional al monto de staking | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Reenvío | | Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo verificador | Prueba remota | | GPU Clúster | No | Sí | Sí | Sí | Sí | No |

AI y el punto de intersección de DePIN

Importancia

Disponibilidad de clústeres y computación en paralelo

El marco de computación distribuida ha implementado un clúster de GPU, proporcionando un entrenamiento más eficiente, al mismo tiempo que mejora la escalabilidad. Entrenar modelos de IA complejos requiere una gran capacidad de cómputo, y a menudo debe depender de la computación distribuida para satisfacer la demanda. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros, y se entrenó en un período de 3 a 4 meses utilizando aproximadamente 25,000 GPU Nvidia A100 en 128 clústeres.

La mayoría de los proyectos clave ahora han integrado clústeres para lograr computación paralela. io.net colabora con otros proyectos para incorporar más GPU a su red y ha desplegado más de 3,800 clústeres en el primer trimestre de 2024. Render, aunque no admite clústeres, funciona de manera similar, descomponiendo un solo cuadro en múltiples nodos para su procesamiento simultáneo. Phala actualmente solo admite CPU, pero permite la agrupación de trabajadores de CPU.

Privacidad de datos

Desarrollar modelos de IA requiere el uso de grandes conjuntos de datos, que pueden contener información sensible. Por lo tanto, es crucial tomar medidas de seguridad adecuadas para proteger la privacidad de los datos.

La mayoría de los proyectos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. Render utiliza cifrado y procesamiento de hash al publicar resultados de renderizado, io.net y Gensyn emplean cifrado de datos, y Akash utiliza autenticación mTLS.

io.net recientemente colaboró con Mind Network para lanzar la encriptación homomórfica totalmente (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos primero. Phala Network introdujo el entorno de ejecución confiable (TEE), que previene el acceso o la modificación de datos por procesos externos mediante un mecanismo de aislamiento.

Prueba de cálculo completado y control de calidad

Debido a la amplia gama de servicios, desde la representación gráfica hasta el cálculo de IA, la calidad final puede no cumplir necesariamente con los estándares del usuario. Completar la verificación y el control de calidad es beneficioso para el usuario.

Gensyn y Aethir generan pruebas una vez que se completan los cálculos, la prueba de io.net indica que el rendimiento de la GPU alquilada se utiliza adecuadamente. Tanto Gensyn como Aethir realizan una revisión de calidad de los cálculos completados. Render sugiere utilizar un proceso de resolución de disputas, si el comité de revisión encuentra problemas con un nodo, se reducirá ese nodo. Phala generará una prueba TEE al finalizar, asegurando que los agentes de IA realicen las operaciones requeridas en la cadena.

AI y el punto de intersección con DePIN

Datos estadísticos de hardware

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 cantidad | - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ( estimado ) | $0.33 ( estimado ) | - |

Requisitos de GPU de alto rendimiento

El entrenamiento de modelos de IA requiere GPU de alto rendimiento, como la A100 y H100 de Nvidia. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la GPU preferida, especialmente para las grandes empresas que están entrenando su propio LLM.

Los proveedores de mercado de GPU descentralizados deben competir con sus homólogos de Web2 no solo ofreciendo precios más bajos, sino también satisfaciendo las necesidades reales del mercado. Dada la dificultad de obtener hardware equivalente, la cantidad de hardware que estos proyectos pueden introducir en la red a bajo costo es crucial para la expansión de servicios.

Akash solo tiene un poco más de 150 unidades H100 y A100, mientras que io.net y Aethir han obtenido más de 2000 unidades cada uno. Por lo general, preentrenar un LLM o un modelo generativo desde cero requiere al menos de 248 a más de 2000 GPU en el clúster, por lo que los últimos dos proyectos son más adecuados para cálculos de modelos grandes.

Actualmente, el costo de estos servicios de GPU descentralizados en el mercado es mucho más bajo que el de los servicios de GPU centralizados. Gensyn y Aethir afirman que pueden alquilar hardware equivalente al A100 por menos de 1 dólar por hora, pero esto aún necesita ser comprobado con el tiempo.

Las agrupaciones de GPU conectadas a la red tienen una gran cantidad de GPU, con un costo bajo por hora, pero su memoria es limitada en comparación con las GPU conectadas por NVLink. NVLink permite la comunicación directa entre múltiples GPU sin necesidad de transferir datos entre la CPU y la GPU, logrando un alto ancho de banda y baja latencia.

A pesar de ello, para aquellos usuarios con necesidades de carga de trabajo dinámica o que requieren flexibilidad y la capacidad de distribuir cargas de trabajo a través de múltiples nodos, la Descentralización de la red GPU todavía puede proporcionar una potente capacidad de cálculo y escalabilidad para tareas de computación distribuida.

AI y el punto de intersección de DePIN

Proporcionar GPU/CPU de nivel de consumo

A pesar de que la GPU es la unidad de procesamiento principal necesaria para la renderización y el cálculo, la CPU también desempeña un papel importante en el entrenamiento de modelos de IA. Las GPU de consumo también se pueden utilizar para tareas menos intensivas, como ajustar modelos que ya han sido preentrenados o entrenar modelos de menor escala en conjuntos de datos más pequeños.

Teniendo en cuenta que más del 85% de los recursos de GPU de los consumidores están inactivos, proyectos como Render, Akash e io.net también pueden servir a esta parte del mercado. Ofrecer estas opciones les permite desarrollar su propio nicho de mercado, centrándose en la computación intensiva a gran escala, renderizado a pequeña escala más general o una mezcla de ambos.

AI y el punto de intersección de DePIN

Conclusión

El campo de AI DePIN sigue siendo relativamente nuevo y enfrenta sus propios desafíos. Sin embargo, la cantidad de tareas y hardware ejecutados en estas redes de GPU descentralizadas sigue aumentando significativamente. Esta tendencia demuestra el ajuste del mercado de productos de las redes AI DePIN, que abordan de manera efectiva los desafíos en términos de demanda y oferta.

Mirando hacia el futuro, la trayectoria de desarrollo de la inteligencia artificial apunta a un mercado en expansión de varios billones de dólares. Estas redes de GPU descentralizadas proporcionarán una alta economía a los desarrolladores.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
retroactive_airdropvip
· 07-30 09:01
alcista red tarjeta aún puede minar
Ver originalesResponder0
0xSoullessvip
· 07-30 08:58
tontos又有新地方 tomar a la gente por tonta了
Ver originalesResponder0
Fren_Not_Foodvip
· 07-30 08:43
No sé nada más, solo pregunto si se puede comprar la caída de las GPUs Rig de Minera.
Ver originalesResponder0
NeverPresentvip
· 07-30 08:37
¿Quién va a aprovechar la oportunidad de las tarjetas N?
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)