L'industrie de l'intelligence artificielle a connu un développement rapide récemment, considérée comme la quatrième révolution industrielle. L'émergence de grands modèles de langage a considérablement amélioré l'efficacité dans divers secteurs, estimée à environ 20 % d'augmentation de l'efficacité au travail aux États-Unis. La capacité de généralisation des grands modèles est considérée comme un nouveau paradigme de conception de logiciels, permettant aux logiciels d'avoir de meilleures performances et de prendre en charge une plus large gamme d'entrées et de sorties. Les technologies d'apprentissage profond ont effectivement apporté une nouvelle prospérité à l'industrie de l'IA, et cette vague a également eu un impact sur l'industrie des cryptomonnaies.
Ce rapport examinera en détail l'histoire du développement de l'industrie de l'IA, les catégories technologiques, ainsi que l'impact de la technologie de l'apprentissage profond sur l'industrie. Il analysera en profondeur l'état et les tendances du développement en amont et en aval de la chaîne industrielle comprenant les GPU, le cloud computing, les sources de données, les dispositifs périphériques, etc. Il explorera essentiellement la relation entre les cryptomonnaies et l'industrie de l'IA, en clarifiant la structure de la chaîne industrielle de l'IA liée aux cryptomonnaies.
Histoire du développement de l'industrie de l'IA
L'industrie de l'IA a commencé dans les années 1950, et le monde académique et industriel a développé au fil des époques et des contextes disciplinaires différents plusieurs écoles de pensée pour réaliser l'intelligence artificielle.
Les technologies modernes de l'intelligence artificielle utilisent principalement le terme "apprentissage automatique", dont le principe est de permettre aux machines d'améliorer les performances du système en itérant sur des tâches en fonction des données. Les principales étapes consistent à envoyer des données à l'algorithme, à utiliser ces données pour entraîner le modèle, à tester et déployer le modèle, puis à utiliser le modèle pour accomplir des tâches de prédiction automatisées.
Actuellement, l'apprentissage automatique a trois grandes écoles principales : le connexionnisme, le symbolisme et le béhaviorisme, qui imitent respectivement le système nerveux, la pensée et le comportement humains.
Actuellement, le connexionnisme, représenté par les réseaux de neurones, domine ( également connu sous le nom d'apprentissage profond ), la raison principale étant que cette architecture possède une couche d'entrée, une couche de sortie, mais plusieurs couches cachées. Une fois que le nombre de couches et le nombre de neurones ( paramètres ) sont suffisamment élevés, il y a suffisamment d'opportunités pour modéliser des tâches complexes et générales. Grâce à l'entrée de données, il est possible d'ajuster continuellement les paramètres des neurones, et finalement, après plusieurs traitements de données, ce neurone atteindra un état optimal ( paramètres ), ce qui explique l'origine du terme "profond" — un nombre suffisant de couches et de neurones.
Les technologies d'apprentissage profond basées sur les réseaux neuronaux ont également connu plusieurs itérations et évolutions, depuis les premiers réseaux neuronaux, jusqu'aux réseaux neuronaux à propagation avant, RNN, CNN, GAN, pour finalement évoluer vers les grands modèles modernes comme GPT utilisant la technologie Transformer. La technologie Transformer n'est qu'une direction d'évolution des réseaux neuronaux, ajoutant un convertisseur pour encoder toutes les modalités ( telles que l'audio, la vidéo, les images, etc. ) en représentations numériques correspondantes. Ces représentations sont ensuite introduites dans le réseau neuronal, permettant ainsi au réseau neuronal de s'adapter à tout type de données et d'atteindre le multimodal.
Le développement de l'IA a connu trois vagues technologiques. La première a eu lieu dans les années 1960, et cette vague a été causée par le développement des technologies symboliques, résolvant des problèmes de traitement du langage naturel et de dialogue homme-machine. La deuxième est survenue en 1997, lorsque Deep Blue d'IBM a battu le champion d'échecs, ce qui est considéré comme un jalon de l'intelligence artificielle. La troisième a eu lieu en 2006 avec la proposition du concept d'apprentissage profond, marquant l'apogée du connexionnisme.
Chaîne de valeur de l'apprentissage profond
Les grands modèles linguistiques actuels utilisent tous des méthodes d'apprentissage profond basées sur des réseaux de neurones. Avec GPT en tête, ces grands modèles ont provoqué une vague d'engouement pour l'intelligence artificielle, attirant de nombreux acteurs dans ce domaine, et la demande du marché pour les données et la puissance de calcul a explosé. Nous allons explorer la chaîne de valeur des algorithmes d'apprentissage profond, analyser la composition, l'état et les relations d'offre et de demande des acteurs en amont et en aval, ainsi que le développement futur.
Les LLMs basés sur la technologie Transformer, dirigés par GPT(, l'entraînement de grands modèles) se divise principalement en trois étapes :
Pré-entraînement : Trouver les meilleurs paramètres des neurones du modèle à travers une grande quantité de données, ce processus est le plus coûteux en puissance de calcul.
Ajustement : utiliser une petite quantité de données de haute qualité pour entraîner, améliorer la qualité de sortie du modèle.
Apprentissage par renforcement : établir un modèle de récompense pour classer les résultats de sortie, itérer automatiquement les paramètres du grand modèle.
La performance des grands modèles est principalement déterminée par trois aspects : le nombre de paramètres, la quantité et la qualité des données, et la puissance de calcul. Supposons que le nombre de paramètres soit p, la quantité de données soit n( calculée en fonction du nombre de tokens), on peut estimer la quantité de calcul requise à l'aide de règles empiriques, ainsi que la puissance de calcul à acheter et le temps d'entraînement nécessaire.
La puissance de calcul est généralement exprimée en Flops, représentant une opération flottante. Selon l'expérience pratique, le pré-entraînement d'un grand modèle nécessite environ 6np Flops. L'inférence ( avec des données d'entrée en attente de la sortie du grand modèle ) nécessite environ 2np Flops.
Au début, la puissance de calcul était fournie par des puces CPU, puis elles ont progressivement été remplacées par des GPU, tels que les puces A100 et H100 de Nvidia. Les GPU effectuent des calculs en virgule flottante grâce au module Tensor Core, qui est l'un des principaux indicateurs de performance des puces.
La chaîne industrielle de l'apprentissage profond comprend principalement :
Fournisseurs de GPU matériels
Fournisseur de services cloud
Fournisseurs de données d'entraînement
Fournisseur de base de données
Périphériques
Application
La relation entre la crypto et l'IA
La technologie blockchain combinée au développement ZK devient une pensée décentralisée + sans confiance. Essentiellement, l'ensemble du réseau blockchain est un réseau de valeur, chaque transaction étant une conversion de valeur basée sur un token sous-jacent. L'économie des tokens définit la valeur relative du token natif du réseau, bien qu'il soit impossible de fixer un prix pour chaque dimension, le prix du token reflète une valeur multidimensionnelle.
L'économie des tokens peut donner de la valeur aux réseaux, aux fonctions et aux idées, en valorisant tout dans le monde. Ce moyen de redéfinir et de découvrir la valeur est également crucial pour l'industrie de l'IA. Émettre des tokens dans la chaîne de valeur de l'IA permet de redéfinir la valeur dans tous les domaines, incitant davantage de personnes à se consacrer aux différents segments de l'IA. En même temps, tous les projets bénéficieront d'une appréciation du capital, et les tokens pourront également nourrir l'écosystème pour favoriser l'émergence d'une certaine philosophie.
Les caractéristiques d'immutabilité et de non-confiance de la technologie blockchain ont également une signification pratique dans l'industrie de l'IA, permettant la réalisation d'applications nécessitant une confiance. Lorsque les GPU sont insuffisants, il est possible de distribuer via un réseau blockchain, et les GPU inactifs peuvent également contribuer à la puissance de calcul du réseau pour retrouver de la valeur.
En somme, l'économie des tokens peut favoriser la revalorisation et la découverte de la valeur, tandis que le registre décentralisé peut résoudre les problèmes de confiance et permettre à la valeur de circuler à nouveau à l'échelle mondiale.
Aperçu des projets liés à l'IA dans l'industrie crypto
Côté offre de GPU :
Les principaux projets incluent Render, etc. Render a été lancé en 2020, principalement pour des tâches de rendu vidéo qui ne relèvent pas des grands modèles. En tant que projet DePIN établi avec un volume d'affaires réel, Render a effectivement réussi grâce au vent favorable de l'IA/DePIN, mais en stricte définition, il ne fait pas partie du secteur de l'IA.
Bande passante matérielle :
Les principaux projets incluent Meson Network, etc. Cependant, le partage de bande passante peut être un concept trompeur, car le stockage des données à distance peut entraîner des délais, ce qui est inférieur au stockage local.
Données :
Y compris EpiK Protocol, Synesis One, Masa, etc. Les fournisseurs de données Web3 ont l'avantage du côté de la collecte de données, les particuliers peuvent contribuer des données et obtenir une tarification. Les fournisseurs de données dans le domaine des ZK comme Masa pourraient avoir de bonnes perspectives de développement.
ZKML:
Utiliser la technologie de cryptographie homomorphe pour effectuer des inférences hors chaîne, puis télécharger les résultats avec des preuves ZK, garantissant la confidentialité des données et l'efficacité des inférences. Les principaux projets incluent Axiom, Risc Zero, Ritual, etc.
Applications de l'IA:
Le développement est actuellement relativement faible. Il s'agit principalement d'applications blockchain traditionnelles + capacités d'automatisation et de généralisation. Les agents IA comme Fetch.AI sont typiques et peuvent aider les utilisateurs à prendre des décisions complexes sur la chaîne.
Chaîne de blocs AI :
Des réseaux adaptatifs construits spécifiquement pour les modèles ou agents d'IA, tels que Tensor, Allora, Hypertensor, AgentLayer, etc.
Résumé
Le développement de l'IA actuellement bien connu repose principalement sur la technologie d'apprentissage profond, mais cela ne signifie pas que toutes les directions de développement de l'IA sont couvertes. Bien que l'apprentissage profond ne puisse pas réaliser une intelligence artificielle générale, il existe déjà des cas d'application pratiques qui méritent d'être explorés de manière rationnelle.
La blockchain et l'économie des tokens ont un impact positif sur l'industrie de l'IA, pouvant remodeler la valeur de la chaîne d'approvisionnement et inciter à plus de participation. La technologie blockchain peut également permettre certaines applications d'IA nécessitant de la confiance.
Les inconvénients des réseaux de calcul GPU résident dans les problèmes de bande passante, ce qui ralentit la vitesse d'entraînement, et ils sont actuellement plus adaptés aux petits modèles qui ne nécessitent pas d'urgence. Les entreprises de taille moyenne à grande préfèrent toujours les plateformes cloud traditionnelles.
Dans l'ensemble, la combinaison de l'IA et des cryptomonnaies a une utilité pratique, l'économie des tokens peut remodeler et découvrir une valeur plus large, le grand livre décentralisé peut résoudre les problèmes de confiance, faire circuler la valeur et découvrir la valeur résiduelle.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
16 J'aime
Récompense
16
4
Partager
Commentaire
0/400
MetaMaximalist
· Il y a 19h
un autre cycle de hype... smh mais cette fois les effets de réseau sont réellement réels ngl
Voir l'originalRépondre0
MEVSandwichVictim
· Il y a 20h
Vraiment incroyable, encore en train de faire des promesses et d'entrer en scène.
Voir l'originalRépondre0
NeverVoteOnDAO
· Il y a 20h
Hum, tout le monde parle d'IA, mais au final, ce n'est pas l'argent des pigeons qu'on gagne.
Voir l'originalRépondre0
AirdropHuntress
· Il y a 20h
Encore une litanie de paroles creuses, sans même mentionner les scénarios concrets de l'industrie, que veut encore jouer le capital derrière...
L'intégration profonde de l'IA et des cryptoactifs : redéfinir la valeur de la chaîne industrielle et les tendances futures
IA x Crypto : de zéro au sommet
Introduction
L'industrie de l'intelligence artificielle a connu un développement rapide récemment, considérée comme la quatrième révolution industrielle. L'émergence de grands modèles de langage a considérablement amélioré l'efficacité dans divers secteurs, estimée à environ 20 % d'augmentation de l'efficacité au travail aux États-Unis. La capacité de généralisation des grands modèles est considérée comme un nouveau paradigme de conception de logiciels, permettant aux logiciels d'avoir de meilleures performances et de prendre en charge une plus large gamme d'entrées et de sorties. Les technologies d'apprentissage profond ont effectivement apporté une nouvelle prospérité à l'industrie de l'IA, et cette vague a également eu un impact sur l'industrie des cryptomonnaies.
Ce rapport examinera en détail l'histoire du développement de l'industrie de l'IA, les catégories technologiques, ainsi que l'impact de la technologie de l'apprentissage profond sur l'industrie. Il analysera en profondeur l'état et les tendances du développement en amont et en aval de la chaîne industrielle comprenant les GPU, le cloud computing, les sources de données, les dispositifs périphériques, etc. Il explorera essentiellement la relation entre les cryptomonnaies et l'industrie de l'IA, en clarifiant la structure de la chaîne industrielle de l'IA liée aux cryptomonnaies.
Histoire du développement de l'industrie de l'IA
L'industrie de l'IA a commencé dans les années 1950, et le monde académique et industriel a développé au fil des époques et des contextes disciplinaires différents plusieurs écoles de pensée pour réaliser l'intelligence artificielle.
Les technologies modernes de l'intelligence artificielle utilisent principalement le terme "apprentissage automatique", dont le principe est de permettre aux machines d'améliorer les performances du système en itérant sur des tâches en fonction des données. Les principales étapes consistent à envoyer des données à l'algorithme, à utiliser ces données pour entraîner le modèle, à tester et déployer le modèle, puis à utiliser le modèle pour accomplir des tâches de prédiction automatisées.
Actuellement, l'apprentissage automatique a trois grandes écoles principales : le connexionnisme, le symbolisme et le béhaviorisme, qui imitent respectivement le système nerveux, la pensée et le comportement humains.
Actuellement, le connexionnisme, représenté par les réseaux de neurones, domine ( également connu sous le nom d'apprentissage profond ), la raison principale étant que cette architecture possède une couche d'entrée, une couche de sortie, mais plusieurs couches cachées. Une fois que le nombre de couches et le nombre de neurones ( paramètres ) sont suffisamment élevés, il y a suffisamment d'opportunités pour modéliser des tâches complexes et générales. Grâce à l'entrée de données, il est possible d'ajuster continuellement les paramètres des neurones, et finalement, après plusieurs traitements de données, ce neurone atteindra un état optimal ( paramètres ), ce qui explique l'origine du terme "profond" — un nombre suffisant de couches et de neurones.
Les technologies d'apprentissage profond basées sur les réseaux neuronaux ont également connu plusieurs itérations et évolutions, depuis les premiers réseaux neuronaux, jusqu'aux réseaux neuronaux à propagation avant, RNN, CNN, GAN, pour finalement évoluer vers les grands modèles modernes comme GPT utilisant la technologie Transformer. La technologie Transformer n'est qu'une direction d'évolution des réseaux neuronaux, ajoutant un convertisseur pour encoder toutes les modalités ( telles que l'audio, la vidéo, les images, etc. ) en représentations numériques correspondantes. Ces représentations sont ensuite introduites dans le réseau neuronal, permettant ainsi au réseau neuronal de s'adapter à tout type de données et d'atteindre le multimodal.
Le développement de l'IA a connu trois vagues technologiques. La première a eu lieu dans les années 1960, et cette vague a été causée par le développement des technologies symboliques, résolvant des problèmes de traitement du langage naturel et de dialogue homme-machine. La deuxième est survenue en 1997, lorsque Deep Blue d'IBM a battu le champion d'échecs, ce qui est considéré comme un jalon de l'intelligence artificielle. La troisième a eu lieu en 2006 avec la proposition du concept d'apprentissage profond, marquant l'apogée du connexionnisme.
Chaîne de valeur de l'apprentissage profond
Les grands modèles linguistiques actuels utilisent tous des méthodes d'apprentissage profond basées sur des réseaux de neurones. Avec GPT en tête, ces grands modèles ont provoqué une vague d'engouement pour l'intelligence artificielle, attirant de nombreux acteurs dans ce domaine, et la demande du marché pour les données et la puissance de calcul a explosé. Nous allons explorer la chaîne de valeur des algorithmes d'apprentissage profond, analyser la composition, l'état et les relations d'offre et de demande des acteurs en amont et en aval, ainsi que le développement futur.
Les LLMs basés sur la technologie Transformer, dirigés par GPT(, l'entraînement de grands modèles) se divise principalement en trois étapes :
Pré-entraînement : Trouver les meilleurs paramètres des neurones du modèle à travers une grande quantité de données, ce processus est le plus coûteux en puissance de calcul.
Ajustement : utiliser une petite quantité de données de haute qualité pour entraîner, améliorer la qualité de sortie du modèle.
Apprentissage par renforcement : établir un modèle de récompense pour classer les résultats de sortie, itérer automatiquement les paramètres du grand modèle.
La performance des grands modèles est principalement déterminée par trois aspects : le nombre de paramètres, la quantité et la qualité des données, et la puissance de calcul. Supposons que le nombre de paramètres soit p, la quantité de données soit n( calculée en fonction du nombre de tokens), on peut estimer la quantité de calcul requise à l'aide de règles empiriques, ainsi que la puissance de calcul à acheter et le temps d'entraînement nécessaire.
La puissance de calcul est généralement exprimée en Flops, représentant une opération flottante. Selon l'expérience pratique, le pré-entraînement d'un grand modèle nécessite environ 6np Flops. L'inférence ( avec des données d'entrée en attente de la sortie du grand modèle ) nécessite environ 2np Flops.
Au début, la puissance de calcul était fournie par des puces CPU, puis elles ont progressivement été remplacées par des GPU, tels que les puces A100 et H100 de Nvidia. Les GPU effectuent des calculs en virgule flottante grâce au module Tensor Core, qui est l'un des principaux indicateurs de performance des puces.
La chaîne industrielle de l'apprentissage profond comprend principalement :
La relation entre la crypto et l'IA
La technologie blockchain combinée au développement ZK devient une pensée décentralisée + sans confiance. Essentiellement, l'ensemble du réseau blockchain est un réseau de valeur, chaque transaction étant une conversion de valeur basée sur un token sous-jacent. L'économie des tokens définit la valeur relative du token natif du réseau, bien qu'il soit impossible de fixer un prix pour chaque dimension, le prix du token reflète une valeur multidimensionnelle.
L'économie des tokens peut donner de la valeur aux réseaux, aux fonctions et aux idées, en valorisant tout dans le monde. Ce moyen de redéfinir et de découvrir la valeur est également crucial pour l'industrie de l'IA. Émettre des tokens dans la chaîne de valeur de l'IA permet de redéfinir la valeur dans tous les domaines, incitant davantage de personnes à se consacrer aux différents segments de l'IA. En même temps, tous les projets bénéficieront d'une appréciation du capital, et les tokens pourront également nourrir l'écosystème pour favoriser l'émergence d'une certaine philosophie.
Les caractéristiques d'immutabilité et de non-confiance de la technologie blockchain ont également une signification pratique dans l'industrie de l'IA, permettant la réalisation d'applications nécessitant une confiance. Lorsque les GPU sont insuffisants, il est possible de distribuer via un réseau blockchain, et les GPU inactifs peuvent également contribuer à la puissance de calcul du réseau pour retrouver de la valeur.
En somme, l'économie des tokens peut favoriser la revalorisation et la découverte de la valeur, tandis que le registre décentralisé peut résoudre les problèmes de confiance et permettre à la valeur de circuler à nouveau à l'échelle mondiale.
Aperçu des projets liés à l'IA dans l'industrie crypto
Les principaux projets incluent Render, etc. Render a été lancé en 2020, principalement pour des tâches de rendu vidéo qui ne relèvent pas des grands modèles. En tant que projet DePIN établi avec un volume d'affaires réel, Render a effectivement réussi grâce au vent favorable de l'IA/DePIN, mais en stricte définition, il ne fait pas partie du secteur de l'IA.
Les principaux projets incluent Meson Network, etc. Cependant, le partage de bande passante peut être un concept trompeur, car le stockage des données à distance peut entraîner des délais, ce qui est inférieur au stockage local.
Y compris EpiK Protocol, Synesis One, Masa, etc. Les fournisseurs de données Web3 ont l'avantage du côté de la collecte de données, les particuliers peuvent contribuer des données et obtenir une tarification. Les fournisseurs de données dans le domaine des ZK comme Masa pourraient avoir de bonnes perspectives de développement.
Utiliser la technologie de cryptographie homomorphe pour effectuer des inférences hors chaîne, puis télécharger les résultats avec des preuves ZK, garantissant la confidentialité des données et l'efficacité des inférences. Les principaux projets incluent Axiom, Risc Zero, Ritual, etc.
Le développement est actuellement relativement faible. Il s'agit principalement d'applications blockchain traditionnelles + capacités d'automatisation et de généralisation. Les agents IA comme Fetch.AI sont typiques et peuvent aider les utilisateurs à prendre des décisions complexes sur la chaîne.
Des réseaux adaptatifs construits spécifiquement pour les modèles ou agents d'IA, tels que Tensor, Allora, Hypertensor, AgentLayer, etc.
Résumé
Le développement de l'IA actuellement bien connu repose principalement sur la technologie d'apprentissage profond, mais cela ne signifie pas que toutes les directions de développement de l'IA sont couvertes. Bien que l'apprentissage profond ne puisse pas réaliser une intelligence artificielle générale, il existe déjà des cas d'application pratiques qui méritent d'être explorés de manière rationnelle.
La blockchain et l'économie des tokens ont un impact positif sur l'industrie de l'IA, pouvant remodeler la valeur de la chaîne d'approvisionnement et inciter à plus de participation. La technologie blockchain peut également permettre certaines applications d'IA nécessitant de la confiance.
Les inconvénients des réseaux de calcul GPU résident dans les problèmes de bande passante, ce qui ralentit la vitesse d'entraînement, et ils sont actuellement plus adaptés aux petits modèles qui ne nécessitent pas d'urgence. Les entreprises de taille moyenne à grande préfèrent toujours les plateformes cloud traditionnelles.
Dans l'ensemble, la combinaison de l'IA et des cryptomonnaies a une utilité pratique, l'économie des tokens peut remodeler et découvrir une valeur plus large, le grand livre décentralisé peut résoudre les problèmes de confiance, faire circuler la valeur et découvrir la valeur résiduelle.