Сфера штучного інтелекту нещодавно розвинулася стрімко і вважається четвертою промисловою революцією. Поява великих мовних моделей значно підвищила ефективність у різних галузях, за оцінками, підвищивши робочу ефективність в США приблизно на 20%. Генералізаційні можливості великих моделей вважаються новою парадигмою проектування програмного забезпечення, що дозволяє програмному забезпеченню демонструвати кращі результати та підтримувати більш широкий спектр введення та виведення. Технології глибокого навчання дійсно призвели до нової хвилі розквіту в індустрії ШІ, і цей сплеск також вплинув на індустрію криптовалют.
Цей звіт детально розгляне історію розвитку галузі штучного інтелекту, класифікацію технологій, а також вплив технології глибокого навчання на галузь. Глибоко проаналізуємо стан і тенденції розвитку вгору і вниз по ланцюгу постачання, такі як GPU, хмарні обчислення, джерела даних, крайові пристрої тощо в глибокому навчанні. По суті, ми розглянемо взаємини між криптовалютою та галуззю штучного інтелекту, а також визначимо структуру ланцюга постачання, пов'язаного з AI у криптовалюті.
Індустрія штучного інтелекту почала свій розвиток з 50-х років XX століття, наукові кола та промисловість в різні епохи та різних наукових дисциплінах розвинули безліч напрямків реалізації штучного інтелекту.
Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", ідея якого полягає в тому, щоб машини покладалися на дані для багаторазової ітерації в завданнях з метою поліпшення продуктивності системи. Основні етапи включають передачу даних в алгоритм, використання цих даних для навчання моделі, тестування та впровадження моделі, а також використання моделі для виконання автоматизованих прогнозних завдань.
Наразі в машинному навчанні існує три основні течії: коннекціонізм, символізм та біхевіоризм, які імітують людську нервову систему, мислення та поведінку.
Наразі нейронні мережі, які представляють коннекціонізм, мають перевагу (, також відомі як глибоке навчання ). Основна причина полягає в тому, що така архітектура має один вхідний шар, один вихідний шар, але кілька прихованих шарів. Коли кількість шарів та нейронів ( та параметрів ) є достатньо великою, з'являється достатньо можливостей для підгонки складних загальних завдань. Через введення даних можна постійно налаштовувати параметри нейронів, і врешті-решт, після кількох обробок даних, цей нейрон досягне оптимального стану ( параметрів ), що є також походженням терміна "глибина" — достатня кількість шарів і нейронів.
Технологія глибокого навчання на базі нейронних мереж також має кілька технічних ітерацій і еволюцій, починаючи з найраніших нейронних мереж, до мереж з прямим проходженням, RNN, CNN, GAN, і нарешті еволюціонуючи до сучасних великих моделей, таких як GPT, які використовують технологію Transformer. Технологія Transformer є лише напрямком еволюції нейронних мереж, яка додає перетворювач, щоб кодувати всі модальності (, такі як аудіо, відео, зображення тощо ) у відповідні числові представлення. Потім ці дані вводяться в нейронну мережу, що дозволяє нейронній мережі адаптуватися до будь-якого типу даних, реалізуючи мультимодальність.
Розвиток ШІ пройшов три технологічні хвилі. Перша відбулася в 60-х роках XX століття, ця хвиля була викликана розвитком символізму, що вирішило проблеми загальної обробки природної мови та діалогу між людиною та комп'ютером. Друга хвиля відбулася в 1997 році, коли IBM Deep Blue перемогла чемпіона світу з шахів, що вважається етапом у розвитку штучного інтелекту. Третя хвиля розпочалася в 2006 році з появою концепції глибокого навчання, що стало золотим віком зв'язкового підходу.
Ланцюг промисловості глибокого навчання
Сучасні мовні моделі, які використовуються, засновані на методах глибокого навчання на основі нейронних мереж. Моделі великого обсягу, зокрема GPT, спричинили хвилю інтересу до штучного інтелекту, і багато гравців увійшли в цю галузь, зростає попит на дані та обчислювальні потужності на ринку. Ми дослідимо виробничий ланцюг алгоритмів глибокого навчання, проаналізуємо склад, стан та співвідношення попиту і пропозиції, а також майбутній розвиток.
Навчання великих моделей LLM на базі GPT, що використовують технологію Transformer, (, в основному складається з трьох етапів:
Попереднє навчання: пошук найкращих параметрів нейронів моделі за допомогою великої кількості даних, цей процес є найбільш витратним з точки зору обчислювальних ресурсів.
Тонка настройка: використання невеликої кількості високоякісних даних для навчання, щоб підвищити якість виходу моделі.
Поглиблене навчання: створення моделі винагород для ранжування вихідних результатів, автоматичне ітеративне налаштування параметрів великої моделі.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Вплив на продуктивність великих моделей визначається головним чином трьома аспектами: кількість параметрів, обсяг і якість даних, обчислювальна потужність. Припустимо, що кількість параметрів дорівнює p, обсяг даних дорівнює n), обчислюючи за кількістю токенів(, можна за допомогою евристичного правила розрахувати необхідну обчислювальну потужність, оцінити ситуацію з покупкою обчислювальної потужності та час навчання.
Обчислювальна потужність зазвичай вимірюється у Flops, що представляє одну операцію з плаваючою комою. За практичним досвідом, попереднє навчання великої моделі вимагає приблизно 6np Flops. Для висновку ) вхідні дані, що чекають виходу великої моделі (, потребують приблизно 2np Flops.
На початку використовувалися чіпи CPU для надання обчислювальної потужності, згодом їх поступово замінили на GPU, такі як чіпи Nvidia A100, H100 тощо. GPU виконують плаваючі обчислення через модуль Tensor Core, що є одним з основних показників чіпів.
Галузь глибокого навчання в основному включає:
Постачальник апаратних GPU
Постачальник хмарних послуг
Постачальник навчальних даних
Постачальник бази даних
Периферійні пристрої
Застосування
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
Взаємозв'язок між криптовалютою та ШІ
Технологія блокчейн у поєднанні з ZK перетворюється в ідею децентралізації + дотримання довіри. По суті, вся мережа блокчейн є мережею вартості, кожна транзакція є трансформацією вартості на основі базового токена. Токеноміка визначає відносну вартість рідного токена мережі, хоча неможливо оцінити кожен вимір, але ціна токена відображає багатовимірну вартість.
Токеноміка може надати цінність мережам, функціям та ідеям, перетворюючи всі цінності у світі. Цей спосіб повторного визначення та виявлення цінності також є надзвичайно важливим для галузі ШІ. Випуск токенів у ланцюзі постачання ШІ дозволяє різним сторонам здійснювати переосмислення цінностей, мотивуючи більше людей глибше занурюватися в різні сегменти AI. Водночас усі проекти отримають прибуток від збільшення капіталу, а токени також можуть підтримувати екосистему та сприяти виникненню певної філософії.
Незмінність технології блокчейн та її властивість не вимагати довіри мають практичне значення і в галузі ШІ, дозволяючи реалізувати деякі застосунки, що потребують довіри. Коли графічних процесорів недостатньо, можливо розподілити навантаження через блокчейн-мережу, і незайняті графічні процесори також можуть внести свій внесок у обчислювальну потужність мережі, відновлюючи свою цінність.
Отже, токеноміка може сприяти відновленню та відкриттю вартості, децентралізований реєстр може вирішити проблеми довіри та відновити рух вартості на глобальному рівні.
![Новачки в освіті丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
Огляд проектів, пов'язаних з AI в криптоіндустрії
Сторона постачання GPU:
Основні проекти включають Render тощо. Render був запущений у 2020 році і в основному використовується для рендерингу відео не великих моделей. Як старий DePIN проект з реальною бізнес-активністю, Render дійсно успішно скористався перевагами AI/DePIN, але в строгому сенсі не входить до AI-сектора.
Апаратна пропускна спроможність:
Основні проекти включають Meson Network та інші. Але спільна пропускна здатність може бути псевдоконцепцією, оскільки зберігання даних на відстані може призводити до затримок, що гірше, ніж локальне зберігання.
Дані:
Серед них EpiK Protocol, Synesis One, Masa та інші. Перевага постачальників даних Web3 полягає в зборі даних, де особи можуть вносити дані та отримувати ціну. Постачальники даних у напрямку ZK, такі як Masa, можуть мати хороші перспективи розвитку.
ЗКМЛ:
Використовуючи технологію гомоморфного шифрування, дані обробляються поза ланцюгом, а потім результати та ZK-докази завантажуються, щоб забезпечити конфіденційність даних та ефективність висновків. Основні проекти включають Axiom, Risc Zero, Ritual тощо.
Застосування ШІ:
Наразі розвиток є достатньо слабким. Головним чином це традиційні блокчейн-застосування + автоматизація та генералізовані можливості. AI Agent, такий як Fetch.AI, є досить типовим, може допомогти користувачам у складних рішеннях на ланцюгу.
AI публічний блокчейн:
Адаптивні мережі, спеціально створені для моделей або агентів AI, такі як Tensor, Allora, Hypertensor, AgentLayer тощо.
![Новачок інформує丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-8358c377eb2c07467848b3b46dbf1056.webp(
Підсумок
Поточний розвиток штучного інтелекту, з яким ми знайомі, переважно базується на технології глибокого навчання, але це не означає, що всі напрямки розвитку ШІ зводяться лише до цього. Хоча глибоке навчання, можливо, не зможе реалізувати загальний штучний інтелект, вже існують практичні застосування, які заслуговують на раціональне поглиблення.
Блокчейн і токенна економіка мають позитивний вплив на індустрію ШІ, можуть переформатувати цінність ланцюга постачання та стимулювати більшу участь. Технологія блокчейн також може реалізувати деякі AI-додатки, які потребують довіри.
Недоліком мережі GPU обчислень є проблема пропускної здатності, повільна швидкість навчання, наразі вона більше підходить для не термінових малих моделей. Середні та великі підприємства все ще схиляються до традиційних хмарних платформ.
В цілому, поєднання ШІ та криптовалют має практичну користь, токеноміка може перетворити та виявити більш широкі цінності, децентралізовані реєстри можуть вирішити проблеми довіри, забезпечити рух цінностей та виявити залишкову вартість.
![Новачок наука丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-c8845a5920048e7c821c939e2d8304e7.webp(
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
16 лайків
Нагородити
16
4
Поділіться
Прокоментувати
0/400
MetaMaximalist
· 14год тому
інший цикл хайпу... смх, але цього разу мережеві ефекти насправді реальні, не можу не зізнатися
Переглянути оригіналвідповісти на0
MEVSandwichVictim
· 15год тому
Справді, це вже знову малює пиріжки та біжить на сцену.
Переглянути оригіналвідповісти на0
NeverVoteOnDAO
· 15год тому
Гм, всі грають на AI, а в кінцевому підсумку все одно заробляють гроші невдах.
Переглянути оригіналвідповісти на0
AirdropHuntress
· 15год тому
Знову купа пустих слів, навіть не згадали про реальні сценарії впровадження в галузі, що ж за капітал за цим стоїть...
AI та Глибина Криптоактивів: перетворення вартості ланцюга постачання та майбутні тенденції
AI x Crypto: від нуля до вершини
Вступ
Сфера штучного інтелекту нещодавно розвинулася стрімко і вважається четвертою промисловою революцією. Поява великих мовних моделей значно підвищила ефективність у різних галузях, за оцінками, підвищивши робочу ефективність в США приблизно на 20%. Генералізаційні можливості великих моделей вважаються новою парадигмою проектування програмного забезпечення, що дозволяє програмному забезпеченню демонструвати кращі результати та підтримувати більш широкий спектр введення та виведення. Технології глибокого навчання дійсно призвели до нової хвилі розквіту в індустрії ШІ, і цей сплеск також вплинув на індустрію криптовалют.
Цей звіт детально розгляне історію розвитку галузі штучного інтелекту, класифікацію технологій, а також вплив технології глибокого навчання на галузь. Глибоко проаналізуємо стан і тенденції розвитку вгору і вниз по ланцюгу постачання, такі як GPU, хмарні обчислення, джерела даних, крайові пристрої тощо в глибокому навчанні. По суті, ми розглянемо взаємини між криптовалютою та галуззю штучного інтелекту, а також визначимо структуру ланцюга постачання, пов'язаного з AI у криптовалюті.
! Newcomer Science丨AI x Crypto: від нуля до піку
Історія розвитку галузі штучного інтелекту
Індустрія штучного інтелекту почала свій розвиток з 50-х років XX століття, наукові кола та промисловість в різні епохи та різних наукових дисциплінах розвинули безліч напрямків реалізації штучного інтелекту.
Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", ідея якого полягає в тому, щоб машини покладалися на дані для багаторазової ітерації в завданнях з метою поліпшення продуктивності системи. Основні етапи включають передачу даних в алгоритм, використання цих даних для навчання моделі, тестування та впровадження моделі, а також використання моделі для виконання автоматизованих прогнозних завдань.
Наразі в машинному навчанні існує три основні течії: коннекціонізм, символізм та біхевіоризм, які імітують людську нервову систему, мислення та поведінку.
! Newcomer Science Popular丨AI x Crypto: від нуля до піку
Наразі нейронні мережі, які представляють коннекціонізм, мають перевагу (, також відомі як глибоке навчання ). Основна причина полягає в тому, що така архітектура має один вхідний шар, один вихідний шар, але кілька прихованих шарів. Коли кількість шарів та нейронів ( та параметрів ) є достатньо великою, з'являється достатньо можливостей для підгонки складних загальних завдань. Через введення даних можна постійно налаштовувати параметри нейронів, і врешті-решт, після кількох обробок даних, цей нейрон досягне оптимального стану ( параметрів ), що є також походженням терміна "глибина" — достатня кількість шарів і нейронів.
! Newcomer Science丨AI x Crypto: від нуля до піку
Технологія глибокого навчання на базі нейронних мереж також має кілька технічних ітерацій і еволюцій, починаючи з найраніших нейронних мереж, до мереж з прямим проходженням, RNN, CNN, GAN, і нарешті еволюціонуючи до сучасних великих моделей, таких як GPT, які використовують технологію Transformer. Технологія Transformer є лише напрямком еволюції нейронних мереж, яка додає перетворювач, щоб кодувати всі модальності (, такі як аудіо, відео, зображення тощо ) у відповідні числові представлення. Потім ці дані вводяться в нейронну мережу, що дозволяє нейронній мережі адаптуватися до будь-якого типу даних, реалізуючи мультимодальність.
! Newcomer Science丨AI x Crypto: від нуля до піку
Розвиток ШІ пройшов три технологічні хвилі. Перша відбулася в 60-х роках XX століття, ця хвиля була викликана розвитком символізму, що вирішило проблеми загальної обробки природної мови та діалогу між людиною та комп'ютером. Друга хвиля відбулася в 1997 році, коли IBM Deep Blue перемогла чемпіона світу з шахів, що вважається етапом у розвитку штучного інтелекту. Третя хвиля розпочалася в 2006 році з появою концепції глибокого навчання, що стало золотим віком зв'язкового підходу.
Ланцюг промисловості глибокого навчання
Сучасні мовні моделі, які використовуються, засновані на методах глибокого навчання на основі нейронних мереж. Моделі великого обсягу, зокрема GPT, спричинили хвилю інтересу до штучного інтелекту, і багато гравців увійшли в цю галузь, зростає попит на дані та обчислювальні потужності на ринку. Ми дослідимо виробничий ланцюг алгоритмів глибокого навчання, проаналізуємо склад, стан та співвідношення попиту і пропозиції, а також майбутній розвиток.
Навчання великих моделей LLM на базі GPT, що використовують технологію Transformer, (, в основному складається з трьох етапів:
Попереднє навчання: пошук найкращих параметрів нейронів моделі за допомогою великої кількості даних, цей процес є найбільш витратним з точки зору обчислювальних ресурсів.
Тонка настройка: використання невеликої кількості високоякісних даних для навчання, щоб підвищити якість виходу моделі.
Поглиблене навчання: створення моделі винагород для ранжування вихідних результатів, автоматичне ітеративне налаштування параметрів великої моделі.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Вплив на продуктивність великих моделей визначається головним чином трьома аспектами: кількість параметрів, обсяг і якість даних, обчислювальна потужність. Припустимо, що кількість параметрів дорівнює p, обсяг даних дорівнює n), обчислюючи за кількістю токенів(, можна за допомогою евристичного правила розрахувати необхідну обчислювальну потужність, оцінити ситуацію з покупкою обчислювальної потужності та час навчання.
Обчислювальна потужність зазвичай вимірюється у Flops, що представляє одну операцію з плаваючою комою. За практичним досвідом, попереднє навчання великої моделі вимагає приблизно 6np Flops. Для висновку ) вхідні дані, що чекають виходу великої моделі (, потребують приблизно 2np Flops.
На початку використовувалися чіпи CPU для надання обчислювальної потужності, згодом їх поступово замінили на GPU, такі як чіпи Nvidia A100, H100 тощо. GPU виконують плаваючі обчислення через модуль Tensor Core, що є одним з основних показників чіпів.
Галузь глибокого навчання в основному включає:
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
Взаємозв'язок між криптовалютою та ШІ
Технологія блокчейн у поєднанні з ZK перетворюється в ідею децентралізації + дотримання довіри. По суті, вся мережа блокчейн є мережею вартості, кожна транзакція є трансформацією вартості на основі базового токена. Токеноміка визначає відносну вартість рідного токена мережі, хоча неможливо оцінити кожен вимір, але ціна токена відображає багатовимірну вартість.
Токеноміка може надати цінність мережам, функціям та ідеям, перетворюючи всі цінності у світі. Цей спосіб повторного визначення та виявлення цінності також є надзвичайно важливим для галузі ШІ. Випуск токенів у ланцюзі постачання ШІ дозволяє різним сторонам здійснювати переосмислення цінностей, мотивуючи більше людей глибше занурюватися в різні сегменти AI. Водночас усі проекти отримають прибуток від збільшення капіталу, а токени також можуть підтримувати екосистему та сприяти виникненню певної філософії.
Незмінність технології блокчейн та її властивість не вимагати довіри мають практичне значення і в галузі ШІ, дозволяючи реалізувати деякі застосунки, що потребують довіри. Коли графічних процесорів недостатньо, можливо розподілити навантаження через блокчейн-мережу, і незайняті графічні процесори також можуть внести свій внесок у обчислювальну потужність мережі, відновлюючи свою цінність.
Отже, токеноміка може сприяти відновленню та відкриттю вартості, децентралізований реєстр може вирішити проблеми довіри та відновити рух вартості на глобальному рівні.
![Новачки в освіті丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
Огляд проектів, пов'язаних з AI в криптоіндустрії
Основні проекти включають Render тощо. Render був запущений у 2020 році і в основному використовується для рендерингу відео не великих моделей. Як старий DePIN проект з реальною бізнес-активністю, Render дійсно успішно скористався перевагами AI/DePIN, але в строгому сенсі не входить до AI-сектора.
Основні проекти включають Meson Network та інші. Але спільна пропускна здатність може бути псевдоконцепцією, оскільки зберігання даних на відстані може призводити до затримок, що гірше, ніж локальне зберігання.
Серед них EpiK Protocol, Synesis One, Masa та інші. Перевага постачальників даних Web3 полягає в зборі даних, де особи можуть вносити дані та отримувати ціну. Постачальники даних у напрямку ZK, такі як Masa, можуть мати хороші перспективи розвитку.
Використовуючи технологію гомоморфного шифрування, дані обробляються поза ланцюгом, а потім результати та ZK-докази завантажуються, щоб забезпечити конфіденційність даних та ефективність висновків. Основні проекти включають Axiom, Risc Zero, Ritual тощо.
Наразі розвиток є достатньо слабким. Головним чином це традиційні блокчейн-застосування + автоматизація та генералізовані можливості. AI Agent, такий як Fetch.AI, є досить типовим, може допомогти користувачам у складних рішеннях на ланцюгу.
Адаптивні мережі, спеціально створені для моделей або агентів AI, такі як Tensor, Allora, Hypertensor, AgentLayer тощо.
![Новачок інформує丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-8358c377eb2c07467848b3b46dbf1056.webp(
Підсумок
Поточний розвиток штучного інтелекту, з яким ми знайомі, переважно базується на технології глибокого навчання, але це не означає, що всі напрямки розвитку ШІ зводяться лише до цього. Хоча глибоке навчання, можливо, не зможе реалізувати загальний штучний інтелект, вже існують практичні застосування, які заслуговують на раціональне поглиблення.
Блокчейн і токенна економіка мають позитивний вплив на індустрію ШІ, можуть переформатувати цінність ланцюга постачання та стимулювати більшу участь. Технологія блокчейн також може реалізувати деякі AI-додатки, які потребують довіри.
Недоліком мережі GPU обчислень є проблема пропускної здатності, повільна швидкість навчання, наразі вона більше підходить для не термінових малих моделей. Середні та великі підприємства все ще схиляються до традиційних хмарних платформ.
В цілому, поєднання ШІ та криптовалют має практичну користь, токеноміка може перетворити та виявити більш широкі цінності, децентралізовані реєстри можуть вирішити проблеми довіри, забезпечити рух цінностей та виявити залишкову вартість.
![Новачок наука丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-c8845a5920048e7c821c939e2d8304e7.webp(