OpenLedger будує економіку розумних агентів, що базується на даних, на основі OP Stack та EigenDA

OpenLedger Глибина дослідження: на основі OP Stack+EigenDA, побудуйте економіку інтелектуальних агентів, керовану даними та з можливістю комбінування моделей

Один. Вступ | Модельний рівень Crypto AI

Дані, моделі та обчислювальні потужності є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (модель) та енергії (обчислювальні потужності), які не можуть існувати без один одного. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок був на короткий час під контролем децентралізованих GPU проектів ( деякі децентралізовані платформи обчислень GPU та інші ), які загалом підкреслювали "змагаючися в обчислювальних потужностях". А з початку 2025 року увага галузі поступово зростала до рівня моделей та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкої та цінної для застосування середньої структури.

Загальний великий модель (LLM) vs Спеціалізована модель (SLM)

Традиційні великі мовні моделі (LLM) в значній мірі залежать від великих наборів даних і складних розподілених архітектур, а обсяг параметрів коливається від 70B до 500B, вартість одного навчання часто досягає кількох мільйонів доларів. А SLM (Спеціалізована мовна модель) як легка методологія тонкої настройки багаторазової базової моделі, зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології LoRA, швидко створює експертні моделі, що володіють специфічними знаннями в певних галузях, значно знижуючи витрати на навчання та технологічний бар'єр.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію через плагінову систему, гарячу заміну модулів LoRA, RAG (підсилене генерування на основі пошуку) та інші способи. Ця архітектура зберігає широкі можливості LLM, а також покращує професійну продуктивність завдяки уточнюючим модулям, формуючи високо гнучку комбінаційну інтелектуальну систему.

Crypto AI вартість та межі на рівні моделі

Проекти Crypto AI по суті важко безпосередньо покращити основні можливості великих мовних моделей (LLM), основна причина в тому, що

  • Технічний бар'єр занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише США (деякі AI компанії тощо) та Китай (деякі AI компанії тощо) мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA, Mixtral, вже є відкритими, справжній поштовх до прориву моделей залишається зосередженим на науково-дослідних установах та закритих інженерних системах, простір участі проектів на блокчейні на рівні основних моделей обмежений.

Однак, на основі моделей з відкритим кодом, проєкти Crypto AI все ще можуть реалізувати розширення вартості шляхом тонкого налаштування спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як "периферійний інтерфейсний шар" індустрії AI, це проявляється в двох основних напрямках:

  • Достовірний верифікаційний шар: через запис моделей генерування шляхів, внесків даних та їх використання в блокчейні, посилюється відстежуваність та стійкість до підробок виходів AI.
  • Механізм стимулювання: за допомогою рідного токена, що використовується для стимулювання завантаження даних, виклику моделей, виконання агентів (Agent) тощо, створюється позитивний цикл навчання моделей та надання послуг.

Аналіз класів типів AI моделей та їх застосовність до блокчейну

З цього видно, що можливі точки застосування моделей типу Crypto AI головним чином зосереджені на легкому налаштуванні малих SLM, інтеграції та верифікації даних в RAG-архітектурі, а також на локальному розгортанні та стимулюванні Edge-моделей. Поєднуючи верифікацію блокчейну та токенну механіку, Crypto може забезпечити унікальну цінність для цих сценаріїв з середніми та низькими ресурсами, формуючи диференційовану цінність "інтерфейсного рівня" AI.

Базуючись на даних та моделях, блокчейн AI ланцюг може забезпечити чітку, незмінну реєстрацію джерел внесків для кожного з даних і моделей, суттєво підвищуючи надійність даних та відстежуваність навчання моделей. Одночасно, завдяки механізму смарт-контрактів, при виклику даних або моделей автоматично запускається розподіл винагород, перетворюючи поведінку AI на вимірювану, торгівельну токенізовану цінність, що створює сталу систему стимулювання. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у формуванні правил та ітерацій, вдосконалюючи архітектуру децентралізованого управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI ланцюга OpenLedger

OpenLedger є одним з небагатьох проектів блокчейн AI на ринку, що зосереджується на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію "Payable AI", яка має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює співпрацю між постачальниками даних, розробниками моделей та будівельниками AI-додатків на одній платформі, та отримання доходів на ланцюгу відповідно до фактичного внеску.

OpenLedger надає повний ланцюг замкнутого циклу від "надання даних" до "розгортання моделі" та "виклику розподілу прибутку", його основні модулі включають:

  • Модельна фабрика: без програмування можна використовувати LoRA для тонкої настройки, навчання та розгортання налаштованих моделей на основі відкритого LLM;
  • OpenLoRA: підтримує спільне існування тисяч моделей, динамічно завантажується за потребою, значно знижує витрати на розгортання;
  • PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагород через запис викликів в ланцюгу;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, створені та перевірені спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінований, доступний для виклику, платіжний ринковий модель на базі блокчейну.

За допомогою вищезгаданих модулів OpenLedger створив "інфраструктуру економіки агентів", що базується на даних і моделей, яка сприяє оновленню вартості AI на блокчейні.

А в застосуванні технології блокчейн OpenLedger на базі OP Stack + EigenDA створила високо продуктивне, низьковартісне та перевірене середовище для роботи з даними та контрактами для AI моделей.

  • Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: забезпечення безпеки транзакцій та цілісності активів;
  • EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA надає підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечуючи перевірність даних.

У порівнянні з деякими блокчейнами, які більше орієнтовані на базовий рівень, акцентуючи увагу на суверенітеті даних та архітектурі "AI Agents on BOS", OpenLedger більше фокусується на створенні спеціалізованого AI-ланцюга, орієнтованого на дані та моделі стимулювання. Це прагне забезпечити можливість простеження, комбінування та сталого замкнутого циклу вартості під час розробки та виклику моделей на ланцюгу. Це інфраструктура стимулювання моделей у світі Web3, яка поєднує в собі модельний хостинг, подібний до моделі хостингу, платформу для оплати, подібну до платформи оплати, та ланцюгові комбіновані інтерфейси, подібні до інфраструктурної платформи, що сприяє реалізації шляху "модель як актив".

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодова модельна фабрика

ModelFactory є великою платформою для тонкої настройки мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої настройки, ModelFactory пропонує чисто графічний інтерфейс без необхідності використання командного рядка або інтеграції API. Користувачі можуть тонко налаштовувати моделі на основі даних, які були авторизовані та перевірені на OpenLedger. Це реалізує інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач надсилає запит на дані, постачальник перевіряє та схвалює, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір і налаштування моделі: підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що демонструє прогрес тренування в реальному часі.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або виклику в екосистемі.
  • Інтерфейс верифікації: забезпечує чат-інтерфейс, що полегшує пряме тестування здатності моделі до запитань та відповідей.
  • Генерація RAG: Відповідь з посиланнями на джерела, що підвищує довіру та аудит.

Система архітектури Model Factory містить шість основних модулів, які охоплюють ідентифікацію, права доступу до даних, тонке налаштування моделей, оцінку впровадження та RAG трасування, створюючи безпечну, контрольовану, реальну взаємодію та стійку монетизацію інтегрованої модульної сервісної платформи.

OpenLedger Глибина дослідження: на базі OP Stack+EigenDA побудувати економіку розумних агентів, що керується даними та є модульною

Модельний завод наразі підтримує наступні можливості великих мовних моделей:

  • Серія LLaMA: найширша екосистема, активна спільнота, потужна універсальна продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: Архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: Продукція певної компанії, показує відмінні результати в китайських завданнях, має потужні загальні можливості, підходить для вибору вітчизняних розробників.
  • ChatGLM: видатні результати в китайських розмовах, підходить для вертикальних служб підтримки та локалізованих сцен.
  • Deepseek: має переваги в генерації коду та математичному міркуванні, підходить для інструментів допомоги в розумному розвитку.
  • Gemma: легка модель, розроблена певною компанією, з чіткою структурою, яка дозволяє швидко освоїтися та експериментувати.
  • Falcon: Колись був еталоном продуктивності, підходить для фундаментальних досліджень або порівняльного тестування, але активність спільноти зменшилася.
  • BLOOM: Підтримка кількох мов досить сильна, але продуктивність висновків слабка, підходить для досліджень з охоплення мов.
  • GPT-2: класична рання модель, призначена лише для навчання та перевірки, не рекомендується для фактичного розгортання.

Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а базується на реальних обмеженнях, пов'язаних з ончейн-впровадженням (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), що робить "практичний пріоритет" у конфігурації.

Model Factory як безкодовий інструментальний ланцюг, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних та розробників моделей, з перевагами низького порогу входу, можливості монетизації та комбінування, в порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: забезпечення повного шляху для інкубації моделей, їх розподілу та отримання доходу;
  • Для платформи: формування моделі обігу активів та екосистеми комбінацій;
  • Для користувачів: можна комбінувати моделі або агентів так, як якщо б ви викликали API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, активізація ончейн-активів налаштованої моделі

LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який навчає нові завдання шляхом вставлення "низькорозмірних матриць" у попередньо навчені великі моделі, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (як-от LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (як-от правові питання, медичні консультації), потрібно провести налаштування (fine-tuning). Основна стратегія LoRA полягає в наступному: "заморозити параметри оригінальної великої моделі, навчати лише вставлені нові матриці параметрів." Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить цей метод основним для розгортання моделей Web3 і комбінованих викликів.

OpenLoRA є легковаговою інфраструктурою для інференції, розробленою OpenLedger, спеціально призначеною для розгортання декількох моделей та спільного використання ресурсів. Її основна мета полягає в тому, щоб вирішити поширені проблеми, що виникають під час розгортання AI моделей, такі як високі витрати, низька повторна використання та марнотратство ресурсів GPU, сприяючи впровадженню "платоспроможного AI" (Payable AI).

Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють ключові етапи, такі як зберігання моделей, виконання інференції, маршрутизація запитів тощо, що забезпечує ефективне та економічне розгортання та виклик декількох моделей:

  • Модуль зберігання LoRA адаптерів (LoRA адаптери зберігання): Після доопрацювання LoRA адаптер розміщується на OpenLedger, що дозволяє завантажувати його за потребою.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
MetaDreamervip
· 07-10 06:36
Модельна обчислювальна потужність не важлива, важливі лише дані.
Переглянути оригіналвідповісти на0
ProxyCollectorvip
· 07-09 23:14
З сьогоднішнього дня починаємо малювати BTC.
Переглянути оригіналвідповісти на0
NftPhilanthropistvip
· 07-08 16:48
насправді... ще один день, намагаючись токенізувати нейронні мережі smh
Переглянути оригіналвідповісти на0
DeepRabbitHolevip
· 07-07 08:27
Вже досить гратися з обчислювальною потужністю?
Переглянути оригіналвідповісти на0
0xSunnyDayvip
· 07-07 08:24
Основу зроблено, фінансування швидко.
Переглянути оригіналвідповісти на0
gas_guzzlervip
· 07-07 08:07
Розуміючи, основа все ще L2.
Переглянути оригіналвідповісти на0
gaslight_gasfeezvip
· 07-07 08:03
Чи все ж обговорюємо попередній рівень, чи змагаємося в обчислювальній потужності?
Переглянути оригіналвідповісти на0
  • Закріпити