OpenLedger будує інвестиційний ланцюг для моделей ШІ на основі OP Stack та EigenDA

OpenLedger Глибина дослідження: на базі OP Stack + EigenDA створити економіку агентів, що керується даними та має модульні моделі

Один. Вступ | Модельний рівень Crypto AI

Дані, моделі та обчислювальна потужність є трьома ключовими елементами інфраструктури AI, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність) — жоден з них не можна пропустити. Подібно до еволюційного шляху інфраструктури традиційної AI-індустрії, сфера Crypto AI також пройшла схожі етапи. На початку 2024 року ринок на деякий час був під контролем децентралізованих GPU проектів, які загалом підкреслювали логіку грубого зростання «потужності обчислень». А з початком 2025 року увага галузі поступово зосереджується на моделях та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного у застосуванні середнього рівня будівництва.

Універсальна велика модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) вимагають значної залежності від великих наборів даних та складних розподілених архітектур, а обсяг параметрів часто сягає 70B–500B, а вартість однієї тренування може досягати кількох мільйонів доларів. SLM (Спеціалізована мовна модель) як легка парадигма тонкого налаштування повторно використовуваних базових моделей зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість якісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі з певними знаннями в конкретній області, що значно знижує витрати на навчання та технічні бар'єри.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру агентів, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (посилене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку покритість LLM, одночасно підвищуючи фахову продуктивність за допомогою модулів тонкої настройки, формуючи високо гнучку комбіновану інтелектуальну систему.

Crypto AI вартість та межі на рівні моделі

Крипто AI проєкти в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Занадто високий технічний бар'єр: обсяг даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише США і Китай мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні моделі, такі як LLaMA, Mixtral, вже стали відкритими, справжнє просування моделі все ще зосереджено в наукових установах та закритих інженерних системах, а участь блокчейн-проектів у базовому рівні моделей є обмеженою.

Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть досягати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» у ланцюзі постачання AI, він реалізується в двох основних напрямках:

  • Достовірний верифікаційний рівень: шляхом запису на ланцюгу шляху генерації моделі, внесків даних та використання, підвищується відстежуваність та стійкість до підробок виходу AI.
  • Механізм заохочення: за допомогою рідного Token, призначеного для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) тощо, створюється позитивний цикл навчання моделей та обслуговування.

Класифікація типів AI моделей та аналіз їх придатності для блокчейну

З цього видно, що можливі точки застосування моделей класу Crypto AI в основному зосереджені на легкій налаштуванні малих SLM, підключенні та верифікації даних на ланцюгу в архітектурі RAG, а також на локальному розгортанні та стимулюванні моделей Edge. Поєднуючи верифікацію блокчейну та токеноміку, Crypto може надати унікальну цінність для цих середньо- та низькоресурсних моделей, створюючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг, заснований на даних та моделях, може чітко та незмінно реєструвати джерела внесків кожного даних та моделі, значно підвищуючи надійність даних та відстежуваність навчання моделей. Крім того, через механізм смарт-контрактів, автоматично активується розподіл винагород при використанні даних або моделей, перетворюючи поведінку AI на вимірювану та торгівельну токенізовану вартість, створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей шляхом голосування токенами, брати участь у розробці правил та їх ітерації, вдосконалюючи децентралізовану архітектуру управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, що зосереджується на механізмах стимулювання даних і моделей. Він вперше запропонував концепцію «Payable AI», що має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, яке стимулює внески даних, розробників моделей і творців AI додатків для співпраці на одній платформі та отримання доходу в ланцюзі відповідно до фактичного внеску.

OpenLedger надає повний ланцюговий цикл від «надання даних» до «розгортання моделей», а потім до «виклику розподілу прибутку», його основні модулі включають:

  • Модельна фабрика: без програмування можна використовувати LoRA для дообучення та розгортання налаштованих моделей на основі відкритих LLM;
  • OpenLoRA: підтримує спільне існування тисяч моделей, динамічно завантажує за потребою, суттєво знижує витрати на розгортання;
  • PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагороди через виклики на ланцюзі;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, що будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінований, доступний для виклику, платіжний ринк моделей на базі блокчейну.

Через вищезгадані модулі OpenLedger створив дані, керовану, модельно комбіновану «інфраструктуру економіки агентів», що сприяє онлайнізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, економічного та перевіряємого середовища виконання даних і контрактів для AI моделей.

  • Побудовано на OP Stack: на основі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій та цілісності активів;
  • EVM сумісність: зручно для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA забезпечує підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечує перевірність даних.

В порівнянні з такими базовими мережами, як NEAR, які акцентують увагу на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованих блокчейнів для AI, орієнтуючись на стимули для даних та моделей, прагнучи забезпечити відстежуваність, комбінацію та стійкість ціннісного циклу розробки та виклику моделей на ланцюзі. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі розміщення моделей, виставлення рахунків за використання та комбінаційні інтерфейси на ланцюзі, просуваючи шлях до реалізації «моделей як активів».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельний завод, не потрібно кодування модельного заводу

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чистий графічний інтерфейс для роботи, без необхідності в командних рядках або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, що пройшли авторизацію та перевірку в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач надсилає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: підтримує основні LLM (такі як LLaMA, Mistral), через GUI налаштування гіперпараметрів.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в режимі реального часу.
  • Оцінка моделі та розгортання: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного використання.
  • Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, зручний для безпосереднього тестування здатності моделі до відповідей на запитання.
  • Генерація RAG для відстеження: відповіді з посиланнями на джерела, що підвищує довіру та можливість аудиту.

Система архітектури Model Factory складається з шести основних модулів, що охоплюють ідентифікацію, права доступу до даних, мікронастройку моделей, оцінку розгортання та RAG трасування, створюючи безпечну та контрольовану, інтерактивну в реальному часі, сталу платформу для надання послуг моделей.

Модельна фабрика наразі підтримує такі можливості великих мовних моделей:

  • LLaMA серія: найбільша екосистема, активне співтовариство, потужні загальні характеристики, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: Архітектура ефективна, продуктивність виведення відмінна, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: продукт від Alibaba, китайські завдання виконуються відмінно, загальні можливості сильні, підходить для вибору вітчизняних розробників.
  • ChatGLM: Видатні результати китайського діалогу, підходить для специфічних клієнтських послуг та локалізованих сценаріїв.
  • Deepseek: показує перевагу в генерації коду та математичному мисленні, підходить для інструментів допомоги в розумному розвитку.
  • Gemma: легка модель, випущена Google, з чіткою структурою, яка дозволяє швидко освоїтися та проводити експерименти.
  • Falcon: Колись був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
  • BLOOM: Підтримка багатьох мов досить сильна, але продуктивність висновку слабка, підходить для досліджень, що охоплюють мови.
  • GPT-2: класична рання модель, підходить лише для навчальних і верифікаційних цілей, не рекомендується для реального впровадження.

Хоча комбінація моделей OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, її стратегія не застаріла, а базується на реальних обмеженнях, пов'язаних із розгортанням на блокчейні (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до конфігурації «практична перевага».

Model Factory як безкодова інструментальна ланцюг, всі моделі вбудували механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінування, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: забезпечити повний шлях до інкубації, розповсюдження та доходу моделей;
  • Для платформи: формування екосистеми обігу та комбінування моделей активів;
  • Для користувачів: моделі або агентів можна комбінувати так само, як виклик API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, активізація он-chain активів моделі доопрацювання

LoRA (Низькорангова адаптація) є ефективним методом доопрацювання параметрів, який навчає нові завдання шляхом вставлення «низькорангова матриця» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів чи навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (наприклад, юридичні запитання, медичні консультації), потрібно провести доопрацювання (fine-tuning). Основна стратегія LoRA полягає в наступному: «заморозити параметри оригінальної великої моделі, навчаючи лише вставлені нові параметричні матриці». Вона є ефективною за параметрами, швидкою в навчанні та гнучкою в розгортанні, що робить її найбільш підходящим методом доопрацювання для розгортання та комбінації викликів Web3.

OpenLoRA – це легковаговий фреймворк для інференції, розроблений OpenLedger, спеціально призначений для розгортання декількох моделей та спільного використання ресурсів. Його основна мета полягає в тому, щоб вирішити поширені проблеми, що виникають під час розгортання AI моделей, такі як висока вартість, низька повторна використання, марнотратство GPU ресурсів та сприяти впровадженню "платоспроможного AI" (Payable AI).

Ядро архітектури системи OpenLoRA, основане на модульному дизайні, охоплює критичні етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, забезпечуючи ефективні та низьковартісні можливості для розгортання та виклику багатьох моделей:

  • LoRA Adapter Storage Module (LoRA Adapters Storage): Налаштований LoRA адаптер розміщується на OpenLedger, що дозволяє завантажувати за запитом, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
  • Модельне хостинг і динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з налаштуваннями спільно використовують базову велику модель (base model), під час інференсу LoRA адаптер динамічно об'єднується, підтримує кілька адаптерів для спільного інференсу (ensemble), підвищуючи продуктивність.
  • Інференційний движок (Inference Engine): інтегрує Flash-Attention, Paged-Attention, SGMV оптимізацію та інші CUDA оптимізаційні технології.
OP-3.57%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Репост
  • Поділіться
Прокоментувати
0/400
AirdropHunterWangvip
· 08-14 03:44
Цю хвилю слід розкручувати до 2025 року?
Переглянути оригіналвідповісти на0
OldLeekMastervip
· 08-14 03:44
Знову будемо спекулювати на концепціях, щоб заробити.
Переглянути оригіналвідповісти на0
ParallelChainMaxivip
· 08-14 03:43
О, знову прийшло багаторівневе оповідання.
Переглянути оригіналвідповісти на0
GateUser-aa7df71evip
· 08-14 03:41
Знову хтось хвалить ШІ, 2024 ще не настав, а вже хвалять 2025, це також бик.
Переглянути оригіналвідповісти на0
NonFungibleDegenvip
· 08-14 03:21
сер цей ai x opstack гра змусила мене бути бичачим af... напевно нічого, але я влітаю в це сильно rn
Переглянути оригіналвідповісти на0
  • Закріпити