OpenLedgerはAIモデルインセンティブチェーンを構築し、OP StackとEigenDAを基盤としています。

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルコンビナブルなエージェント経済を構築する

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデルと算力はAIインフラの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせないことに例えられます。従来のAI業界のインフラ進化パスと同様に、Crypto AI分野も同様の段階を経てきました。2024年初頭、市場は一時的に分散型GPUプロジェクトが主導し、「算力の競争」に重点を置いた粗放な成長論理が強調されていました。しかし2025年に入ると、業界の関心は徐々にモデルとデータ層にシフトし、Crypto AIは基盤リソースの競争からより持続可能で応用価値のある中層構築への移行を示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに大きく依存しており、パラメータの規模は70B〜500Bに及び、1回のトレーニングコストは数百万ドルに達することがよくあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量な微調整パラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データおよびLoRAなどの技術を組み合わせることで、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的なハードルを大幅に低下させます。

注目すべきは、SLMがLLMの重みの中に統合されるのではなく、エージェントアーキテクチャの呼び出し、プラグインシステムによる動的ルーティング、LoRAモジュールのホットプラグ、RAG(検索強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは、本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は、

  • 技術的ハードルが高すぎる:Foundation Model のトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在、アメリカや中国などのテクノロジー大手のみがそれに相応しい能力を持っています。
  • オープンソースエコシステムの限界:主流の基盤モデルである LLaMA や Mixtral はすでにオープンソース化されていますが、モデルの突破を推進するための鍵は依然として研究機関とクローズドソースエンジニアリングシステムに集中しており、チェーン上プロジェクトのコアモデル層への参加スペースは限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは依然として特化型言語モデル(SLM)を微調整し、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2つのコア方向に表れます:

  • 信頼できる検証層:モデル生成のパス、データの貢献と使用状況をチェーン上に記録することで、AIの出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを活用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を促進し、モデルのトレーニングとサービスの正のサイクルを構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

以上のことから、モデル型Crypto AIプロジェクトの実行可能な着地点は、主に小型SLMの軽量化微調整、RAGアーキテクチャのチェーン上データ接続と検証、そしてEdgeモデルのローカル展開とインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AIの「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーンAIチェーンは、各データとモデルの貢献元について明確で改ざん不可能なオンチェーン記録を提供し、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムにより、データやモデルが呼び出された際に自動的に報酬配分がトリガーされ、AIの行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブ体系を構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定や反復に参加することで、分散型ガバナンス構造を改善できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは現在市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」という概念を初めて提唱し、公平で透明かつコンバイナブルなAI実行環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に応じてオンチェーンの利益を得ることができます。

OpenLedgerは、「データ提供」から「モデルデプロイメント」、さらに「呼び出し分配」までの全体のクローズドループを提供しており、そのコアモジュールには以下が含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRA微調整訓練を行い、カスタムモデルを展開することができます;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(プローフ・オブ・アトリビューション):チェーン上の呼び出し記録を通じて貢献度の測定と報酬の配分を実現;
  • Datanets:特定の垂直シーンを対象とした構造化データネットワークで、コミュニティの協力によって構築および検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を促進しています。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OPスタックに基づいて構築:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換: 開発者がSolidityに基づいて迅速に展開し、拡張することを容易にします;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を保証します。

NEARのようなより基盤的で、データ主権と「AI Agents on BOS」アーキテクチャを主張する汎用AIチェーンに対して、OpenLedgerはデータとモデルインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することを目指しています。それはWeb3の世界におけるモデルインセンティブインフラであり、モデルホスティング、使用料金、チェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現の道筋を促進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要モデルファクトリー

ModelFactory は OpenLedger エコシステム内の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェイス操作を提供しており、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した承認と監査のデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには次のものが含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査して承認し、データが自動的にモデルトレーニングインターフェースに接続されます。
  • モデル選択と設定:主流のLLM(例えばLLaMA、Mistral)をサポートし、GUIを通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニングの進捗を表示。
  • モデル評価とデプロイメント: 内蔵評価ツールで、デプロイメントのエクスポートやエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース:チャット式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出典引用を伴う回答で、信頼性と監査可能性を強化します。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG 溯源を通じて、6 つの主要モジュールで構成されており、安全で制御可能、リアルタイムのインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築しています。

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が強く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が優れており、柔軟なデプロイメントやリソースが限られたシーンに適しています。
  • Qwen:アリババ製、中文タスクのパフォーマンスが優れており、総合能力が高く、国内の開発者にとっての第一選択に適しています。
  • ChatGLM:中文会話の効果が優れており、垂直型カスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れた性能を発揮し、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、すぐに使い始めたり実験したりしやすい。
  • フェニックス:かつてはパフォーマンスのベンチマークで、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しています。
  • BLOOM:多言語サポートが強いが、推論性能は低く、言語カバレッジ型の研究に適している。
  • GPT-2:古典的な初期モデルで、教育や検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーン展開の現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいた「実用優先」の構成です。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低い敷居、可変収益性、および組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全な道筋を提供します;
  • プラットフォームに対して:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルやエージェントをAPIの呼び出しのように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、事前学習された大規模モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルパラメータを変更することなくトレーニングコストとストレージ要件を大幅に削減する効率的なパラメータ微調整手法です。従来の大規模言語モデル(LLaMA、GPT-3など)は通常、数十億から数百億のパラメータを持っています。それらを特定のタスク(法律質問応答、医療診断など)に使用するには、微調整(fine-tuning)が必要です。LoRAの核心戦略は:「元の大規模モデルのパラメータを凍結し、挿入した新しいパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、トレーニングの速さ、展開の柔軟性から、現在のWeb3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAは、OpenLedgerによって構築された、複数のモデルのデプロイとリソースの共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルのデプロイメントにおける一般的な高コスト、低再利用、GPUリソースの浪費などの問題を解決し、「支払可能なAI」(Payable AI)の実行を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づき、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、効率的で低コストの多モデルデプロイと呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール (LoRAアダプターストレージ):微調整されたLoRAアダプターはOpenLedgerにホスティングされ、必要に応じてロードされ、すべてのモデルを事前にGPUメモリにロードすることを避け、リソースを節約します。
  • モデルホスティングとアダプターマージングレイヤー (Model Hosting & Adapter Merging Layer):すべてのファインチューニングモデルはベースモデルを共有し、推論時にLoRAアダプタが動的にマージされ、複数のアダプターのアンサンブル推論をサポートし、性能を向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
OP-8.58%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
AirdropHunterWangvip
· 08-14 03:44
この波は2025年まで盛り上がるのか?
原文表示返信0
OldLeekMastervip
· 08-14 03:44
また概念を炒めてお金を稼ぐつもりだ
原文表示返信0
ParallelChainMaxivip
· 08-14 03:43
ああ、階層的な物語がまた来た。
原文表示返信0
GateUser-aa7df71evip
· 08-14 03:41
また誰かがAIを持ち上げている。2024年もまだ来ていないのに2025年を持ち上げるのも強気だ。
原文表示返信0
NonFungibleDegenvip
· 08-14 03:21
このAI x OPStackのプレイは俺を強気にさせてる...多分何もないけど、今は全力で突っ込んでる。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)