OpenLedger construit une chaîne d'incitation au modèle AI sur la base d'OP Stack et d'EigenDA.

OpenLedger Depth Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables.

I. Introduction | La transition de la couche de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), qui sont tous indispensables. Tout comme l'évolution des infrastructures dans l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des phases similaires. Au début de 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant en avant une logique de croissance expansive axée sur la « puissance de calcul ». En entrant dans 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une concurrence pour les ressources de base vers une construction de niveau intermédiaire plus durable et de valeur appliquée.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres variant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-ajustement léger basé sur un modèle fondamental réutilisable, s'appuie généralement sur des modèles open source tels que LLaMA, Mistral, DeepSeek, et combine un faible volume de données professionnelles de haute qualité avec des technologies comme LoRA, pour construire rapidement des modèles d'experts dotés de connaissances dans des domaines spécifiques, réduisant considérablement les coûts d'entraînement et les barrières techniques.

Il est à noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, des modules LoRA en hot swapping, et le RAG (génération augmentée par la recherche). Cette architecture conserve la large capacité de couverture du LLM tout en renforçant la performance spécialisée grâce à des modules de fine-tuning, formant ainsi un système intelligent modulaire hautement flexible.

La valeur et les limites de Crypto AI au niveau du modèle

Les projets Crypto AI sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrière technique trop élevée : l'ampleur des données, des ressources informatiques et des capacités d'ingénierie nécessaires pour entraîner un modèle de base est extrêmement importante, et seuls des géants technologiques comme les États-Unis et la Chine disposent actuellement des capacités correspondantes.
  • Limites de l'écosystème open source : Bien que des modèles de base mainstream tels que LLaMA et Mixtral soient open source, la clé pour faire avancer les modèles repose toujours sur des institutions de recherche et des systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles centraux est limité.

Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne industrielle de l'IA, cela se manifeste dans deux directions clés :

  • Couche de vérification fiable : En enregistrant sur la chaîne les chemins de génération de modèles, les contributions de données et les cas d'utilisation, cela renforce la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : En utilisant le Token natif, pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle positif de formation et de service de modèles.

Classification des types de modèles IA et analyse de l'applicabilité de la blockchain

Ainsi, il est évident que les points d'application viables des projets Crypto AI de type modèle se concentrent principalement sur l'affinage léger des SLM de petite taille, l'intégration et la vérification des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain avec le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

Une chaîne de blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. Parallèlement, grâce à un mécanisme de contrat intelligent, une distribution de récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.

OpenLedger Depth Research Report : Construire une économie d'agent intelligente, pilotée par les données et modulable, sur la base d'OP Stack + EigenDA

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à recevoir des revenus en chaîne en fonction de leur contribution réelle.

OpenLedger offre une boucle fermée complète allant de "la fourniture de données" à "le déploiement de modèles" en passant par "l'appel à la répartition des bénéfices", dont les modules principaux comprennent :

  • Modèle d'Usine : Pas besoin de programmation, vous pouvez utiliser la micro-optimisation LoRA pour former et déployer des modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : support de la coexistence de milliers de modèles, chargement dynamique à la demande, réduction significative des coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de la contribution et distribution des récompenses via l'enregistrement des appels sur la chaîne ;
  • Datanets : Réseau de données structurées destiné à des scénarios verticaux, construit et validé par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne, modulable, appelable et payant.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et des modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.

  • Basé sur la pile OP : construit sur la pile technologique d'Optimism, supporte un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Facilite le déploiement et l'extension rapides des développeurs basés sur Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur les bases et mettent l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées à l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel de modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation aux modèles dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, promouvant le chemin vers la réalisation de « modèle en tant qu'actif ».

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Usine de Modèles, usine de modèles sans code

ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent ajuster le modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela a permis de réaliser un flux de travail intégré pour l'autorisation des données, la formation des modèles et le déploiement, dont les processus clés comprennent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM courants (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel partagé dans l'écosystème.
  • Interface de vérification interactive : Fournit une interface de chat pour tester directement les capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec des références de source, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et maîtrisable, avec une interaction en temps réel et une monétisation durable.

Le tableau ci-dessous présente un résumé des capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : l'écosystème le plus large, une communauté active et des performances générales fortes, c'est l'un des modèles de base open source les plus courants actuellement.
  • Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios flexibles et aux ressources limitées.
  • Qwen : Produit par Alibaba, excellent performance des tâches en chinois, capacités globales solides, idéal pour les développeurs nationaux en première choix.
  • ChatGLM : l'effet de dialogue en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Autrefois une référence en termes de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : Support multilingue relativement fort, mais performance d'inférence faible, adapté aux recherches axées sur la couverture linguistique.
  • GPT-2 : Modèle classique précoce, uniquement adapté à des fins pédagogiques et de vérification, son utilisation en déploiement réel n'est pas recommandée.

Bien que la combinaison des modèles d'OpenLedger ne contienne pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais constitue une configuration « prioritaire en matière de praticité » basée sur les contraintes réalistes de déploiement sur la chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un parcours complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme vous appelleriez une API.

OpenLedgerDepth Rapport de recherche : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables

3.2 OpenLoRA, la tokenisation des actifs on-chain des modèles de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle original, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des centaines de millions, voire des milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions-réponses juridiques ou les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie principale de LoRA est : « geler les paramètres du grand modèle original et n'entraîner que la nouvelle matrice de paramètres insérée. » Ses paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement et à l'appel combiné de modèles Web3.

OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement pour le déploiement multifonctionnel et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU dans le déploiement des modèles d'IA, tout en favorisant l'exécution de l'IA « payable ».

OpenLoRA architecture core components, basé sur une conception modulaire, couvrant le stockage des modèles, l'exécution des inférences, le routage des requêtes et d'autres étapes clés, réalisant une capacité de déploiement et d'appel multi-modèles efficace et à faible coût :

  • Module de stockage des adaptateurs LoRA (LoRA Adapters Storage) : les adaptateurs LoRA ajustés sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèle et couche de fusion d'adaptateur (Model Hosting & Adapter Merging Layer) : Tous les modèles ajustés partagent le modèle de base (base model), lors de l'inférence, l'adaptateur LoRA est fusionné dynamiquement, prenant en charge plusieurs adaptateurs pour une inférence conjointe (ensemble), améliorant les performances.
  • Moteur d'inférence (Inference Engine) : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
OP-3.57%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Reposter
  • Partager
Commentaire
0/400
AirdropHunterWangvip
· 08-14 03:44
Est-ce que cette vague doit être spéculée jusqu'en 2025 ?
Voir l'originalRépondre0
OldLeekMastervip
· 08-14 03:44
On va encore spéculer sur des concepts pour encaisser.
Voir l'originalRépondre0
ParallelChainMaxivip
· 08-14 03:43
Eh, la narration en couches est de retour.
Voir l'originalRépondre0
GateUser-aa7df71evip
· 08-14 03:41
Encore quelqu'un parle d'IA, 2024 n'est même pas encore arrivé et on parle déjà de 2025, c'est aussi un bull.
Voir l'originalRépondre0
NonFungibleDegenvip
· 08-14 03:21
ser cette ai x opstack play m'a rendu haussier af... probablement rien mais je suis en train d'acheter à fond rn
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)