OpenLedger constrói uma cadeia de incentivos para modelos de IA com base no OP Stack e EigenDA.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição do nível de modelo do Crypto AI

Dados, modelos e poder de cálculo são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de cálculo), todos essenciais. Assim como o caminho de evolução da infraestrutura da indústria tradicional de IA, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder de cálculo". A partir de 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI da competição por recursos de base para uma construção de nível médio mais sustentável e com valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os grandes modelos de linguagem (LLM) tradicionais dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento muitas vezes chega a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo de base reutilizável, é geralmente baseado em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, permitindo a construção rápida de modelos especializados com conhecimento de domínio específico, reduzindo significativamente os custos de treinamento e a barreira técnica.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através de mecanismos como chamadas de arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-swapping de módulos LoRA e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, ao mesmo tempo que melhora o desempenho especializado por meio de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.

Valor e limites da IA Crypto na camada do modelo

Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal é que

  • Barreiras tecnológicas elevadas: a escala de dados, recursos computacionais e capacidades de engenharia necessárias para treinar um Modelo Fundamental são extremamente grandes, atualmente apenas gigantes da tecnologia como os Estados Unidos e a China possuem as capacidades correspondentes.
  • Limitações do ecossistema de código aberto: Embora modelos de base como LLaMA e Mixtral tenham sido abertos, a verdadeira chave para impulsionar a quebra de modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para participação de projetos em cadeia no nível do modelo central.

No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de Modelos de Linguagem Especializados (SLM), combinando a verificabilidade e o mecanismo de incentivos do Web3. Como a "camada de interface periférica" da cadeia industrial de AI, isso se manifesta em duas direções principais:

  • Camada de verificação confiável: através do registro on-chain do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos, a execução de agentes, entre outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Classificação de tipos de modelos de IA e análise de aplicabilidade da blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de Crypto AI do tipo modelo estão principalmente concentrados na afinação leve de SLMs pequenos, na integração e verificação de dados na cadeia da arquitetura RAG, e na implementação e incentivo dos modelos Edge localmente. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado na "camada de interface" da IA.

A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são utilizados, transformando o comportamento da AI em um valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A visão da cadeia de IA da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter rendimento em cadeia com base nas contribuições reais.

OpenLedger oferece um ciclo fechado completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamada de distribuição de lucros", com os seguintes módulos principais:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino, treinamento e implantação de modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através de registros de chamadas em cadeia;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e verificada pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que são combináveis, chamáveis e pagáveis.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" impulsionada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alta performance, baixo custo e verificável para modelos de IA.

  • Construído sobre OP Stack: baseado na pilha tecnológica Optimism, suporta alta taxa de transferência e execução de baixo custo;
  • Liquidar na rede principal Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatibilidade EVM: facilita o desenvolvimento e a rápida implementação e expansão com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas como a NEAR, que são mais voltadas para a camada base e focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias dedicadas à IA, voltadas para a motivação de dados e modelos, empenhando-se em tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis na cadeia. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos, faturamento de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes centrais e a arquitetura técnica da OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar os modelos com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste fino leve: Motor LoRA / QLoRA integrado, exibe o progresso de treinamento em tempo real.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou compartilhamento de ecossistema.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG de rastreabilidade: Responder com referências de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interações em tempo real e monetização sustentável.

O quadro a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: Ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos básicos de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequada para cenários com implantação flexível e recursos limitados.
  • Qwen: Produzido pela Alibaba, apresenta um desempenho excelente em tarefas em chinês, com forte capacidade integrada, adequado como a primeira escolha para desenvolvedores nacionais.
  • ChatGLM: O efeito de diálogo em chinês é destacado, adequado para serviços de atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta um desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de usar rapidamente e experimentar.
  • Falcon: Foi uma referência de desempenho, adequada para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) para uma configuração "prioridade prática".

Model Factory como uma ferramenta de cadeia sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com baixos requisitos, potencial de monetização e características de combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
  • Para a plataforma: formar a circulação de ativos de modelo e ecossistema combinado;
  • Para os utilizadores: é possível combinar modelos ou Agentes da mesma forma que se chama uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a assetização em cadeia de modelos de ajuste fino

LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas ao inserir "matrizes de baixo rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, treinando apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implementação é flexível, tornando-se o método de ajuste fino mais adequado atualmente para a implementação e chamada combinada de modelos Web3.

OpenLoRA é um framework de inferência leve desenvolvido pela OpenLedger, projetado especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo principal é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "AI pagável" (Payable AI).

OpenLoRA sistema de arquitetura componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros pontos-chave, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de Armazenamento de Adaptadores LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando que todos os modelos sejam pré-carregados na memória, economizando recursos.
  • Modelos de Alojamento e Camada de Fusão Dinâmica (Model Hosting & Adapter Merging Layer): Todos os modelos ajustados partilham o modelo base (base model), com fusão dinâmica do adaptador LoRA durante a inferência, suportando múltiplos adaptadores em inferência conjunta (ensemble), melhorando o desempenho.
  • Motor de Inferência (Inference Engine): integra várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV.
OP-3.27%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Republicar
  • Partilhar
Comentar
0/400
AirdropHunterWangvip
· 08-14 03:44
Esta onda vai ser promovida até 2025?
Ver originalResponder0
OldLeekMastervip
· 08-14 03:44
Já vai ser hora de especular e colher os lucros novamente.
Ver originalResponder0
ParallelChainMaxivip
· 08-14 03:43
Ah, a narrativa em camadas voltou.
Ver originalResponder0
GateUser-aa7df71evip
· 08-14 03:41
Mais alguém está a falar de IA, ainda nem chegou 2024 e já se fala de 2025, é um verdadeiro bull.
Ver originalResponder0
NonFungibleDegenvip
· 08-14 03:21
ser este ai x opstack play deixou-me em alta af... provavelmente nada mas estou a entrar a fundo rn
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)