Uno, Introducción | La transición del nivel de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), todos ellos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha desplazado gradualmente hacia la capa de modelos y datos, marcando que Crypto AI está pasando de la competencia por recursos básicos a una construcción de capa media más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que utiliza un modelo base reutilizable, normalmente basado en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimiento en campos específicos, lo que reduce significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que SLM no se integrará en el peso de LLM, sino que colaborará con LLM a través de la llamada arquitectura de agente, el sistema de plugins para el enrutamiento dinámico, la inserción en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, a través de módulos de ajuste fino, mejora el desempeño profesional, formando un sistema inteligente combinado de alta flexibilidad.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que
La barrera técnica es demasiado alta: la escala de datos, los recursos de cálculo y las capacidades de ingeniería requeridas para entrenar un Modelo Fundacional son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China cuentan con la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos básicos como LLaMA y Mixtral están disponibles como código abierto, la clave para impulsar verdaderos avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.
Sin embargo, sobre modelos fundamentales de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través del ajuste fino de modelos de lenguaje especializados (SLM), y combinando la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:
Capa de validación confiable: a través del registro en la cadena del camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de la salida de IA.
Mecanismo de incentivos: Aprovechando el Token nativo, se utiliza para incentivar acciones como la carga de datos, la invocación de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Por lo tanto, es evidente que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de AI.
La cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo, participar en la formulación y iteración de reglas mediante votación con tokens, mejorando la estructura de gobernanza descentralizada.
Dos, visión del proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue pionero en la propuesta del concepto "Payable AI", con el objetivo de construir un entorno de operación de AI justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en la cadena según su contribución real.
OpenLedger ofrece un ciclo completo que va desde la "provisión de datos" hasta el "despliegue de modelos" y luego hasta la "llamada de reparto de beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programación, se puede ajustar y entrenar modelos personalizados utilizando LoRA basado en LLM de código abierto y desplegarlos;
OpenLoRA: admite la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): a través de registros de llamadas en la cadena se logra la medición de contribuciones y la distribución de recompensas;
Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es composable, callable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos que se pueden combinar, promoviendo la on-chainización de la cadena de valor de la IA.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y baja tarifa de ejecución;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente sobre Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA generales como NEAR, que están más orientadas a la capa base y se centran en la soberanía de datos y la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir cadenas de IA específicas orientadas a incentivos de datos y modelos, comprometida a lograr que el desarrollo y la invocación de modelos se realicen en la cadena, permitiendo un ciclo de valor que sea rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando alojamiento de modelos, facturación de uso e interfaces combinables en la cadena, impulsando el camino hacia la realización de «modelos como activos».
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar los modelos basándose en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyo proceso central incluye:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM de vanguardia (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
Ajuste liviano: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue del modelo: herramienta de evaluación integrada, soporta la exportación para despliegue o llamadas compartidas en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
Generación de RAG con trazabilidad: Responder con referencias de origen, mejorando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino del modelo, evaluación y despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelo integrada que sea segura y controlable, con interacciones en tiempo real y sostenibilidad en la monetización.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
LLaMA Serie: el ecosistema más amplio, comunidad activa y rendimiento general fuerte, es uno de los modelos base de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, rendimiento de inferencia excepcional, adecuado para escenarios con despliegue flexible y recursos limitados.
Qwen: Producto de Alibaba, con un excelente rendimiento en tareas en chino, gran capacidad integral, ideal para ser la primera opción para desarrolladores nacionales.
ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: Se desempeña de manera superior en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: modelo ligero lanzado por Google, con una estructura clara, fácil de comenzar rápidamente y experimentar.
Falcon: Era un referente de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura de idioma.
GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está obsoleta, sino que se basa en configuraciones "prioritarias en la práctica" hechas a partir de las restricciones reales de implementación en cadena (costo de inferencia, adaptación de RAG, compatibilidad de LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas como bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
Para los usuarios: se pueden combinar modelos o agentes como si se estuviera llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Low-Rank Adaptation) es un método eficiente de ajuste fino de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un gran modelo preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales o consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del gran modelo original y solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste fino más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar problemas comunes en el despliegue de modelos de IA, como altos costos, baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
El componente central de la arquitectura del sistema OpenLoRA, basado en un diseño modular, cubre aspectos clave como el almacenamiento de modelos, la ejecución de inferencias y el enrutamiento de solicitudes, logrando capacidades de implementación y llamada de múltiples modelos de manera eficiente y de bajo costo:
Módulo de almacenamiento de LoRA Adapter ( Almacenamiento de adaptadores LoRA ): el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video, ahorrando recursos.
Modelo de Alojamiento y Capa de Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos de ajuste fino comparten el modelo base (base model), durante la inferencia se fusionan dinámicamente los adaptadores LoRA, soportando la inferencia conjunta de múltiples adaptadores (ensemble), mejorando el rendimiento.
Motor de Inferencia (Inference Engine): integra varias tecnologías de optimización CUDA, como Flash-Attention, Paged-Attention y SGMV.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Republicar
Compartir
Comentar
0/400
AirdropHunterWang
· 08-14 03:44
¿Esta ola se va a especular hasta 2025?
Ver originalesResponder0
OldLeekMaster
· 08-14 03:44
Ya vamos a especular y recoger ganancias.
Ver originalesResponder0
ParallelChainMaxi
· 08-14 03:43
¡Eh, la narrativa en capas ha vuelto!
Ver originalesResponder0
GateUser-aa7df71e
· 08-14 03:41
Otra vez hay gente hablando de la IA, y ya están hablando de 2025 antes de que llegue 2024, también son alcistas.
Ver originalesResponder0
NonFungibleDegen
· 08-14 03:21
ser este ai x opstack play me tiene alcista af... probablemente nada pero estoy metiéndome duro rn
OpenLedger construye una cadena de incentivos para modelos de IA sobre la base de OP Stack y EigenDA.
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Uno, Introducción | La transición del nivel de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), todos ellos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha desplazado gradualmente hacia la capa de modelos y datos, marcando que Crypto AI está pasando de la competencia por recursos básicos a una construcción de capa media más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que utiliza un modelo base reutilizable, normalmente basado en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimiento en campos específicos, lo que reduce significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que SLM no se integrará en el peso de LLM, sino que colaborará con LLM a través de la llamada arquitectura de agente, el sistema de plugins para el enrutamiento dinámico, la inserción en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, a través de módulos de ajuste fino, mejora el desempeño profesional, formando un sistema inteligente combinado de alta flexibilidad.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que
Sin embargo, sobre modelos fundamentales de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través del ajuste fino de modelos de lenguaje especializados (SLM), y combinando la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Por lo tanto, es evidente que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de AI.
La cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo, participar en la formulación y iteración de reglas mediante votación con tokens, mejorando la estructura de gobernanza descentralizada.
Dos, visión del proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue pionero en la propuesta del concepto "Payable AI", con el objetivo de construir un entorno de operación de AI justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en la cadena según su contribución real.
OpenLedger ofrece un ciclo completo que va desde la "provisión de datos" hasta el "despliegue de modelos" y luego hasta la "llamada de reparto de beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos que se pueden combinar, promoviendo la on-chainización de la cadena de valor de la IA.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA generales como NEAR, que están más orientadas a la capa base y se centran en la soberanía de datos y la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir cadenas de IA específicas orientadas a incentivos de datos y modelos, comprometida a lograr que el desarrollo y la invocación de modelos se realicen en la cadena, permitiendo un ciclo de valor que sea rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando alojamiento de modelos, facturación de uso e interfaces combinables en la cadena, impulsando el camino hacia la realización de «modelos como activos».
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar los modelos basándose en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino del modelo, evaluación y despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelo integrada que sea segura y controlable, con interacciones en tiempo real y sostenibilidad en la monetización.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está obsoleta, sino que se basa en configuraciones "prioritarias en la práctica" hechas a partir de las restricciones reales de implementación en cadena (costo de inferencia, adaptación de RAG, compatibilidad de LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas como bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Low-Rank Adaptation) es un método eficiente de ajuste fino de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un gran modelo preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales o consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del gran modelo original y solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste fino más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar problemas comunes en el despliegue de modelos de IA, como altos costos, baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
El componente central de la arquitectura del sistema OpenLoRA, basado en un diseño modular, cubre aspectos clave como el almacenamiento de modelos, la ejecución de inferencias y el enrutamiento de solicitudes, logrando capacidades de implementación y llamada de múltiples modelos de manera eficiente y de bajo costo: