تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
أولاً، المقدمة | قفزة نموذج Crypto AI في الطبقة
البيانات والنماذج والطاقة الحاسوبية هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ويمكن تشبيهها بالوقود (البيانات) والمحرك (النموذج) والطاقة (الطاقة الحاسوبية) التي لا يمكن الاستغناء عن أي منها. على غرار مسار تطور بنية الصناعة التقليدية للذكاء الاصطناعي، مرّ مجال الذكاء الاصطناعي المشفر أيضًا بمراحل مماثلة. في أوائل عام 2024، سيطر سوق مشاريع وحدات معالجة الرسوميات اللامركزية، مع التأكيد العام على منطق النمو الواسع لـ "تجميع القدرة الحاسوبية". ومع دخول عام 2025، انتقلت تركيزات الصناعة تدريجياً إلى طبقة النموذج والبيانات، مما يدل على أن الذكاء الاصطناعي المشفر يتجه من المنافسة على الموارد الأساسية إلى بناء طبقات وسطى أكثر استدامة وقيمة تطبيقية.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات بيانات ضخمة وهياكل موزعة معقدة، حيث يتراوح حجم المعلمات بين 70B و500B، وغالبًا ما تصل تكلفة التدريب مرة واحدة إلى مئات الآلاف من الدولارات. بينما يُعتبر نموذج اللغة المتخصص (SLM) نموذجًا خفيف الوزن قائمًا على ضبط دقيق يمكن إعادة استخدامه، وعادةً ما يستند إلى نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، جنبًا إلى جنب مع كمية قليلة من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات محددة بسرعة، مما يقلل بشكل كبير من تكلفة التدريب والعقبات التقنية.
من المهم ملاحظة أن SLM لن يتم دمجه في أوزان LLM، بل سيتم التعاون مع LLM من خلال استدعاء هيكل الوكيل، ونظام الإضافات للتوجيه الديناميكي، وإمكانية توصيل وحدات LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها. يحتفظ هذا الهيكل بقدرة LLM الواسعة الانتشار، بينما يعزز الأداء المتخصص من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تحسين القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
عائق تقنية مرتفع للغاية: حجم البيانات، وموارد الحوسبة، والقدرات الهندسية اللازمة لتدريب نموذج الأساس ضخمة للغاية، و حالياً فقط بعض عمالقة التكنولوجيا مثل الولايات المتحدة والصين يمتلكون القدرة المناسبة.
قيود النظام البيئي المفتوح المصدر: على الرغم من أن النماذج الأساسية السائدة مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النماذج نحو الاختراق لا يزال يتركز في المؤسسات البحثية ونظام الهندسة المغلقة، وتكون مساحة المشاركة للمشاريع على السلسلة في مستوى النموذج الأساسي محدودة.
ومع ذلك، على الرغم من نماذج الأساس مفتوحة المصدر، لا يزال بإمكان مشروع Crypto AI تحقيق قيمة مضافة من خلال ضبط نماذج اللغة المتخصصة (SLM) ودمج قابلية التحقق وآلية التحفيز الخاصة بـ Web3. كـ "طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، يتجلى ذلك في اتجاهين رئيسيين:
طبقة التحقق الموثوقة: من خلال تسجيل مسارات توليد النماذج، ومساهمات البيانات، واستخدامها على السلسلة، تعزز من إمكانية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
آلية التحفيز: من خلال استخدام الرمز الأصلي، يتم تحفيز سلوكيات مثل تحميل البيانات، واستدعاء النماذج، وتنفيذ الوكلاء، لبناء دورة إيجابية للتدريب على النماذج والخدمات.
تصنيف أنواع نماذج AI وتحليل ملاءمة blockchain
يتضح من ذلك أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع النموذج تتركز بشكل أساسي على التحسين الخفيف لنماذج SLM الصغيرة، وإدخال البيانات والتحقق من البيانات على السلسلة من خلال بنية RAG، وكذلك النشر المحلي لنماذج Edge والتحفيز. من خلال الجمع بين قابلية التحقق من blockchain وآلية التوكن، يمكن أن توفر Crypto قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة لطبقة واجهة AI.
سلسلة blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وسجل غير قابل للتغيير مصدر مساهمة كل بيانات ونماذج، مما يعزز بشكل ملحوظ موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تحفيز توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز والمشاركة في وضع القواعد والتكرار، مما يحسن هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي على السلسلة
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على آليات تحفيز البيانات والنماذج. لقد قدمت مفهوم "Payable AI" الرائد، بهدف بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات، ومطوري النماذج، وبناة تطبيقات AI على التعاون في نفس المنصة، والحصول على مكافآت على السلسلة بناءً على المساهمات الفعلية.
OpenLedger تقدم حلقة مغلقة كاملة تتراوح من "توفير البيانات" إلى "نشر النموذج" ثم "استدعاء توزيع الأرباح"، تشمل وحداتها الأساسية:
مصنع النموذج:بدون الحاجة إلى البرمجة، يمكنك استخدام LLM مفتوح المصدر لتدريب وتخصيص نموذج باستخدام LoRA.
OpenLoRA: يدعم التعايش بين الآلاف من النماذج، التحميل الديناميكي عند الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): قياس المساهمة وتوزيع المكافآت من خلال سجلات الاستدعاء على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات محددة، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز تحول سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، قامت OpenLedger بتوفير OP Stack + EigenDA كأساس، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
مبني على OP Stack: يعتمد على تقنية Optimism، يدعم التنفيذ عالي الإنتاجية ومنخفض التكلفة؛
التسوية على الشبكة الرئيسية للإيثيريوم: تأكد من أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع التطبيقات بسرعة باستخدام Solidity؛
EigenDA توفر دعم قابلية استخدام البيانات: خفض تكاليف التخزين بشكل ملحوظ، وضمان قابلية التحقق من البيانات.
بالمقارنة مع NEAR، التي تركز أكثر على البنية التحتية الأساسية وتدعم سيادة البيانات و "عملاء الذكاء الاصطناعي على BOS"، تركز OpenLedger بشكل أكبر على بناء سلسلة ذكاء اصطناعي مخصصة تركز على تحفيز البيانات والنماذج، وتهدف إلى تحقيق قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة في تطوير النماذج واستخدامها على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
٣، المكونات الأساسية والتقنية لـ OpenLedger
3.1 نموذج المصنع ،无需代码 نموذج المصنع
ModelFactory هو منصة لضبط النموذج اللغوي الكبير (LLM) تحت نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعات البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، ونشره، حيث تشمل العمليات الأساسية ما يلي:
التحكم في الوصول إلى البيانات: يقوم المستخدم بتقديم طلب البيانات، ويقوم المزود بمراجعته والموافقة عليه، وتدخل البيانات تلقائيًا إلى واجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الرائجة (مثل LLaMA، Mistral)، من خلال واجهة المستخدم الرسومية لتكوين الفائض.
خفيفة الوزن微调: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الفعلي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة الاستدعاء في النظام البيئي.
واجهة التحقق التفاعلية: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
توليد تتبع RAG: إجابات مع اقتباسات للمصدر، لتعزيز الثقة وقابلية التدقيق.
تتضمن بنية نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، وأذونات البيانات، وضبط النموذج، وتقييم النشر وRAG، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق الدخل.
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory هو كما يلي:
سلسلة LLaMA: الأكثر انتشارًا في النظام البيئي، مجتمع نشط، أداء عام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
Mistral: هيكل فعال، أداء استنتاج ممتاز، مناسب للنشر في سيناريوهات مرنة وموارد محدودة.
Qwen: منتج من علي بابا، أداء ممتاز في المهام باللغة الصينية، قدرة شاملة قوية، مناسب ليكون الخيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء في المجالات المحددة والمشاهد المحلية.
Deepseek: يتميز بأداء ممتاز في توليد الشيفرة والتفكير الرياضي، مناسب لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف تقدمه Google، هيكلها واضح، وسهل الاستخدام والتجربة بسرعة.
فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب لأبحاث تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، ولا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة النماذج، إلا أن استراتيجيتها ليست متخلفة، بل تم إعدادها بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM) مع تكوين «الأولوية العملية».
تعتبر Model Factory كأداة بدون كود، حيث تم دمج آلية إثبات المساهمة في جميع النماذج، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بعتبة دخول منخفضة، وقابلية للتسييل والتركيب، بالمقارنة مع أدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل للنماذج من الحضانة، التوزيع، والإيرادات؛
بالنسبة للمنصة: تشكيل نموذج لتداول الأصول والتنوع البيئي؛
للمستخدمين: يمكن دمج النماذج أو الوكلاء كما هو الحال عند استدعاء واجهة برمجة التطبيقات.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA، أصول السلسلة على نموذج ضبط دقيق
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، من خلال إدراج "مصفوفة منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الأسئلة القانونية، الاستشارة الطبية)، تحتاج إلى ضبط (ضبط دقيق). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفة المعلمات الجديدة المدخلة."، حيث إن معلماتها فعالة، وتدريبها سريع، ونشرها مرن، مما يجعلها الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن مصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد، تم إنشاؤه بواسطة OpenLedger. الهدف الأساسي منه هو حل المشاكل الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
OpenLoRA هي مكون أساسي في هيكل النظام، مبنية على تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، لتحقيق قدرة نشر واستدعاء متعددة النماذج بكفاءة وتكلفة منخفضة:
وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدلة على OpenLedger، مما يتيح تحميلها عند الطلب، وتجنب تحميل جميع النماذج مسبقًا في الذاكرة، مما يوفر الموارد.
استضافة النموذج وطبقة دمج الموصل (Model Hosting & Adapter Merging Layer) : تشترك جميع نماذج التعديل الدقيق في نموذج أساسي (base model) ، ويتم دمج موصل LoRA ديناميكيًا أثناء الاستدلال ، مما يدعم استدلال عدة موصلات بالتزامن (ensemble) ، مما يعزز الأداء.
محرك الاستنتاج (Inference Engine): دمج تقنيات تحسين CUDA متعددة مثل Flash-Attention و Paged-Attention و SGMV.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
5
إعادة النشر
مشاركة
تعليق
0/400
AirdropHunterWang
· 08-14 03:44
هل ستحصل هذه الموجة على ضجة حتى عام 2025؟
شاهد النسخة الأصليةرد0
OldLeekMaster
· 08-14 03:44
مرة أخرى نحتاج إلى تداول المفاهيم لكسب المال
شاهد النسخة الأصليةرد0
ParallelChainMaxi
· 08-14 03:43
ها قد عادت السرديات المتعددة الطبقات
شاهد النسخة الأصليةرد0
GateUser-aa7df71e
· 08-14 03:41
مرة أخرى هناك من يتحدث عن الذكاء الاصطناعي، حتى قبل عام 2024 لم يصلوا بعد للحديث عن عام 2025، وهذا أيضاً ثور.
شاهد النسخة الأصليةرد0
NonFungibleDegen
· 08-14 03:21
سير هذا الذكاء الاصطناعي x اوبستاك اللعب جعلني صاعد جداً... ربما لا شيء لكنني أستثمر بشدة الآن
OpenLedger تبني نموذج حوافز سلسلة الذكاء الاصطناعي باستخدام OP Stack و EigenDA كأساس
تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
أولاً، المقدمة | قفزة نموذج Crypto AI في الطبقة
البيانات والنماذج والطاقة الحاسوبية هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ويمكن تشبيهها بالوقود (البيانات) والمحرك (النموذج) والطاقة (الطاقة الحاسوبية) التي لا يمكن الاستغناء عن أي منها. على غرار مسار تطور بنية الصناعة التقليدية للذكاء الاصطناعي، مرّ مجال الذكاء الاصطناعي المشفر أيضًا بمراحل مماثلة. في أوائل عام 2024، سيطر سوق مشاريع وحدات معالجة الرسوميات اللامركزية، مع التأكيد العام على منطق النمو الواسع لـ "تجميع القدرة الحاسوبية". ومع دخول عام 2025، انتقلت تركيزات الصناعة تدريجياً إلى طبقة النموذج والبيانات، مما يدل على أن الذكاء الاصطناعي المشفر يتجه من المنافسة على الموارد الأساسية إلى بناء طبقات وسطى أكثر استدامة وقيمة تطبيقية.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات بيانات ضخمة وهياكل موزعة معقدة، حيث يتراوح حجم المعلمات بين 70B و500B، وغالبًا ما تصل تكلفة التدريب مرة واحدة إلى مئات الآلاف من الدولارات. بينما يُعتبر نموذج اللغة المتخصص (SLM) نموذجًا خفيف الوزن قائمًا على ضبط دقيق يمكن إعادة استخدامه، وعادةً ما يستند إلى نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، جنبًا إلى جنب مع كمية قليلة من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات محددة بسرعة، مما يقلل بشكل كبير من تكلفة التدريب والعقبات التقنية.
من المهم ملاحظة أن SLM لن يتم دمجه في أوزان LLM، بل سيتم التعاون مع LLM من خلال استدعاء هيكل الوكيل، ونظام الإضافات للتوجيه الديناميكي، وإمكانية توصيل وحدات LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها. يحتفظ هذا الهيكل بقدرة LLM الواسعة الانتشار، بينما يعزز الأداء المتخصص من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تحسين القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
ومع ذلك، على الرغم من نماذج الأساس مفتوحة المصدر، لا يزال بإمكان مشروع Crypto AI تحقيق قيمة مضافة من خلال ضبط نماذج اللغة المتخصصة (SLM) ودمج قابلية التحقق وآلية التحفيز الخاصة بـ Web3. كـ "طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، يتجلى ذلك في اتجاهين رئيسيين:
تصنيف أنواع نماذج AI وتحليل ملاءمة blockchain
يتضح من ذلك أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع النموذج تتركز بشكل أساسي على التحسين الخفيف لنماذج SLM الصغيرة، وإدخال البيانات والتحقق من البيانات على السلسلة من خلال بنية RAG، وكذلك النشر المحلي لنماذج Edge والتحفيز. من خلال الجمع بين قابلية التحقق من blockchain وآلية التوكن، يمكن أن توفر Crypto قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة لطبقة واجهة AI.
سلسلة blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وسجل غير قابل للتغيير مصدر مساهمة كل بيانات ونماذج، مما يعزز بشكل ملحوظ موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تحفيز توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز والمشاركة في وضع القواعد والتكرار، مما يحسن هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي على السلسلة
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على آليات تحفيز البيانات والنماذج. لقد قدمت مفهوم "Payable AI" الرائد، بهدف بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات، ومطوري النماذج، وبناة تطبيقات AI على التعاون في نفس المنصة، والحصول على مكافآت على السلسلة بناءً على المساهمات الفعلية.
OpenLedger تقدم حلقة مغلقة كاملة تتراوح من "توفير البيانات" إلى "نشر النموذج" ثم "استدعاء توزيع الأرباح"، تشمل وحداتها الأساسية:
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز تحول سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، قامت OpenLedger بتوفير OP Stack + EigenDA كأساس، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
بالمقارنة مع NEAR، التي تركز أكثر على البنية التحتية الأساسية وتدعم سيادة البيانات و "عملاء الذكاء الاصطناعي على BOS"، تركز OpenLedger بشكل أكبر على بناء سلسلة ذكاء اصطناعي مخصصة تركز على تحفيز البيانات والنماذج، وتهدف إلى تحقيق قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة في تطوير النماذج واستخدامها على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
٣، المكونات الأساسية والتقنية لـ OpenLedger
3.1 نموذج المصنع ،无需代码 نموذج المصنع
ModelFactory هو منصة لضبط النموذج اللغوي الكبير (LLM) تحت نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعات البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، ونشره، حيث تشمل العمليات الأساسية ما يلي:
تتضمن بنية نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، وأذونات البيانات، وضبط النموذج، وتقييم النشر وRAG، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق الدخل.
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory هو كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة النماذج، إلا أن استراتيجيتها ليست متخلفة، بل تم إعدادها بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM) مع تكوين «الأولوية العملية».
تعتبر Model Factory كأداة بدون كود، حيث تم دمج آلية إثبات المساهمة في جميع النماذج، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بعتبة دخول منخفضة، وقابلية للتسييل والتركيب، بالمقارنة مع أدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA، أصول السلسلة على نموذج ضبط دقيق
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، من خلال إدراج "مصفوفة منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الأسئلة القانونية، الاستشارة الطبية)، تحتاج إلى ضبط (ضبط دقيق). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفة المعلمات الجديدة المدخلة."، حيث إن معلماتها فعالة، وتدريبها سريع، ونشرها مرن، مما يجعلها الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن مصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد، تم إنشاؤه بواسطة OpenLedger. الهدف الأساسي منه هو حل المشاكل الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
OpenLoRA هي مكون أساسي في هيكل النظام، مبنية على تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، لتحقيق قدرة نشر واستدعاء متعددة النماذج بكفاءة وتكلفة منخفضة: