Mira мережа: створення рівня довіри AI для вирішення проблеми ілюзій та упереджень

Довірчий рівень ШІ: як мережа Mira вирішує проблеми ілюзій та упереджень в штучному інтелекті

Нещодавно запустилася публічна тестова мережа під назвою Mira, метою якої є створення надійного базового шару для штучного інтелекту. Цей інноваційний проект має на меті вирішити одну з важливих проблем, з якою стикаються сучасні технології ШІ: як зменшити "галюцинації" та упередження в результатах ШІ, щоб підвищити його надійність.

Обговорюючи ШІ, люди часто більше зосереджуються на його потужних можливостях, а недостатньо звертають увагу на проблему "ілюзій" або упереджень, що існують у ШІ. Так звані "ілюзії" ШІ, простими словами, означають, що іноді ШІ з упевненістю вигадує на вигляд розумні, але насправді повністю хибні дані. Наприклад, коли його запитують, чому місяць рожевий, ШІ може надати цілу низку пояснень, які звучать правдоподібно, хоча ці пояснення абсолютно вигадані.

Проблема, що виникає з AI, пов'язана з поточним технологічним шляхом. Генеративний AI зазвичай досягає зв'язності та раціональності, прогнозуючи "найімовірніший" контент, але цей підхід важко забезпечити правдивістю виходу. Крім того, навчальні дані можуть містити помилки, упередження чи навіть вигадані матеріали, що вплине на якість виходу AI. Іншими словами, AI вивчає мовні моделі людини, а не чисті факти.

Такі упереджені або ілюзорні результати можуть тимчасово не мати серйозних наслідків у загальних знаннях або розважальних сферах, але в таких областях, як медицина, право, авіація, фінанси, які вимагають високої точності, це може призвести до катастрофічних наслідків. Отже, вирішення проблеми ілюзій і упереджень в AI стало одним з основних викликів у процесі розвитку AI.

Проект Mira є рішенням цієї проблеми. Він має на меті зменшити упередженість та ілюзії в ШІ, підвищуючи його надійність шляхом створення довірчого шару для ШІ. Основна ідея Mira полягає в використанні консенсусу кількох моделей ШІ для перевірки виходу ШІ та валідації через децентралізований механізм консенсусу.

У мережевій архітектурі Mira контент спочатку перетворюється на незалежно перевіряємi заяви. Ці заяви потім перевіряються операторами вузлів у мережі. Щоб забезпечити справедливість процесу перевірки, Mira використовує механізми криптоекономічних стимулів і покарань, щоб заохотити операторів вузлів чесно брати участь.

Процес верифікації Mira складається з трьох основних етапів: перетворення змісту, розподілена верифікація та механізм консенсусу. По-перше, наданий клієнтом вміст розбивається на різні верифіковані заяви, які потім розподіляються серед вузлів у мережі для верифікації. Після завершення верифікації вузли підсумовують результати та досягають консенсусу, а в кінці повертають результати клієнту. Для захисту конфіденційності клієнта заяви розподіляються серед різних вузлів у випадковому порядку.

Оператори вузлів отримують прибуток, запускаючи модель валідації, обробляючи заяви та подаючи результати валідації. Ці доходи походять від вартості, створюваної мережею Mira для клієнтів, а саме - зниженням помилок ШІ в ключових областях. Щоб запобігти спекулятивній поведінці операторів вузлів, система карає тих, хто постійно відхиляється від консенсусу.

Інновація мережі Mira полягає в тому, що вона поєднує переваги кількох AI-моделей і децентралізованої верифікації консенсусу, пропонуючи новий підхід до підвищення надійності AI. Забезпечуючи клієнтів більш точними та надійними AI-послугами, Mira не тільки створює цінність для клієнтів, але й приносить прибуток учасникам мережі.

Наразі Mira вже встановила партнерські відносини з кількома відомими фреймворками AI агентів. З виходом публічної тестової мережі користувачі можуть випробувати перевірений AI-вихід через Klok (додаток для чату на базі LLM від Mira) і отримати можливість заробити бали Mira.

Розвиток проекту Mira безсумнівно надасть важливу підтримку для глибшого впровадження AI-додатків і, ймовірно, зіграє ключову роль у підвищенні надійності та довіри до AI.

AGENT-6.37%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 4
  • Поділіться
Прокоментувати
0/400
MidnightSellervip
· 08-03 10:17
Знову розганяють концепцію, обман для дурнів.
Переглянути оригіналвідповісти на0
ImaginaryWhalevip
· 08-03 10:17
Нехай AI не буде занадто спритним у словами
Переглянути оригіналвідповісти на0
PanicSeller69vip
· 08-03 10:07
А це... чи може штучний інтелект також закохуватися?
Переглянути оригіналвідповісти на0
All-InQueenvip
· 08-03 09:59
Ще один проект штучного інтелекту, який стоїть на основі загадки
Переглянути оригіналвідповісти на0
  • Закріпити