La couche de confiance de l'IA : Comment le réseau Mira résout les problèmes d'illusion et de biais de l'intelligence artificielle
Récemment, un réseau de test public nommé Mira a été officiellement lancé, visant à construire une couche de base fiable pour l'intelligence artificielle. Ce projet innovant vise à résoudre un défi important auquel la technologie AI est actuellement confrontée : comment réduire les "hallucinations" et les biais dans les sorties de l'IA, afin d'améliorer sa fiabilité.
Lorsqu'on parle de l'IA, les gens ont souvent tendance à se concentrer davantage sur ses puissantes capacités, tout en prêtant moins d'attention aux problèmes d'"hallucination" ou de biais qui existent dans l'IA. Ce que l'on appelle l'"hallucination" de l'IA se résume simplement au fait que l'IA peut parfois inventer avec une grande confiance des contenus qui semblent raisonnables mais qui sont en réalité totalement faux. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA pourrait fournir une série d'explications qui semblent logiques, bien que ces explications soient complètement fictives.
Le problème de l'IA est lié aux chemins technologiques actuels. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode peine à garantir la véracité des sorties. De plus, les données d'entraînement peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui affecte la qualité des sorties de l'IA. En d'autres termes, l'IA apprend les modèles de langage humain, et non des faits purs.
Une sortie biaisée ou illusoire peut ne pas avoir de conséquences graves dans des domaines de connaissances ou de divertissement ordinaires, mais dans des domaines où une grande rigueur est requise, comme la santé, le droit, l'aviation ou la finance, cela peut entraîner des résultats catastrophiques. Par conséquent, résoudre les problèmes d'illusions et de biais de l'IA est devenu l'un des défis centraux dans le processus de développement de l'IA.
Le projet Mira est une solution proposée pour ce problème. Il vise à réduire les biais et les hallucinations de l'IA en construisant une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. La philosophie centrale de Mira est d'utiliser le consensus de plusieurs modèles d'IA pour vérifier les sorties de l'IA et de procéder à la validation par un mécanisme de consensus décentralisé.
Dans l'architecture réseau de Mira, le contenu est d'abord converti en déclarations pouvant être vérifiées de manière indépendante. Ces déclarations sont ensuite vérifiées par les opérateurs de nœuds dans le réseau. Pour garantir l'équité du processus de vérification, Mira utilise des incitations économiques cryptographiques et des mécanismes de punition pour encourager les opérateurs de nœuds à participer honnêtement.
Le processus de validation de Mira comprend trois étapes principales : la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le contenu soumis par le client est décomposé en différentes déclarations vérifiables, qui sont ensuite distribuées aux nœuds du réseau pour validation. Une fois la validation terminée, le système compile les résultats et parvient à un consensus, avant de renvoyer le résultat au client. Afin de protéger la vie privée des clients, les déclarations sont distribuées à différents nœuds sous forme de fragments aléatoires.
Les opérateurs de nœuds obtiennent des profits en exécutant des modèles de validateurs, en traitant des déclarations et en soumettant des résultats de validation. Ces profits proviennent de la valeur créée par le réseau Mira pour les clients, à savoir la réduction du taux d'erreur de l'IA dans des domaines clés. Pour prévenir les comportements opportunistes des opérateurs de nœuds, le système sanctionne ceux qui s'écartent de manière persistante du consensus.
L'innovation du réseau Mira réside dans le fait qu'il combine les avantages de plusieurs modèles d'IA et de la validation de consensus décentralisée, offrant ainsi une nouvelle approche pour améliorer la fiabilité de l'IA. En fournissant des services d'IA plus précis et plus fiables aux clients, Mira peut non seulement créer de la valeur pour les clients, mais aussi apporter des bénéfices aux participants du réseau.
Actuellement, Mira a établi des partenariats avec plusieurs cadres d'agents AI renommés. Avec le lancement du réseau de test public, les utilisateurs peuvent expérimenter des sorties AI vérifiées via Klok (une application de chat LLM basée sur Mira) et avoir la chance de gagner des points Mira.
Le développement du projet Mira fournira sans aucun doute un soutien important à la promotion approfondie des applications IA, avec l'espoir de jouer un rôle clé dans l'amélioration de la fiabilité et de la crédibilité de l'IA.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
20 J'aime
Récompense
20
4
Partager
Commentaire
0/400
MidnightSeller
· 08-03 10:17
Encore une fois, on parle de concepts, c'est le rythme de se faire prendre pour des cons.
Voir l'originalRépondre0
ImaginaryWhale
· 08-03 10:17
Ne laissons pas l'IA devenir trop habile à manier les mots.
Réseau Mira : créer une couche de confiance AI pour résoudre les problèmes d'illusion et de biais
La couche de confiance de l'IA : Comment le réseau Mira résout les problèmes d'illusion et de biais de l'intelligence artificielle
Récemment, un réseau de test public nommé Mira a été officiellement lancé, visant à construire une couche de base fiable pour l'intelligence artificielle. Ce projet innovant vise à résoudre un défi important auquel la technologie AI est actuellement confrontée : comment réduire les "hallucinations" et les biais dans les sorties de l'IA, afin d'améliorer sa fiabilité.
Lorsqu'on parle de l'IA, les gens ont souvent tendance à se concentrer davantage sur ses puissantes capacités, tout en prêtant moins d'attention aux problèmes d'"hallucination" ou de biais qui existent dans l'IA. Ce que l'on appelle l'"hallucination" de l'IA se résume simplement au fait que l'IA peut parfois inventer avec une grande confiance des contenus qui semblent raisonnables mais qui sont en réalité totalement faux. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA pourrait fournir une série d'explications qui semblent logiques, bien que ces explications soient complètement fictives.
Le problème de l'IA est lié aux chemins technologiques actuels. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode peine à garantir la véracité des sorties. De plus, les données d'entraînement peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui affecte la qualité des sorties de l'IA. En d'autres termes, l'IA apprend les modèles de langage humain, et non des faits purs.
Une sortie biaisée ou illusoire peut ne pas avoir de conséquences graves dans des domaines de connaissances ou de divertissement ordinaires, mais dans des domaines où une grande rigueur est requise, comme la santé, le droit, l'aviation ou la finance, cela peut entraîner des résultats catastrophiques. Par conséquent, résoudre les problèmes d'illusions et de biais de l'IA est devenu l'un des défis centraux dans le processus de développement de l'IA.
Le projet Mira est une solution proposée pour ce problème. Il vise à réduire les biais et les hallucinations de l'IA en construisant une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. La philosophie centrale de Mira est d'utiliser le consensus de plusieurs modèles d'IA pour vérifier les sorties de l'IA et de procéder à la validation par un mécanisme de consensus décentralisé.
Dans l'architecture réseau de Mira, le contenu est d'abord converti en déclarations pouvant être vérifiées de manière indépendante. Ces déclarations sont ensuite vérifiées par les opérateurs de nœuds dans le réseau. Pour garantir l'équité du processus de vérification, Mira utilise des incitations économiques cryptographiques et des mécanismes de punition pour encourager les opérateurs de nœuds à participer honnêtement.
Le processus de validation de Mira comprend trois étapes principales : la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le contenu soumis par le client est décomposé en différentes déclarations vérifiables, qui sont ensuite distribuées aux nœuds du réseau pour validation. Une fois la validation terminée, le système compile les résultats et parvient à un consensus, avant de renvoyer le résultat au client. Afin de protéger la vie privée des clients, les déclarations sont distribuées à différents nœuds sous forme de fragments aléatoires.
Les opérateurs de nœuds obtiennent des profits en exécutant des modèles de validateurs, en traitant des déclarations et en soumettant des résultats de validation. Ces profits proviennent de la valeur créée par le réseau Mira pour les clients, à savoir la réduction du taux d'erreur de l'IA dans des domaines clés. Pour prévenir les comportements opportunistes des opérateurs de nœuds, le système sanctionne ceux qui s'écartent de manière persistante du consensus.
L'innovation du réseau Mira réside dans le fait qu'il combine les avantages de plusieurs modèles d'IA et de la validation de consensus décentralisée, offrant ainsi une nouvelle approche pour améliorer la fiabilité de l'IA. En fournissant des services d'IA plus précis et plus fiables aux clients, Mira peut non seulement créer de la valeur pour les clients, mais aussi apporter des bénéfices aux participants du réseau.
Actuellement, Mira a établi des partenariats avec plusieurs cadres d'agents AI renommés. Avec le lancement du réseau de test public, les utilisateurs peuvent expérimenter des sorties AI vérifiées via Klok (une application de chat LLM basée sur Mira) et avoir la chance de gagner des points Mira.
Le développement du projet Mira fournira sans aucun doute un soutien important à la promotion approfondie des applications IA, avec l'espoir de jouer un rôle clé dans l'amélioration de la fiabilité et de la crédibilité de l'IA.