La capa de confianza de la IA: cómo la red Mira aborda los problemas de ilusiones y sesgos en la inteligencia artificial
Recientemente, una red de prueba pública llamada Mira se lanzó oficialmente, cuyo objetivo es construir una capa base confiable para la inteligencia artificial. Este innovador proyecto tiene como objetivo abordar un desafío importante que enfrenta la tecnología de IA en la actualidad: cómo reducir las "ilusiones" y sesgos en las salidas de la IA, mejorando así su confiabilidad.
Al discutir la IA, a menudo las personas se centran más en su poderosa capacidad y prestan poca atención a los problemas de "ilusión" o sesgo que existen en la IA. La llamada "ilusión" de la IA, en términos simples, es que a veces la IA puede inventar contenido que parece razonable pero que en realidad es completamente erróneo con gran confianza. Por ejemplo, cuando se le pregunta por qué la luna es rosa, la IA puede proporcionar una serie de explicaciones que suenan razonables, aunque estas explicaciones son completamente ficticias.
El problema que presenta la IA está relacionado con la trayectoria tecnológica actual. La IA generativa suele lograr coherencia y razonabilidad al predecir el contenido "más probable", pero este método dificulta garantizar la veracidad de la salida. Además, los datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, y no hechos puros.
Este tipo de salida sesgada o ilusoria puede no tener consecuencias graves en campos de conocimiento general o entretenimiento, pero en áreas que requieren un alto grado de rigor, como la medicina, el derecho, la aviación y las finanzas, puede llevar a resultados catastróficos. Por lo tanto, abordar el problema de las ilusiones y sesgos de la IA se ha convertido en uno de los desafíos centrales en el proceso de desarrollo de la IA.
El proyecto Mira es una solución propuesta precisamente para este problema. A través de la construcción de una capa de confianza para la IA, busca reducir los sesgos y alucinaciones de la IA, mejorando su fiabilidad. La idea central de Mira es utilizar el consenso de múltiples modelos de IA para validar la salida de la IA y realizar la verificación a través de un mecanismo de consenso descentralizado.
En la arquitectura de red de Mira, el contenido se convierte primero en declaraciones verificables de manera independiente. Estas declaraciones son luego verificadas por los operadores de nodos en la red. Para garantizar la equidad del proceso de verificación, Mira emplea incentivos económicos criptográficos y mecanismos de penalización, animando a los operadores de nodos a participar de manera honesta.
El proceso de verificación de Mira incluye tres pasos principales: conversión de contenido, verificación distribuida y mecanismo de consenso. Primero, el contenido enviado por el cliente se descompone en diferentes declaraciones verificables, que luego se distribuyen a los nodos en la red para su verificación. Una vez que los nodos completan la verificación, el sistema resume los resultados y alcanza un consenso, devolviendo finalmente los resultados al cliente. Para proteger la privacidad del cliente, las declaraciones se distribuyen a diferentes nodos de manera aleatoria.
Los operadores de nodos obtienen ingresos al ejecutar modelos de validadores, procesar declaraciones y presentar resultados de validación. Estos ingresos provienen del valor que la red Mira crea para los clientes, es decir, la reducción de la tasa de errores de la IA en áreas clave. Para evitar que los operadores de nodos adopten comportamientos engañosos, el sistema penaliza a aquellos nodos que se desvían de manera continua del consenso.
La innovación de la red Mira radica en su combinación de múltiples modelos de IA y las ventajas de la verificación de consenso descentralizado, lo que ofrece una nueva solución para mejorar la fiabilidad de la IA. Al proporcionar servicios de IA más precisos y fiables a los clientes, Mira no solo puede crear valor para ellos, sino que también puede generar beneficios para los participantes de la red.
Actualmente, Mira ha establecido colaboraciones con varios marcos de agentes de IA conocidos. Con el lanzamiento de la red de pruebas pública, los usuarios pueden experimentar salidas de IA verificadas a través de Klok (una aplicación de chat LLM basada en Mira) y tener la oportunidad de ganar puntos Mira.
El desarrollo del proyecto Mira sin duda proporcionará un apoyo importante para la promoción en profundidad de las aplicaciones de IA, y se espera que desempeñe un papel clave en la mejora de la fiabilidad y credibilidad de la IA.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
20 me gusta
Recompensa
20
4
Compartir
Comentar
0/400
MidnightSeller
· 08-03 10:17
Otra vez vienen a hacer ruido con conceptos, el ritmo de tomar a la gente por tonta.
Ver originalesResponder0
ImaginaryWhale
· 08-03 10:17
Deja que la IA no sea tan hábil en el discurso evasivo.
Red Mira: crear una capa de confianza en IA para resolver los problemas de ilusión y sesgo
La capa de confianza de la IA: cómo la red Mira aborda los problemas de ilusiones y sesgos en la inteligencia artificial
Recientemente, una red de prueba pública llamada Mira se lanzó oficialmente, cuyo objetivo es construir una capa base confiable para la inteligencia artificial. Este innovador proyecto tiene como objetivo abordar un desafío importante que enfrenta la tecnología de IA en la actualidad: cómo reducir las "ilusiones" y sesgos en las salidas de la IA, mejorando así su confiabilidad.
Al discutir la IA, a menudo las personas se centran más en su poderosa capacidad y prestan poca atención a los problemas de "ilusión" o sesgo que existen en la IA. La llamada "ilusión" de la IA, en términos simples, es que a veces la IA puede inventar contenido que parece razonable pero que en realidad es completamente erróneo con gran confianza. Por ejemplo, cuando se le pregunta por qué la luna es rosa, la IA puede proporcionar una serie de explicaciones que suenan razonables, aunque estas explicaciones son completamente ficticias.
El problema que presenta la IA está relacionado con la trayectoria tecnológica actual. La IA generativa suele lograr coherencia y razonabilidad al predecir el contenido "más probable", pero este método dificulta garantizar la veracidad de la salida. Además, los datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, y no hechos puros.
Este tipo de salida sesgada o ilusoria puede no tener consecuencias graves en campos de conocimiento general o entretenimiento, pero en áreas que requieren un alto grado de rigor, como la medicina, el derecho, la aviación y las finanzas, puede llevar a resultados catastróficos. Por lo tanto, abordar el problema de las ilusiones y sesgos de la IA se ha convertido en uno de los desafíos centrales en el proceso de desarrollo de la IA.
El proyecto Mira es una solución propuesta precisamente para este problema. A través de la construcción de una capa de confianza para la IA, busca reducir los sesgos y alucinaciones de la IA, mejorando su fiabilidad. La idea central de Mira es utilizar el consenso de múltiples modelos de IA para validar la salida de la IA y realizar la verificación a través de un mecanismo de consenso descentralizado.
En la arquitectura de red de Mira, el contenido se convierte primero en declaraciones verificables de manera independiente. Estas declaraciones son luego verificadas por los operadores de nodos en la red. Para garantizar la equidad del proceso de verificación, Mira emplea incentivos económicos criptográficos y mecanismos de penalización, animando a los operadores de nodos a participar de manera honesta.
El proceso de verificación de Mira incluye tres pasos principales: conversión de contenido, verificación distribuida y mecanismo de consenso. Primero, el contenido enviado por el cliente se descompone en diferentes declaraciones verificables, que luego se distribuyen a los nodos en la red para su verificación. Una vez que los nodos completan la verificación, el sistema resume los resultados y alcanza un consenso, devolviendo finalmente los resultados al cliente. Para proteger la privacidad del cliente, las declaraciones se distribuyen a diferentes nodos de manera aleatoria.
Los operadores de nodos obtienen ingresos al ejecutar modelos de validadores, procesar declaraciones y presentar resultados de validación. Estos ingresos provienen del valor que la red Mira crea para los clientes, es decir, la reducción de la tasa de errores de la IA en áreas clave. Para evitar que los operadores de nodos adopten comportamientos engañosos, el sistema penaliza a aquellos nodos que se desvían de manera continua del consenso.
La innovación de la red Mira radica en su combinación de múltiples modelos de IA y las ventajas de la verificación de consenso descentralizado, lo que ofrece una nueva solución para mejorar la fiabilidad de la IA. Al proporcionar servicios de IA más precisos y fiables a los clientes, Mira no solo puede crear valor para ellos, sino que también puede generar beneficios para los participantes de la red.
Actualmente, Mira ha establecido colaboraciones con varios marcos de agentes de IA conocidos. Con el lanzamiento de la red de pruebas pública, los usuarios pueden experimentar salidas de IA verificadas a través de Klok (una aplicación de chat LLM basada en Mira) y tener la oportunidad de ganar puntos Mira.
El desarrollo del proyecto Mira sin duda proporcionará un apoyo importante para la promoción en profundidad de las aplicaciones de IA, y se espera que desempeñe un papel clave en la mejora de la fiabilidad y credibilidad de la IA.