Protocolo NEAR: Haciendo que la IA sea Transparente y Verificable

5 min read

La Inteligencia Artificial (IA) ha traído importantes avances, cambiando la forma en que trabajamos, aprendemos e interactuamos con la tecnología. Pero a medida que la IA se vuelve más avanzada, también lo hacen las preocupaciones en torno a la confianza, transparencia y control. La mayoría de las personas confían en sistemas cerrados administrados por grandes empresas, con poco conocimiento sobre cómo se toman las decisiones o cómo se manejan los datos personales. Esa falta de visibilidad plantea importantes preguntas sobre precisión, responsabilidad y privacidad.

NEAR Protocol toma un camino diferente, combinando la IA con la transparencia de la cadena de bloques. El resultado es una IA que no solo es poderosa, sino también abierta, auditiva y construida en torno al control del usuario. Veamos más de cerca cómo NEAR está haciendo esto posible.

Por qué es importante la IA verificable

Muchas de las herramientas de IA más populares de hoy en día, como GPT-4 o Claude, funcionan como cajas negras. Les das una indicación y te dan una respuesta, pero no puedes ver cómo llegaron a esa conclusión. No sabes qué datos utilizaron, cómo se procesaron o si puedes confiar en el resultado. Aquí es donde entra en juego el concepto de IA verificable: sistemas que son abiertos sobre cómo funcionan y que permiten a cualquiera verificar y confirmar sus resultados.

La misión de NEAR es construir una IA en la que los usuarios puedan confiar, una IA que sea abierta por diseño y donde tanto los procesos como los resultados puedan ser verificados de forma independiente.

Construyendo una IA transparente en NEAR

Una parte clave de este esfuerzo es el centro de IA descentralizado de NEAR, disponible en NEAR.ai. Aquí, cada agente de IA está vinculado a una cuenta NEAR. Esto hace que cada interacción sea rastreable y que cada decisión esté abierta a inspección.

Tomemos como ejemplo al asistente de IA de Learn NEAR Club, llamado (L)Earn AI🕺. No solo da respuestas, sino que muestra cómo funciona. Los usuarios pueden verificar su código fuente, indicaciones, filtros y el modelo exacto que está ejecutando. Nada está oculto. Ese nivel de transparencia permite a las personas confiar en la herramienta o incluso personalizarla para que se adapte mejor a sus necesidades.

NEAR también apoya modelos de IA de código abierto, lo que significa que cualquiera puede verificar qué modelo está utilizando un agente y asegurarse de que no haya sido cambiado secretamente.

Ejemplo: IA de verificación de hechos en Learn NEAR Club

Un caso de uso destacado es el Agente de Verificación de Hechos desarrollado por Learn NEAR Club (LNC). Esta herramienta ayuda a los usuarios a verificar afirmaciones, como las que se encuentran en las redes sociales, accediendo a una base de conocimientos verificada respaldada por NEAR.

Así es como funciona:

– Entrada del usuario: Envías una afirmación y de dónde proviene.
– Verificación: El agente utiliza RAG (Generación Aumentada por Recuperación) para buscar información confiable en la base de datos de LNC alimentada por XTrace.
– Resultado: Responde con un juicio claro (válido o inválido), respaldado por referencias (próximamente).
– Retroalimentación: Puedes estar de acuerdo, señalar un error o sugerir mejoras, ganando tokens nLEARN cuando ayudas a identificar información faltante.

Esto crea un ciclo donde la IA se vuelve más inteligente y la comunidad ayuda a mantenerla responsable.

nStamp: Prueba en la cadena de bloques

Para hacer las cosas aún más verificables, NEAR ofrece nStamp, una forma de anclar las salidas de la IA en la cadena. Cuando un agente da una respuesta, puedes “estamparla” en la cadena de bloques. Esto crea un hash (una huella digital) vinculado a la cuenta de NEAR que lo produjo, junto con una marca de tiempo.

Más tarde, cualquiera puede verificar ese sello para confirmar que la salida no ha sido modificada. Si los datos coinciden, el resultado se prueba auténtico, hasta el segundo en que se verificó.

Por qué es importante

En un mundo en línea lleno de desinformación, estas herramientas marcan una diferencia real. Ya sea que seas un estudiante, investigador o simplemente alguien que intenta verificar una publicación viral, NEAR te brinda el poder de validar hechos rápidamente y confiar en los resultados. Este modelo de “IA verificable” pone a los usuarios en primer lugar al hacer que cada paso del proceso sea transparente.

Regla de Karpathy: “Mantén la IA bajo control”.

En la Escuela de Startups de IA de YC en junio de 2025, el experto en IA Andrej Karpathy lo dijo claramente: “Mantén la IA bajo estricto control”. Argumentó que los productos de IA del mundo real necesitan verificación constante, no solo demostraciones impresionantes. Para él, un sistema confiable es aquel en el que cada respuesta se combina con una verificación rápida, a menudo por un segundo modelo o humano.

El enfoque de NEAR sigue al pie de la letra ese consejo. Con Fact-Check de LNC y nStamp, cada resultado generado por IA recibe una verificación de seguimiento y una oportunidad de ser bloqueado en la cadena de bloques. Esa es la “bucle de generación-verificación” en acción.


Pruébalo por ti mismo

Esto no es un concepto futuro, está en vivo ahora. Puedes probar la IA de Fact-Check en el sitio web de LNC, enviar una reclamación, verificar un resultado y sellarlo en la cadena. Es una forma práctica de ver cómo la cadena de bloques y la IA pueden trabajar juntas para construir confianza, una hecho verificado a la vez.

Updated: julio 23, 2025

Deja un comentario


To leave a comment you should to:


Ir arriba