Cheqd y ASI Alliance colaboran para resolver la crisis de identidad de la IA con credenciales verificables

Nueva asociación permite a los agentes de IA verificar sus identidades con credenciales en cadena, apuntando a construir confianza y reducir el fraude digital.

cheqd y ASI Alliance se unen para abordar la crisis de identidad de la IA con credenciales verificables

Conclusiones Clave

  • cheqd y ASI Alliance se asociaron para implementar la verificación criptogrĆ”fica de agentes de IA usando identificadores descentralizados y credenciales verificables.
  • La asociación permite que mĆ”s de 20 proyectos del ecosistema ASI emitan y autentiquen identidades de agentes de IA con componentes en cadena y fuera de cadena.

Compartir este artĆ­culo

El proveedor de infraestructura de identidad y confianza descentralizada cheqd se ha unido a The Artificial Superintelligence (ASI) Alliance para implementar credenciales verificables y comprobaciones de identidad criptográfica para agentes de IA a través de su ecosistema, anunciaron los equipos el viernes.

La asociación aborda la creciente crisis de identidad en el paisaje de agentes de IA, donde los agentes cada vez más autónomos y persuasivos están siendo adoptados rápidamente — se espera que el 25% de las empresas que utilizan IA generativa empleen agentes de IA para 2025, aumentando al 50% para 2027, con un mercado proyectado para crecer de 5.3–5.7 mil millones de dólares a 47.1 mil millones de dólares para 2030, según el Reporte de Predicciones Globales 2025 de Deloitte.

A pesar de este crecimiento, aún no existe una forma estándar de verificar quiénes son realmente o qué representan estos agentes. Como resultado, los usuarios quedan vulnerables a la suplantación, el fraude y la manipulación.

cheqd y The ASI Alliance pretenden abordar esto con un conjunto de herramientas de verificación descentralizadas impulsadas por cheqd, incluyendo identificadores descentralizados (DIDs), credenciales verificables (VCs) y Registros de Confianza.

Estos se integrarán en todo el ecosistema de ASI, permitiendo a más de 20 proyectos construidos sobre la infraestructura de ASI, incluyendo TrueAGI, Rejuve.AI, SophiaVerse, y SingularityVenturesHub, emitir identidades verificables en cadena para sus agentes de IA.

«A medida que los agentes de IA comienzan a actuar independientemente en diversas industrias, la confianza en su identidad es innegociable. Al incorporar identificadores descentralizados (DIDs), credenciales verificables (VCs) y Registros de Confianza en ASI1 y Agentverse. Estamos habilitando sistemas basados en agentes para realizar y estandarizar la autenticación criptográfica y establecer relaciones de confianza a gran escala,» dijo Fraser Edwards, cofundador de cheqd.

Cómo funciona

Cuando una organización o individuo despliega un agente de IA en la infraestructura de ASI Alliance, a ese agente se le asigna automáticamente un Identificador Descentralizado (DID). Este DID actúa como una huella digital única y a prueba de manipulaciones para el agente, anclada en cadena para transparencia y permanencia. Asegura que no dos agentes compartan la misma identidad y que cada uno pueda ser reconocido distintivamente a través de plataformas.

El creador del agente puede entonces emitir una credencial verificable vinculada al DID del agente. Esta credencial sirve como un certificado criptográfico que confirma la autorización del agente para actuar en nombre del emisor. Está firmada digitalmente usando la clave privada del emisor, permitiendo a cualquiera verificar independientemente su autenticidad y origen sin necesidad de confiar en una autoridad centralizada.

El Registro de Confianza de cheqd almacena referencias criptográficas a credenciales verificables. Al registrar solo metadatos esenciales en lugar de credenciales completas, permite a los usuarios verificar quién emitió una credencial, qué tipo es y si sigue siendo válida o ha sido revocada.

Todo esto ocurre tras bambalinas. Los usuarios finales no necesitarán entender blockchain o manejar claves criptográficas. Cuando interactúan con un agente de IA, el sistema subyacente verifica automáticamente la identidad y autorización del agente.

Este enfoque permite una confianza escalable y que preserva la privacidad en sistemas de IA, haciendo posible autenticar agentes autónomos en tiempo real mientras se mantiene la descentralización, transparencia y seguridad.

Compartir este artĆ­culo

Cargando...