Los agentes de IA dominaron ETHDenver 2026, desde finanzas autónomas hasta robótica on-chain. Pero mientras crece el entusiasmo alrededor de las “economías agénticas”, surge una pregunta más difícil: ¿pueden las instituciones demostrar con qué datos se entrenaron sus sistemas de IA?
Entre las startups que buscan resolver este problema está Perle Labs, que sostiene que los sistemas de IA necesitan una cadena verificable de custodia de sus datos de entrenamiento, especialmente en entornos regulados y de alto riesgo. Perle se enfoca en construir una infraestructura de datos auditable y certificada para instituciones, y hasta la fecha ha recaudado 17.5 millones de dólares, con su ronda más reciente de financiación liderada por Framework Ventures. Otros inversores incluyen a CoinFund, Protagonist, HashKey y Peer VC. La empresa informa que más de 1 millón de anotadores han contribuido con más de 1 mil millones de datos puntuados en su plataforma.
BeInCrypto habló con Ahmed Rashad, CEO de Perle Labs, en los pasillos de ETHDenver 2026. Rashad ocupó previamente un cargo de liderazgo operativo en Scale AI durante su fase de hipercrecimiento. En la conversación, comentó sobre la procedencia de los datos, el colapso de modelos, riesgos adversarios y por qué cree que la inteligencia soberana será un requisito previo para desplegar la IA en sistemas críticos.
BeInCrypto: Describes Perle Labs como la “capa de inteligencia soberana para IA”. Para lectores que no estén familiarizados con el debate sobre infraestructura de datos, ¿Qué significa eso en términos prácticos?
Ahmed Rashad: La palabra ‘soberana’ es deliberada y tiene varios aspectos.
El significado más literal es el control. Si eres un gobierno, un hospital, un contratista de defensa o una gran empresa que utiliza IA en un entorno crítico, necesitas ser dueño de la inteligencia detrás de ese sistema, no externalizarla a una “caja negra” que no puedes revisar ni auditar. Soberano significa que sabes con qué datos se entrenó tu IA, quién los validó y que puedes demostrarlo. Hoy, la mayoría de la industria no puede decir eso.
El segundo significado es la independencia, es decir, actuar sin interferencias externas. Esto es precisamente lo que necesitan instituciones como el Departamento de Defensa o una empresa cuando van a desplegar IA en entornos delicados. No puedes tener tu infraestructura crítica de IA dependiendo de flujos de datos que no controlas, no puedes verificar y no puedes proteger contra manipulaciones. No es un riesgo teórico. La NSA y CISA ya han emitido guía operativa sobre vulnerabilidades en la cadena de suministro de datos como un tema de seguridad nacional.
El tercer significado es la responsabilidad. Cuando la IA pasa de generar contenido a tomar decisiones médicas, financieras o militares, alguien tiene que poder responder: ¿De dónde sale esa inteligencia? ¿Quién la verificó? ¿Ese registro es permanente? En Perle, nuestro objetivo es que cada contribución de cada anotador experto quede registrada on-chain. No se puede reescribir. Esa inmutabilidad es lo que hace que la palabra ‘soberana’ sea precisa y no solo algo aspiracional.
En la práctica, estamos construyendo una capa de verificación y certificación. Si un hospital usa un sistema de diagnóstico con IA, debería poder rastrear cada dato del set de entrenamiento hasta el profesional certificado que lo validó. Eso es inteligencia soberana. Eso es lo que queremos decir.
BeInCrypto: Formaste parte de Scale AI durante su fase de hipercrecimiento, incluyendo grandes contratos de defensa y la inversión de Meta. ¿Qué te enseñó esa experiencia sobre dónde fallan los canales de datos tradicionales de IA?
Ahmed Rashad: Scale fue una empresa increíble. Estuve allí en el periodo en el que creció de 90 millones de dólares a ahora 29 mil millones de dólares, todo eso ocurrió y pude ver de primera mano dónde aparecen las grietas.
El problema fundamental es que calidad de datos y escala tiran en direcciones opuestas. Cuando creces 100x, la presión siempre es ir rápido: más datos, anotación más rápida y menor costo por etiqueta. Y lo que se pierde es precisión y responsabilidad. Terminas con flujos de datos opacos: sabes más o menos qué entró, tienes algunas métricas de calidad de lo que salió, pero el medio es una caja negra. ¿Quién validó esto? ¿Estaban realmente calificados? ¿La anotación fue consistente? Esas preguntas son casi imposibles de responder a gran escala con modelos tradicionales.
La segunda cosa que aprendí es que el elemento humano casi siempre se trata como un costo a minimizar, en lugar de una capacidad que desarrollar. El modelo transaccional de pagar por tarea y optimizar por cantidad de trabajo solo reduce la calidad con el tiempo. Se quema a los mejores colaboradores. Las personas que pueden aportar anotaciones realmente de alta calidad y expertas no son las mismas que se quedarán haciendo microtareas gamificadas por unos centavos. Hay que construir de manera diferente si quieres ese nivel de calidad.
Esa reflexión es la base de Perle. El problema de los datos no se resuelve solo añadiendo más mano de obra. Se resuelve tratando a los colaboradores como profesionales, incorporando certificaciones verificables en el sistema y haciendo que todo el proceso sea auditable de principio a fin.
BeInCrypto: Han llegado a 1 millón de anotadores y han puntuado más de 1 mil millones de datos. La mayoría de las plataformas de etiquetado de datos dependen de trabajo anónimo de multitudes. ¿En qué se diferencia estructuralmente su modelo de reputación?
Ahmed Rashad: La diferencia principal es que en Perle, tu historial de trabajo es tuyo y es permanente. Cuando completas una tarea, el registro de esa contribución, el nivel de calidad que alcanzó, cómo se compara con el consenso de expertos, todo queda registrado on-chain. No se puede editar, ni borrar, ni reasignar. Con el tiempo, eso se convierte en un certificado profesional que se acumula.
Compáralo con el trabajo anónimo, donde la persona es básicamente reemplazable. No tienen interés en la calidad, porque su reputación no existe, y cada tarea está desconectada de la anterior. La estructura de incentivos genera exactamente lo que se espera: el mínimo esfuerzo posible.
Nuestro modelo invierte eso. Los colaboradores crean trayectorias verificables. La plataforma reconoce la experiencia en un área. Por ejemplo, un radiólogo que produce de manera consistente anotaciones médicas de alta calidad crea un perfil que refleja eso. Esa reputación le da acceso a tareas de mayor valor, mejor compensación y trabajos más significativos. Es un círculo virtuoso: la calidad aumenta porque los incentivos lo premian.
Ya superamos los 1 mil millones de datos puntuados en nuestra red de anotadores. No es solo una cifra de volumen, son mil millones de contribuciones de datos rastreables y atribuidas a humanos verificados. Esa es la base de datos confiables de entrenamiento para IA, y es estructuralmente imposible de replicar con trabajo anónimo multitudinario.
BeInCrypto: El colapso de modelos se discute bastante en círculos de investigación, pero rara vez llega a las conversaciones mainstream sobre IA. ¿Por qué crees que es así, y debería preocupar a más gente?
Ahmed Rashad: No llega a las conversaciones mainstream porque es una crisis de movimiento lento, no algo dramático. El colapso de modelos, donde los sistemas de IA entrenados cada vez más sobre datos generados por IA empiezan a degradarse, pierden matices y tienden hacia la media, no genera titulares. Provoca una erosión gradual de la calidad que es fácil de ignorar hasta que es grave.
El mecanismo es sencillo: el internet se está llenando de contenido generado por IA. Los modelos entrenados con ese contenido aprenden de sus propios resultados en vez de conocimientos y experiencias humanas reales. Cada generación de entrenamiento amplifica las distorsiones de la anterior. Es un ciclo de retroalimentación sin corrección natural.
¿Debería preocuparse más gente? Sí, sobre todo en áreas críticas. Cuando el colapso de modelos afecta un algoritmo de recomendación de contenido, solo tendrás peores recomendaciones. Pero cuando afecta un modelo de diagnóstico médico, un sistema legal o una herramienta de inteligencia militar, las consecuencias son mucho más serias. Ya no hay margen para perder calidad.
Por eso la capa de datos verificados por humanos no es opcional a medida que la inteligencia artificial avanza hacia infraestructuras críticas. Se necesita una fuente continua de inteligencia humana genuina y diversa para entrenar los modelos; no salidas de IA recicladas por otro modelo. Tenemos más de un millón de anotadores que representan experiencia genuina en docenas de campos. Esa diversidad es el antídoto contra el colapso de los modelos. No se puede solucionar con datos sintéticos ni con más capacidad de cómputo.
BeInCrypto: Cuando la IA pase de entornos digitales a sistemas físicos, ¿Qué cambia fundamentalmente sobre el riesgo, la responsabilidad y los estándares aplicados a su desarrollo?
Ahmed Rashad: Lo que cambia es la irreversibilidad. Ese es el punto clave. Un modelo de lenguaje que alucina da una respuesta incorrecta. Puedes corregirla, marcarla, seguir adelante. Pero un sistema quirúrgico robótico que actúa sobre una inferencia equivocada, un vehículo autónomo que comete una mala clasificación, un dron que actúa sobre un objetivo mal identificado, esos errores no tienen botón de deshacer. El costo de fallar pasa de ser vergonzoso a ser catastrófico.
Eso lo cambia todo respecto a qué estándares se deben aplicar. En entornos digitales, se ha permitido que el desarrollo de la IA avance rápido y se autocorrija. En sistemas físicos, ese modelo no es sostenible. Los datos de entrenamiento detrás de estos sistemas deben ser verificados antes de su despliegue, no auditados después de un incidente.
También cambia la responsabilidad. En un contexto digital, es relativamente fácil diluir la responsabilidad: ¿fue el modelo?, ¿los datos?, ¿el despliegue? En los sistemas físicos, especialmente si hay personas que resultan afectadas, los reguladores y tribunales exigirán respuestas claras. ¿Quién entrenó esto? ¿Con qué datos? ¿Quién validó esos datos y bajo qué estándares? Las empresas y gobiernos que puedan responder a esas preguntas serán los que podrán operar. Los que no, enfrentarán responsabilidades que no anticiparon.
Construimos Perle precisamente para esta transición. Verificado por humanos, con expertos y auditable on-chain. Cuando la IA empiece a operar en almacenes, quirófanos y campos de batalla, la capa de inteligencia que la soporta debe cumplir un estándar diferente. Ese es el estándar hacia el que estamos construyendo.
BeInCrypto: ¿Qué tan real es la amenaza del envenenamiento de datos o la manipulación adversaria en los sistemas de IA hoy, especialmente a nivel nacional?
Ahmed Rashad: Es real, está documentado y ya se está tratando como una prioridad de seguridad nacional por parte de quienes tienen acceso a información clasificada sobre el tema.
El programa GARD de DARPA (Guaranteeing AI Robustness Against Deception) pasó años desarrollando defensas específicamente contra ataques adversarios a sistemas de IA, incluido el envenenamiento de datos. La NSA y CISA publicaron en 2025 una guía conjunta advirtiendo explícitamente que las vulnerabilidades en la cadena de suministro de datos y los datos de entrenamiento modificados maliciosamente son amenazas creíbles para la integridad de los sistemas de IA. No son documentos teóricos. Son guías operativas de agencias que no publican advertencias sobre riesgos hipotéticos.
La superficie de ataque es significativa. Si puedes comprometer los datos de entrenamiento de un sistema de IA usado para detección de amenazas, diagnóstico médico u optimización logística, no necesitas hackear el sistema en sí. Ya has influenciado cómo percibe el mundo. Ese es un método de ataque mucho más elegante y difícil de detectar que las intrusiones tradicionales de ciberseguridad.
El contrato de 300 millones de dólares que Scale AI tiene con el CDAO del Departamento de Defensa, para desplegar IA en redes clasificadas, existe en parte porque el gobierno entiende que no puede usar IA entrenada con datos públicos no verificados en entornos sensibles. La cuestión de la procedencia de los datos no es académica en ese nivel. Es operativa.
Lo que falta en la conversación mainstream es que este no es sólo un problema de gobierno. Cualquier empresa que despliegue IA en un entorno competitivo, servicios financieros, farmacéuticas, infraestructuras críticas, tiene una exposición adversaria de datos que probablemente aún no ha mapeado por completo. La amenaza es real. Las defensas aún están en construcción.
BeInCrypto: ¿Por qué no puede un gobierno o una gran empresa construir ellos mismos esta capa de verificación? ¿Cuál es la respuesta real ante quienes lo cuestionan?
Ahmed Rashad: Algunos lo intentan. Y los que lo intentan aprenden rápido cuál es el verdadero problema.
Construir la tecnología es la parte fácil. Lo difícil es la red. Expertos verificados y acreditados, radiólogos, lingüistas, especialistas legales, ingenieros, científicos, no aparecen solo porque construyas una plataforma para ellos. Hay que reclutarlos, acreditarlos, crear estructuras de incentivos que los mantengan involucrados y desarrollar mecanismos de consenso de calidad para que sus aportes tengan sentido y escala. Eso lleva años y requiere una experiencia que la mayoría de agencias gubernamentales y empresas simplemente no tienen internamente.
El segundo problema es la diversidad. Una agencia de gobierno que construya su propia capa de verificación va, por definición, a recurrir a un grupo limitado y relativamente homogéneo. El valor de una red global de expertos no es solo la acreditación; es la variedad de perspectivas, idiomas, contextos culturales y especialización que solo obtienes operando a escala real en distintas geografías. Tenemos más de un millón de anotadores. Eso no se puede replicar de forma interna.
El tercer problema es el diseño de incentivos. Mantener a colaboradores de alta calidad comprometidos a lo largo del tiempo requiere compensaciones transparentes, justas y programables. La infraestructura blockchain hace esto posible de una forma que los sistemas internos normalmente no pueden replicar: registros de contribución inmutables, atribución directa y pagos verificables. Un sistema de compras gubernamentales no está diseñado para hacer eso de manera eficiente.
La respuesta honesta a quienes se oponen es: no estás comprando solo una herramienta. Estás accediendo a una red y un sistema de acreditación que llevó años construir. La alternativa no es ‘hazlo tú mismo’, sino ‘usa lo que ya existe o acepta el riesgo de calidad de datos que implica no tenerlo’.
BeInCrypto: Si la IA se convierte en infraestructura nacional central, ¿Dónde estará la capa de inteligencia soberana en esa pila dentro de cinco años?
Ahmed Rashad: Dentro de cinco años, creo que será como la función de auditoría financiera actual: una capa de verificación obligatoria entre datos y despliegue, con respaldo regulatorio y estándares profesionales asociados.
En este momento, el desarrollo de IA funciona sin nada equivalente a la auditoría financiera. Las empresas informan por sí mismas sobre sus datos de entrenamiento. No hay verificación independiente, acreditación profesional del proceso, ni atestiguamiento de terceros de que la inteligencia detrás de un modelo cumple con un estándar definido. Estamos en el equivalente temprano de las finanzas antes de la ley Sarbanes-Oxley, operando en gran parte con confianza y autocertificación.
A medida que la IA se convierte en infraestructura crítica, manejando redes eléctricas, sistemas de salud, mercados financieros, redes de defensa, ese modelo deja de ser viable. Los gobiernos exigirán capacidad de auditoría. Los procesos de compras requerirán procedencia de datos verificados como condición para el contrato. Los marcos de responsabilidad adjuntarán consecuencias a fallos que podrían haberse prevenido con la verificación adecuada.
El rol de Perle en esa pila es ser la capa de verificación y acreditación, la entidad capaz de producir un registro inmutable y auditable de sobre qué datos se entrenó un modelo, por quién, y bajo qué estándares. Eso no será una característica extra del desarrollo de IA dentro de cinco años. Será un requisito indispensable.
El punto más amplio es que la inteligencia soberana no es una preocupación de nicho para contratistas de defensa. Es la base que permite desplegar IA en cualquier contexto donde el fallo tenga consecuencias reales. Y a medida que la IA llegue a más de esos contextos, esa base será la parte más valiosa de la pila.