Volver

Avances en deepfakes: ¿Qué riesgos enfrentan los usuarios de CEX?

editor avatar

Editado por
Luis Blanco

17 enero 2026 11:51 UTC
  • Los deepfakes generados por IA se están propagando rápidamente, lo que está impulsando regulaciones globales y generando nuevas preocupaciones sobre la confianza digital.
  • El video sintético en tiempo real desafía las verificaciones de selfies y pruebas de vida utilizadas en los sistemas KYC de exchange centralizados.
  • Sin garantías más sólidas, la incorporación automatizada podría exponer a los exchanges centralizados a un aumento del fraude y el abuso de identidad.
Promo

El uso creciente de herramientas basadas en inteligencia artificial para generar contenido deepfake ha provocado nuevas preocupaciones sobre la seguridad pública.

A medida que la tecnología avanza y se vuelve más accesible, también surgen dudas sobre la confiabilidad de los sistemas de verificación de identidad visual utilizados por los exchanges centralizados.

Sponsored
Sponsored

Los gobiernos actúan para frenar los deepfakes

Videos engañosos se están difundiendo rápidamente en las redes sociales, aumentando las preocupaciones sobre una nueva ola de desinformación y contenido falso. El mal uso de esta tecnología está dañando cada vez más la seguridad pública y la integridad personal.

El problema ha aumentado tanto, que los gobiernos del mundo están creando leyes para hacer que el uso de deepfakes sea ilegal.

Esta semana, Malasia e Indonesia se convirtieron en los primeros países en restringir el acceso a Grok, el chatbot de inteligencia artificial desarrollado por xAI de Elon Musk. Las autoridades dijeron que tomaron esta decisión por preocupaciones sobre su mal uso para generar imágenes sexualmente explícitas y no consentidas.

El fiscal general de California, Rob Bonta, anunció una medida parecida. El miércoles, confirmó que su oficina estaba investigando varios informes que involucran imágenes sexualizadas y no consentidas de personas reales.

“Este material, que muestra a mujeres y niños en situaciones de desnudez y sexualmente explícitas, se ha usado para acosar a personas en internet. Insto a xAI a tomar medidas inmediatas para que esto no continúe”, dijo Bonta en un comunicado.

Sponsored
Sponsored

A diferencia de los antiguos deepfakes, las nuevas herramientas pueden responder de manera dinámica a instrucciones. Replican de forma muy realista los movimientos faciales y el habla sincronizada.

Por eso, comprobaciones simples como parpadear, sonreír o mover la cabeza pueden ya no ser fiables para confirmar la identidad de un usuario.

Estos avances tienen implicaciones directas para exchanges centralizados que dependen de la verificación visual durante el proceso de registro.

Exchanges centralizados bajo presión

El impacto financiero del fraude facilitado por deepfakes ya no es solo teoría. Expertos de la industria e investigadores tecnológicos advierten que imágenes y videos generados por inteligencia artificial aparecen cada vez más en casos como reclamaciones de seguros y disputas legales.

Las plataformas de criptomonedas, que operan a nivel mundial y suelen usar registros automáticos, podrían convertirse en un objetivo fácil para este tipo de actividades si las medidas de seguridad no avanzan junto con la tecnología.

A medida que el contenido creado por IA se vuelve más accesible, la confianza basada solo en la verificación visual puede que ya no sea suficiente.

El reto para las plataformas cripto será adaptarse rápido, antes de que la tecnología supere a las protecciones diseñadas para mantener seguros a los usuarios y los sistemas.

Descargo de Responsabilidad

Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.

Patrocinado
Patrocinado