YouTuber MrBeast ha compartido su clip deepfake de Inteligencia Artificial (IA) para informar a sus seguidores sobre los scams. Mientras tanto, uno de los funcionarios más altos de la Unión Europea (UE) está preocupado por las estrictas regulaciones sobre IA.
Con el auge de las herramientas de IA Generativa, los reguladores y los usuarios se dieron cuenta de la amenaza que puede representar la tecnología.
Los estafadores aprovechan la popularidad de influencers para hacer scams deepfake de IA
Sin embargo, la principal preocupación es redactar regulaciones equilibradas que se centren en la protección de los usuarios pero no en detener la innovación.
James Stephen Donaldson, el creador de uno de los canales de YouTube más grandes del mundo, MrBeast, compartió su vídeo deepfake en X (Twitter) para advertir a sus seguidores sobre las estafas de IA. Él escribió:
“Mucha gente está recibiendo este anuncio fraudulento mío de deepfake… ¿están las plataformas de redes sociales preparadas para manejar el aumento de los deepfakes de IA? Este es un problema grave.”
El vídeo engaña a los espectadores haciéndoles creer que MrBeast está regalando el último iPhone 15 Pro por 2 dólares. Pide a los espectadores que hagan clic en un enlace, probablemente redireccionándolos a algún sitio web de phishing.
Leer más: 6 potentes herramientas de Inteligencia Artificial para marketing Web3

Además de MrBeast, los estafadores están creando videos deepfake de IA utilizando otras personalidades famosas como Elon Musk. En septiembre, BeInCrypto informó que los malos actores están realizando scams cripto a través de los videos deepfake de Musk en TikTok.
Funcionario europeos advierte contra la regulación de la IA y scams
Los videos deepfake han estado circulando durante bastante tiempo. De ahí que algunos pidan regulaciones estrictas sobre la IA.
Pero, por otro lado, si hay regulaciones más estrictas, se podría frenar la innovación. Por lo tanto, los reguladores deben lograr un equilibrio y no llegar al extremo de ninguna de las partes.
Věra Jourová, vicepresidenta de valores y transparencia de la Comisión Europea, cree que debería haber un análisis sólido de los posibles factores de riesgo en lugar de paranoia al regular la IA. Ella le dijo al Financial Times:
“No deberíamos marcar como alto riesgo cosas que no parecen serlo en este momento. Debería haber un proceso dinámico en el que, cuando veamos que las tecnologías se utilizan de manera riesgosa, podamos agregarlas a la lista de alto riesgo.”
Leer más: Conoce los mejores prompts para invertir, trabajar y aprender con ChatGPT (2023)
La UE ha estado trabajando en la redacción de un proyecto de ley sobre IA durante los últimos dos años. En particular, el proyecto de ley exigiría la divulgación obligatoria del material protegido por derechos de autor utilizado para entrenar los modelos de IA.
Se espera que los funcionarios de la UE concluyan sus discusiones sobre el proyecto de ley de IA a finales de 2023. Pero OpenAI, la empresa matriz de ChatGPT, cree que el borrador del proyecto de ley de IA de la UE está regulando excesivamente la tecnología.
En mayo, el CEO de OpenAI, Sam Altman, amenazó con abandonar Europa si el proyecto de ley se aprobaba sin cambios.
Mientras tanto, el Reino Unido también se está centrando en las regulaciones de la IA. En noviembre, el país acogerá una cumbre mundial sobre el tema.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.
