Ver más

OpenAI habría notificado amenaza potencial de la IA a la humanidad, según informe

2 mins
Por Ciaran Lyons
Traducido por Eduardo Venegas
Únete a Nuestra Comunidad de Trading en Telegram

EN RESUMEN

  • Los investigadores de OpenAI supuestamente notificaron al consejo las amenazas de la IA para la humanidad, antes de la destitución del CEO Sam Altman.
  • Después de que el consejo de OpenAI despidiera a Sam Altman, la reacción pública y las amenazas de los empleados de marcharse propiciaron su regreso.
  • En los últimos tiempos se han publicado varios informes sobre los riesgos de la IA para la sociedad, incluida una cruda previsión de Elon Musk.
  • promo

Al parecer, varios investigadores de OpenAI, creadores de ChatGPT, advirtieron al consejo de administración de que la Inteligencia Artificial (IA) supone un grave riesgo para la humanidad.

La reciente divulgación de una carta fue reconocida como un acontecimiento significativo que precedió a la destitución del CEO, Sam Altman, por parte de la junta directiva.

La advertencia a la junta de OpenAI provoca reacciones sobre la IA

Según una declaración reciente de personas familiarizadas con el asunto, los investigadores informaron a la junta sobre la IA general, descrita como sistemas autónomos que superan a los humanos en la mayoría de las “tareas económicamente valiosas.”

Sin embargo, los nuevos detalles que salieron a la luz fueron un factor importante en la decisión de la junta de despedir a Sam Altman. Al parecer, había “preocupación por comercializar los avances antes de entender las consecuencias”.

OpenAI: Preocupaciones recientes sobre los riesgos de la IA

Mientras tanto, en los últimos tiempos ha habido varios comentaristas que se han hecho eco de los riesgos que la IA tiene para la sociedad.

Además, Elon Musk, CEO de múltiples empresas tecnológicas, predijo con crudeza el daño potencial de la IA para los humanos:

“Hay alguna posibilidad -por encima de cero- de que la IA nos mate a todos. Creo que es baja, pero hay alguna posibilidad.”

Leer más: ¿Cómo generar prompts para Midjourney a través de ChatGPT?

Mientras tanto, informes recientes indican que la normativa sobre IA debe encontrar un equilibrio. Con ello, evitaría un rigor excesivo que podría eliminar los beneficios potenciales que ofrece la IA.

Leer más: Conoce los mejores prompts para invertir, trabajar y aprender con ChatGPT (2023)

Sin embargo, la identificación de riesgos en la IA a menudo conduce a la propagación de información errónea.

BeInCrypto cubrió recientemente el uso de la IA en el marketing, haciendo hincapié en los peligros asociados. Por ejemplo, una adopción precipitada por parte de las agencias de marketing. La ausencia de normativas bien definidas puede dar lugar a problemas de cumplimiento.

Trusted

Descargo de responsabilidad

Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.

eduardo-venegas-scaled-e1626236160666.jpg
Eduardo Venegas
Soy un periodista con 14 años de experiencia en medios impresos y digitales, especializado en el periodismo de negocios. Estudié en la UNAM. Fui becario, redactor, reportero y editor en medios de negocios en México por 12 años, hasta que en el segundo semestre de 2021 me uní a las filas de BeInCrypto en Español como editor. En mi paso por los medios de negocio, pude conocer sobre el ecosistema de las criptomonedas de forma esporádica durante la gestación de le Ley FinTech en México en...
READ FULL BIO
Patrocinado
Patrocinado