En una entrevista con AP, la directora de tecnología de OpenAI, Mira Murati, aseguró que desde la empresa buscan crear sistemas de IA seguros, que beneficien al máximo a tantas personas como sea posible.
El temor generalizado alrededor de las capacidades y límites de la Inteligencia Artificial crece con el paso de los días. Sin embargo, empresas como OpenAI aseguran que quieren encontrar la manera de crear herramientas seguras para los seres humanos. Frente a este tema, Mira Murati CTO de OpenAI, concedió una entrevista a la agencia AP, diciendo que es necesario regular plataformas como ChatGPT.
“Estos sistemas deben ser regulados. En OpenAI, hablamos constantemente con gobiernos y reguladores y otras organizaciones que están desarrollando estos sistemas para, al menos a nivel de empresa, acordar algún nivel de estándares.
Hemos trabajado un poco en eso en los últimos años con grandes desarrolladores de modelos de lenguaje para alinearnos con algunos estándares básicos de seguridad para la implementación de estos modelos”
Mira Murati mencionó también el tema relacionado con la carta que solicitaba pausar las actuaciones de la Inteligencia Artificial. Para Murati, firmar una carta no es necesariamente una forma efectiva de construir mecanismos de seguridad o coordinar a los jugadores en el espacio.
Mira Murati habla sobre el impacto de ChatGPT
La directora de tecnología de OpenAI habló también sobre el impacto que ha generado ChatGPT en todo el mundo. De acuerdo a Murati, la empresa no se esperaba que ChatGPT fuera a tener la acogida que obtuvo.
“No anticipamos el grado en que las personas estarían tan cautivadas por hablar con un sistema de IA. Era solo una vista previa de la investigación. La cantidad de usuarios y demás, no anticipamos ese nivel de emoción”
Por lo anterior y teniendo en cuenta lo que ha venido ocurriendo con los alcances de la IA, Murati asegura que es necesario que los reguladores gubernamentales estén más involucrados en el tema de la regulación de esta tecnología.
Murati también mencionó la forma en que entrenan a ChatGPT para que sea una herramienta mucho más cercana a las personas, capaz de entregar respuestas más humanas.
“En el entrenamiento del modelo, con ChatGPT en particular, hicimos aprendizaje de refuerzo con retroalimentación humana para ayudar al modelo a alinearse más con las preferencias humanas. Básicamente, lo que estamos tratando de hacer es amplificar lo que se considera un buen comportamiento y luego desamplificar lo que se considera un mal comportamiento”
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.