OpenAI anunció la creación de un Comité de Seguridad, quien emitirá las recomendaciones sobre decisiones críticas enfocadas en seguridad dentro de la operación de la empresa. Estará dirigido por los miembros de la junta directiva: Bret Taylor (presidente), Adam D’Angelo, Nicole Seligman y Sam Altman (CEO).
La empresa líder en Inteligencia Artificial busca crear un “debate sólido” sobre el siguiente nivel de su próximo modelo de IA. OpenAI enfatizó que quiere liderar “tanto en capacidades como en seguridad”.
OpenAI analizará medidas de seguridad de la IA por 90 días
La empresa de Sam Altman señaló que el Comité de Seguridad evaluará los procesos y salvaguardas de OpenAI por 90 días. Posteriormente emitirá sus recomendaciones ante la junta directiva. Las sugerencias serán vinculantes, ya que serían adoptadas de forma consciente para la seguridad del proyecto.
OpenAI señaló que también contratará a consultores técnicos y expertos en seguridad, e incluso ex funcionarios de ciberseguridad, como Rob Joyce y John Carlin, de la Agencia Nacional de Seguridad (NSA) y del Departamento de Justicia de Estados Unidos, respectivamente.
Leer más: Conoce los mejores prompts para invertir, trabajar y aprender con ChatGPT (2024)
El comité estará integrado por los expertos: Aleksander Madry (jefe de preparación), Lilian Weng (jefe de sistemas y seguridad), y John Schulman (jefe de ciencia de alineación). Asimismo, Matt Knight (jefe de seguridad) y Jakub Pachocki (científico jefe) también estarán presentes.
“Más de cien millones de usuarios y millones de desarrolladores confían en el trabajo de nuestros equipos de seguridad. Consideramos la seguridad como algo en lo que tenemos que invertir y en lo que tenemos que tener éxito en múltiples horizontes temporales, desde alinear los modelos actuales hasta los sistemas mucho más capaces que esperamos en el futuro”, explicó en su comunicado.
Semanas atrás, OpenAI presentó GPT-4o, el cual no solo cuenta con generación de texto, imágenes, audio y video, sino que incluye capacidades de interacción que imitan conversaciones de personas reales. Expertos calificaron el lanzamiento como un “GPT-4 ligeramente más fuerte”.
OpenAI mantiene innovación en la industria de IA
A inicios de año, OpenAI presentó su modelo de conversión de texto a vídeo llamado “Sora”. Puede crear vídeos de hasta 60 segundos con escenas muy detalladas, movimientos de cámara complejos y múltiples personajes con emociones vibrantes.
No obstante, los avances de IA de OpenAI siguen generando dudas sobre su potencial uso con fines cuestionables, como scams y demás tipos de fraudes. En enero, OpenAI dijo prohibió el uso de sus herramientas en campañas políticas, en referencia a las elecciones de Estados Unidos a finales de 2024.
Leer más: ¿Cómo generar prompts para Midjourney a través de ChatGPT?
El texto dice que está prohibido: “Participar en campañas políticas o cabildeo, incluida la generación de materiales de campaña personalizados o materiales dirigidos a grupos demográficos específicos”. Las directrices afectan a aplicaciones como ChatGPT y Dall-E, las dos herramientas de la empresa, además de la API OpenAi.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.