Detectar un error en el desarrollo de la herramienta ChatGPT puede ser recompensado con una suma de hasta 20 mil dólares, según lo comunicado recientemente por la empresa OpenAI. “Bug Bounty Program” pretende motivar a sus participantes para hallar e informar sobre vulnerabilidades de seguridad en los sistemas de la firma. Esto incluye, por supuesto, al popular chatbot de inteligencia artificial tan utilizado en estos días.
El programa apunta a investigadores de seguridad, hackers éticos y entusiastas de la tecnología. El dinero que se ofrece como gratificación por el hallazgo tiene un rango que va desde los 200 dólares, para “hallazgos de baja gravedad”, hasta lo 20 mil, para “descubrimientos excepcionales”.
Al presentar la iniciativa, la empresa se mostró consciente de la posible presencias de errores:
“Esta iniciativa es esencial para nuestro compromiso de desarrollar una IA segura y avanzada. A medida que creamos tecnología y servicios que son seguros, confiables y confiables, necesitamos su ayuda. La misión de OpenAI es crear sistemas de inteligencia artificial que beneficien a todos. Con ese fin, invertimos mucho en investigación e ingeniería para garantizar que nuestros sistemas de IA estén seguros y protegidos. Sin embargo, como con cualquier tecnología compleja, entendemos que pueden surgir vulnerabilidades y defectos”.
Las personas interesadas en aportar a la propuesta pueden presentar sus análisis en la plataforma de ciberseguridad, Bugcrowd:
“El programa es una forma de reconocer y recompensar los valiosos conocimientos de los investigadores de seguridad que contribuyen a mantener nuestra tecnología y nuestra empresa seguras. Le invitamos a informar de las vulnerabilidades, errores o fallas de seguridad que descubra en nuestros sistemas”.
Características de la colaboración
Para esta propuesta, OpenAI se asoció con Bugcrowd, una plataforma líder de recompensas por errores. El objetivo es que la interfaz especializada pueda gestionar el proceso de envío y recompensa, que está diseñado para garantizar una experiencia optimizada para todos los participantes. La plataforma Bugcrowd enumeró lo aspectos a considerar por los investigadores que se sumen a la propuesta:
- Proporcionar protección de puerto seguro para la investigación de vulnerabilidades.
- Cooperar con el participante para comprender y validar el informe, asegurando una pronta respuesta inicial a la presentación.
- Remediar las vulnerabilidades validadas de manera oportuna.
- Reconocer y dar crédito a la contribución a la mejora de seguridad. Siempre que se trate de una vulnerabilidad única que conduce a un cambio de código o configuración.
OpenAI anima a investigadores a poner manos a la obra:
“Al compartir sus hallazgos, desempeñará un papel crucial para hacer que nuestra tecnología sea más segura para todos”.
Los problemas que no aplican en el programa
La empresa recalcó que brindará una gratificación monetaria por errores de software en su API (interfaz de programación de aplicaciones) y otros servicios relacionados. No obstante, presentó un listado de aquellos problemas que estarán fuera del alcance del programa.
- Jailbreaks/desvíos de seguridad (p. ej. DAN y avisos relacionados)
- Conseguir que el sistema diga cosas malas
- Conseguir que el sistema te diga cómo hacer cosas malas
- Conseguir que el sistema escriba código malicioso para ti
Estas advertencias procuran evitar que alguien genere código o texto malicioso con el objetivo de engañar al programa AI para que viole sus propias reglas y, con ello, obtener una recompensa monetaria.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.