ChatGPT en Español - ChatGPT México

Escala de divulgación coordinada

OpenAI presenta su política de Divulgación Coordinada de Vulnerabilidades para reportar de manera responsable problemas de seguridad en software de terceros, fortaleciendo la colaboración y la integridad en el ecosistema digital.
Escala de divulgación coordinada

Política de divulgación

OpenAI ha implementado una política de Divulgación Coordinada que establece cómo se reportarán vulnerabilidades descubiertas en software de terceros, tanto de código abierto como comercial, a fin de actuar con integridad y cooperación dentro de la comunidad de desarrolladores. Esta política busca crear un marco de trabajo claro para todas las partes involucradas y fomentar la confianza mutua entre OpenAI y los proveedores de software.

Validación de hallazgos

Cada vulnerabilidad identificada es sometida a un proceso de validación y priorización que combina revisiones manuales con análisis automatizado mediante herramientas de inteligencia artificial, garantizando que los problemas más críticos se atiendan primero. Asimismo, se establecen criterios objetivos para determinar la gravedad de cada hallazgo y acelerar la comunicación con los equipos de seguridad afectados.

Contacto con proveedores

OpenAI se compromete a contactar directamente a los responsables del software afectado, empleando un enfoque respetuoso y colaborativo que permite a los mantenedores contar con el tiempo y los recursos necesarios para corregir el problema de manera adecuada. Además, se ofrecen canales de comunicación específicos para facilitar el intercambio de información técnica y el seguimiento de la resolución.

Publicación de vulnerabilidades

Por defecto, los detalles técnicos se mantienen confidenciales hasta que se considere oportuno hacerlos públicos, excepto en situaciones donde el interés general exija una divulgación inmediata, equilibrando la urgencia con la sostenibilidad a largo plazo. Este enfoque busca proteger a los usuarios finales y evitar que actores maliciosos exploten las vulnerabilidades antes de que se implementen las correcciones.

Principios clave

La política se fundamenta en principios de impacto orientado, cooperación, discreción predeterminada, alta escala y mínima fricción, además de reconocer la autoría cuando sea relevante, fomentando así un entorno de transparencia responsable. Estos principios permiten adaptarse a diferentes escenarios de vulnerabilidad y promueven la mejora continua de las prácticas de seguridad.

Colaboración continua

A medida que la eficacia de los sistemas de OpenAI para detectar errores complejos aumenta, se anticipa un crecimiento en la cantidad y la complejidad de las vulnerabilidades descubiertas, lo que requerirá una colaboración más profunda y tiempos de resolución flexibles. Por ello, OpenAI planea organizar talleres y sesiones informativas con comunidades de desarrolladores para compartir aprendizajes y mejores prácticas.

Próximos pasos

OpenAI seguirá perfeccionando esta política en función de las lecciones aprendidas, invitando a proveedores, investigadores y miembros de la comunidad a aportar retroalimentación que contribuya a mejorar la seguridad del ecosistema digital. En breve, se anunciarán canales adicionales de soporte y se publicarán informes periódicos sobre el progreso de la divulgación coordinada, incluyendo cómo mejorar la experiencia de chat gpt en español para la comunidad hispanohablante.