Origen del conflicto
En diciembre pasado The New York Times demandó a OpenAI por presuntas infracciones de derechos de autor. Durante la fase de preservación de pruebas, los abogados del diario solicitaron que la empresa retuviera todos los contenidos generados por usuarios y clientes, sin límite de tiempo, en busca de indicios que respalden su caso. OpenAI considera que la petición es excesiva y carente de fundamento jurídico, pues obliga a almacenar información que normalmente se elimina en un plazo de 30 días.
Exigencia del NYT
La solicitud judicial abarca los chats de las versiones Free, Plus, Pro y Team de ChatGPT, así como los datos de la API que no operen bajo el acuerdo Zero Data Retention. Incluso pretenden incluir conversaciones borradas por los propios usuarios, práctica que contraviene las políticas de eliminación permanente de OpenAI. Quedan excluidos ChatGPT Enterprise, ChatGPT Edu y los clientes de API con el add-on ZDR, cuyos contenidos nunca se registran.
Impacto para usuarios
De prosperar la orden, cualquier conversación futura de millones de personas quedaría archivada en servidores legales, accesible sólo bajo estrictos protocolos pero fuera de los controles habituales de privacidad. Aunque la información no se compartiría automáticamente con los demandantes, su mero almacenamiento prolongado aumenta el riesgo de exposición y genera preocupación sobre la protección de datos personales en jurisdicciones como la europea, donde rige el GDPR.
Respuesta de OpenAI
Brad Lightcap, director de operaciones, calificó la exigencia como una “extralimitación” que erosiona la confianza de la comunidad. La compañía presentó un recurso de reconsideración ante la magistrada y, tras obtener la exclusión de Enterprise, escaló la apelación al tribunal de distrito. Al mismo tiempo implementó un sistema de retención segregado y totalmente auditado, al que solo accede un reducido equipo legal y de ciberseguridad para cumplir con la orden mientras se litiga.
Protección de datos
OpenAI recuerda que los consumidores pueden optar por no compartir sus conversaciones para el entrenamiento del modelo y que, al eliminar un chat, éste desaparece de la cuenta y se programa su supresión definitiva. En el caso de clientes corporativos con ZDR, los prompts jamás se almacenan. La empresa insiste en que estos estándares no cambiarán y que seguirá priorizando la privacidad como pilar de sus servicios de inteligencia artificial.
Próximos pasos
La firma de San Francisco continuará informando sobre cualquier novedad relevante y confía en revertir la medida para volver a sus políticas habituales. Si el tribunal mantiene la exigencia, OpenAI explorará vías alternativas para proteger los derechos de sus usuarios de ChatGPT y buscará cooperación con reguladores para armonizar la orden con leyes de protección de datos internacionales.