OpenAI está colaborando con el Pentágono en una serie de proyectos que incluyen capacidades de ciberseguridad, lo cual marca un cambio con respecto a la prohibición previa de la empresa emergente de ofrecer su inteligencia artificial a entidades militares.
El creador de ChatGPT está desarrollando herramientas junto con el Departamento de Defensa de EE. UU. en software de ciberseguridad de código abierto, colaborando con DARPA para su Desafío de Ciberseguridad AI anunciado el año pasado, y ha tenido conversaciones preliminares con el gobierno de EE. UU. sobre métodos para ayudar a prevenir el suicidio de veteranos, dijo Anna Makanju, vicepresidenta de asuntos globales de la compañía, en una entrevista en la Casa de Bloomberg en el Foro Económico Mundial en Davos el martes.
La empresa había eliminado recientemente de sus términos de servicio la cláusula que prohibía el uso de su IA para «aplicaciones militares y de guerra». Makanju describió la decisión como parte de una actualización más amplia de sus políticas para adaptarse a los nuevos usos de ChatGPT y sus otras herramientas.
«Debido a que anteriormente teníamos lo que era esencialmente una prohibición general en lo militar, muchas personas creían que eso prohibiría muchos de estos casos de uso, los cuales la gente considera que están muy alineados con lo que queremos ver en el mundo», dijo ella. Sin embargo, OpenAI mantuvo la prohibición de usar su tecnología para desarrollar armas, destruir propiedades o dañar personas, explicó Makanju.
Microsoft Corp., el mayor inversor de OpenAI, ofrece varios contratos de software a las fuerzas armadas de EE. UU. y a otras ramas del gobierno.
OpenAI, Anthropic, Google y Microsoft están ayudando a la Agencia de Proyectos de Investigación Avanzados de Defensa de EE. UU. en su Desafío de Ciberseguridad con IA, con el objetivo de encontrar software que corrija automáticamente vulnerabilidades y proteja la infraestructura de ataques cibernéticos.
The Intercept había informado anteriormente sobre los cambios en los términos de OpenAI.
OpenAI también indicó que está acelerando su trabajo en seguridad electoral, dedicando recursos para asegurar que sus herramientas de inteligencia artificial generativa no sean utilizadas para difundir desinformación política.
«Las elecciones son un asunto muy importante», dijo Sam Altman, el director ejecutivo de OpenAI, en la misma entrevista. «Creo que es bueno que tengamos mucha ansiedad.»