Un pirata informático obtuvo acceso a los sistemas de mensajería interna de OpenAI el año pasado y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de la compañía, informó el New York Times el jueves.
El incidente se produjo cuando el pirata informático logró extraer información detallada de las discusiones en un foro en línea utilizado por los empleados de OpenAI para hablar sobre sus últimas tecnologías. Sin embargo, según el informe, no lograron ingresar a los sistemas donde OpenAI aloja y construye su IA, incluyendo el famoso chatbot ChatGPT.
Reacción y Manejo del Incidente por OpenAI
Los ejecutivos de OpenAI informaron a los empleados sobre la violación en una reunión general en abril del año pasado y también a la junta directiva de la compañía. No obstante, decidieron no hacer pública la noticia ya que, según ellos, no se había robado ninguna información relacionada con clientes o socios. Además, no consideraron que el incidente fuera una amenaza para la seguridad nacional, creyendo que el pirata informático era un particular sin vínculos conocidos con un gobierno extranjero.
La empresa, con sede en San Francisco, no informó a las agencias federales de seguridad sobre la violación de datos. OpenAI no respondió de inmediato a una solicitud de comentarios al respecto.
Preocupaciones de Seguridad y Medidas Tomadas
OpenAI dijo en mayo que había desmantelado cinco operaciones de influencia encubiertas que buscaban usar sus modelos de IA para “actividades engañosas” en Internet. Este incidente es uno de los muchos que han despertado preocupaciones sobre el posible mal uso de la tecnología de inteligencia artificial. La administración Biden está preparada para abrir un nuevo frente en su esfuerzo por salvaguardar la tecnología de inteligencia artificial de Estados Unidos de posibles amenazas extranjeras, especialmente de China y Rusia.
Según un informe previo de Reuters, hay planes preliminares para colocar barandillas alrededor de los modelos de inteligencia artificial más avanzados, incluido ChatGPT, para proteger la tecnología de posibles abusos.
Perspectivas Futuras
El robo de datos internos de OpenAI subraya la creciente necesidad de medidas de seguridad más estrictas en la industria de la inteligencia artificial. A medida que la tecnología avanza y se integra más profundamente en diversas aplicaciones, garantizar la protección de los datos y la infraestructura se vuelve crucial para prevenir posibles abusos y mantener la confianza en estas innovaciones.
En esta nota