Imagen conceptual de un hacker trabajando en una habitación oscura.
Revista Microbiz

Un hacker logró irrumpir en el sistema de mensajería interna de OpenAI el año pasado y se llevó detalles del diseño de IA de la empresa. Un informe del New York Times Jueves El ataque tuvo como objetivo un foro en línea donde el personal de OpenAI discutió las próximas tecnologías y características para el popular chatbot; sin embargo, el código GPT real y los sistemas donde se almacenan los datos del usuario no se vieron afectados.

Aunque la empresa reveló esa información a sus empleados y miembros de la junta directiva en abril de 2023, la empresa se negó a notificar al público o al FBI sobre la violación, alegando que era innecesario hacerlo porque no se robaron datos de ningún usuario o socio. OpenAI no considera el ataque una amenaza a la seguridad nacional y cree que el atacante era un solo individuo sin vínculos con una potencia extranjera.

Según el NYT, el ex empleado de OpenAI, Leopold Aschenbrenner, expresó anteriormente su preocupación por el estado del aparato de seguridad de la compañía y advirtió que sus sistemas podrían ser accesibles para los servicios de inteligencia adversarios como China. Aschenbrenner Despedido sumariamente por la empresaLa portavoz de OpenAI, Liz Bourgeois, sin embargo, dijo al New York Times que su despido no estaba relacionado con el memorando.

Esta es la primera vez que OpenAI se ve expuesta a vulnerabilidades de seguridad. Desde su debut en noviembre de 2022, ChatGPT ha sido atacado repetidamente por actores maliciosos, lo que a menudo ha resultado en fugas de datos. En febrero de este año, Filtrado nombre de usuario y contraseña En un truco separado. El pasado marzo, OpenAI tuvo que desconectar completamente ChatGPT Corregir un error que exponía la información de pago de los usuarios, incluido el nombre y apellido, la dirección de correo electrónico, la dirección de facturación, el tipo de tarjeta de crédito y los últimos cuatro dígitos de su número de tarjeta a otros usuarios activos. El pasado diciembre, descubierto por investigadores de seguridad Que podrían atraer a ChatGPT para que revele fragmentos de sus datos de entrenamiento ordenando al sistema que repita la palabra «poesía» sin cesar.

“ChatGPT no es seguro. Punto”, el investigador de IA Gary Marcus. dijo a The Street en enero. “Si escribe algo en un chatbot, probablemente sea más seguro asumir que (a menos que garanticen lo contrario), la empresa del chatbot puede entrenar con esos datos; Estos datos pueden filtrarse a otros usuarios». Desde el ataque, OpenAI ha tomado medidas para fortalecer sus medidas de seguridad, incluida la instalación de vallas de seguridad adicionales para evitar el acceso no autorizado y el uso indebido de los modelos, además de establecer Un comité de seguridad y protección Para afrontar problemas futuros.






Source link