En una medida que generó sospechas sobre posibles problemas de seguridad, Microsoft detuvo brevemente el acceso interno a ChatGPT el jueves. Los empleados de Microsoft que intentaban acceder al chatbot de IA utilizando dispositivos de la empresa fueron redirigidos y se les presentó un mensaje de que Microsoft había bloqueado el acceso al chatbot de IA.
«Debido a preocupaciones de seguridad y datos, varias herramientas de inteligencia artificial ya no están disponibles para que las utilicen los empleados», se lee en una actualización en el sitio web interno de Microsoft.
Sin embargo, el bloqueo duró poco y, según una aclaración compartida más tarde por Microsoft, no fue intencionado.
Microsoft anula los rumores de temor a la seguridad
La repentina interrupción del acceso interno generó rumores generalizados de que el gigante tecnológico había tomado la medida por posibles temores de seguridad cibernética. Esto no es demasiado sorprendente considerando el momento del bloqueo, que se produjo apenas un día después de que OpenAI anunciara que sus API y ChatGPT habían resistido un importante ataque DDoS.
En la conferencia de desarrolladores DevDay de OpenAI a principios de esta semana, el director ejecutivo Sam Altman calificó la colaboración de la compañía con Microsoft como la «mejor asociación en tecnología».
Sin embargo, Microsoft luego anuló estas teorías, afirmando que el bloqueo se había habilitado sin darse cuenta mientras se probaban los sistemas de control de terminales LLM.
Que Microsoft cortara el acceso interno a ChatGPT por temores de seguridad habría sido realmente irónico, considerando que el gigante tecnológico ya ha invertido 13 mil millones de dólares en OpenAI.
Las dos empresas trabajan muy estrechamente, y Microsoft integra constantemente las herramientas de inteligencia artificial generativa de OpenAI en su amplia cartera de software de Windows y Office.
La actualización publicada en el sitio web interno de Microsoft recordó a los empleados que deben tener cuidado al usar ChatGPT.
“Si bien es cierto que Microsoft ha invertido en OpenAI y que ChatGPT tiene medidas de seguridad integradas para evitar un uso inadecuado, el sitio web es, no obstante, un servicio externo de terceros.”, decía, y agrega que la misma advertencia también se aplica al uso de otros servicios de inteligencia artificial como Midjourney o Replika.
Sin embargo, al responder a las consultas sobre el bloqueo accidental, un portavoz de Microsoft informó que la empresa anima a sus clientes y empleados a utilizar ChatGPT Enterprise y Bing Chat Enterprise para mejorar la privacidad y la seguridad.
La sospecha generalizada de que Microsoft le daba la espalda a ChatGPT generó rumores de que OpenAI había bloqueado el acceso interno a Office 365 en represalia. Sin embargo, el propio Altman recurrió a la plataforma de microblogging X para abordar estos rumores, calificándolos de “infundados”.
Persisten posibles amenazas a la seguridad
Si bien esto fue una causa de un bloqueo accidental más que una respuesta a una situación de ciberseguridad, aún persisten amenazas potenciales cuando se trata del uso de la IA. Anonymous Sudan, un grupo hacktivista con vínculos con Rusia, se atribuyó la responsabilidad del ataque que derribó ChatGPT esta semana.
En enero, un ingeniero de alto rango de Microsoft escribió que si bien los empleados podían usar ChatGPT, debían abstenerse de proporcionar al chatbot información confidencial.
La agencia de espionaje del gobierno del Reino Unido, GCHQ, emitió advertencias similares a principios de este año, advirtiendo contra la alimentación de grandes modelos lingüísticos (LLM) con datos corporativos confidenciales.
Samsung prohibió a su personal usar ChatGPT durante tres semanas en marzo después de que se filtrara información confidencial, incluida la de un semiconductor en desarrollo, al servicio de inteligencia artificial.
Continuar leyendo: Los empleados de Microsoft pierden temporalmente el acceso a ChatGPT