¡Se filtraron accidentalmente hasta 38 TB de datos! El equipo de investigación de inteligencia artificial de Microsoft "mete problemas" ¿Cómo garantizar la seguridad de los datos?

**Fuente: **Financial Associated Press

Editor Xiaoxiang

Desde que comenzó la moda de la IA generativa este año, ha habido constantes controversias sobre la seguridad de los datos. Según la última investigación de una empresa de ciberseguridad, el equipo de investigación de inteligencia artificial de Microsoft filtró accidentalmente una gran cantidad de datos privados en la plataforma de desarrollo de software GitHub hace unos meses, que incluía más de 30.000 datos internos sobre el equipo de Microsoft.

Un equipo de la empresa de seguridad en la nube Wiz descubrió que el equipo de investigación de Microsoft filtró datos de capacitación de código abierto cuando se publicaron en GitHub en junio. Los datos alojados en la nube se filtraron a través de un enlace mal configurado.

Según una publicación de blog de Wiz, el equipo de investigación de inteligencia artificial de Microsoft publicó originalmente datos de entrenamiento de código abierto en GitHub, pero debido a una mala configuración del token SAS, se configuró incorrectamente para otorgar permisos a toda la cuenta de almacenamiento, pero también para otorgar permisos al usuario. control total Permisos: no solo permisos de solo lectura, lo que significa que pueden eliminar y sobrescribir archivos existentes.

Según Wiz, el total de 38 TB de datos filtrados incluía copias de seguridad de disco en las computadoras personales de dos empleados de Microsoft, y estas copias de seguridad contenían contraseñas y claves para los servicios de Microsoft y más de 30.000 contraseñas de 359 empleados de Microsoft. .

Los investigadores de Wiz dicen que el intercambio abierto de datos es un componente clave en el entrenamiento de IA, pero compartir grandes cantidades de datos también puede poner a las empresas en gran riesgo si se usan incorrectamente.

Ami Luttwak, director de tecnología y cofundador de Wiz, señaló que Wiz compartió la situación con Microsoft en junio y Microsoft eliminó rápidamente los datos expuestos. El equipo de investigación de Wiz descubrió estos cachés de datos mientras escaneaba Internet en busca de almacenamiento mal configurado.

En respuesta, un portavoz de Microsoft comentó más tarde: "Hemos confirmado que no se expusieron datos de clientes y que ningún otro servicio interno se vio comprometido".

Microsoft dijo en una publicación de blog el lunes que investigó y solucionó un incidente que involucró a un empleado de Microsoft que compartió una URL a un modelo de aprendizaje de inteligencia artificial de código abierto en un repositorio público de GitHub. Microsoft dijo que los datos expuestos en la cuenta de almacenamiento incluían copias de seguridad de los archivos de configuración de las estaciones de trabajo de dos ex empleados, así como información interna de Microsoft Teams sobre los dos ex empleados y sus colegas.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)