منذ أن بدأ جنون الذكاء الاصطناعي التوليدي هذا العام، كانت هناك خلافات مستمرة حول أمن البيانات. وفقًا لأحدث الأبحاث الصادرة عن إحدى شركات الأمن السيبراني، فقد قام فريق أبحاث الذكاء الاصطناعي في مايكروسوفت بتسريب كمية كبيرة من البيانات الخاصة على منصة تطوير البرمجيات GitHub قبل بضعة أشهر عن طريق الخطأ، والتي تضمنت أكثر من 30 ألف قطعة من المعلومات الداخلية حول فريق مايكروسوفت.
اكتشف فريق من شركة Wiz للأمن السحابي أن بيانات التدريب مفتوحة المصدر قد تم تسريبها بواسطة فريق أبحاث Microsoft عندما تم إصدارها على GitHub في يونيو. تم تسريب البيانات المستضافة على السحابة من خلال رابط تمت تهيئته بشكل خاطئ.
وفقًا لمنشور مدونة بواسطة Wiz، أصدر فريق أبحاث الذكاء الاصطناعي التابع لشركة Microsoft في الأصل بيانات تدريب مفتوحة المصدر على GitHub، ولكن بسبب التكوين الخاطئ لرمز SAS المميز، تم تكوينه بشكل غير صحيح لمنح أذونات لحساب التخزين بالكامل، ولكن أيضًا لمنح المستخدم التحكم الكامل الأذونات - ليست مجرد أذونات للقراءة فقط، مما يعني أنه يمكنها حذف الملفات الموجودة والكتابة فوقها.
ووفقًا لـ Wiz، فإن إجمالي 38 تيرابايت من البيانات المسربة شمل نسخًا احتياطية للقرص على أجهزة الكمبيوتر الشخصية لاثنين من موظفي Microsoft، وتحتوي هذه النسخ الاحتياطية على كلمات مرور ومفاتيح لخدمات Microsoft وأكثر من 30 ألف كلمة مرور من 359 موظفًا في Microsoft. .
يقول الباحثون في Wiz إن مشاركة البيانات المفتوحة هي عنصر أساسي في تدريب الذكاء الاصطناعي، لكن مشاركة كميات كبيرة من البيانات يمكن أن تعرض الشركات أيضًا لخطر كبير إذا تم استخدامها بشكل غير صحيح.
وأشار عامي لوتواك، كبير مسؤولي التكنولوجيا والمؤسس المشارك لشركة Wiz، إلى أن Wiz شاركت الموقف مع Microsoft في يونيو، وسرعان ما حذفت Microsoft البيانات المكشوفة. اكتشف فريق بحث Wiz ذاكرات التخزين المؤقت للبيانات هذه أثناء فحص الإنترنت بحثًا عن وحدات تخزين تمت تهيئتها بشكل خاطئ.
ردًا على ذلك، علق متحدث باسم Microsoft بعد ذلك قائلاً: "لقد أكدنا أنه لم يتم الكشف عن أي بيانات للعملاء ولم يتم اختراق أي خدمات داخلية أخرى."
قالت Microsoft في منشور على مدونة يوم الاثنين إنها حققت في حادثة تتعلق بموظف في Microsoft قام بمشاركة عنوان URL لنموذج تعلم الذكاء الاصطناعي مفتوح المصدر في مستودع GitHub العام وعالجته. وقالت مايكروسوفت إن البيانات المكشوفة في حساب التخزين تضمنت نسخًا احتياطية من ملفات تكوين محطة العمل لاثنين من الموظفين السابقين، بالإضافة إلى معلومات Microsoft Teams الداخلية عن الموظفين السابقين وزملائهم.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسرب ما يصل إلى 38 تيرابايت من البيانات عن طريق الخطأ! فريق أبحاث الذكاء الاصطناعي في Microsoft "يسبب مشاكل" كيفية ضمان أمن البيانات؟
** المصدر: ** وكالة أسوشيتد برس المالية
** المحرر شياو شيانغ **
منذ أن بدأ جنون الذكاء الاصطناعي التوليدي هذا العام، كانت هناك خلافات مستمرة حول أمن البيانات. وفقًا لأحدث الأبحاث الصادرة عن إحدى شركات الأمن السيبراني، فقد قام فريق أبحاث الذكاء الاصطناعي في مايكروسوفت بتسريب كمية كبيرة من البيانات الخاصة على منصة تطوير البرمجيات GitHub قبل بضعة أشهر عن طريق الخطأ، والتي تضمنت أكثر من 30 ألف قطعة من المعلومات الداخلية حول فريق مايكروسوفت.
اكتشف فريق من شركة Wiz للأمن السحابي أن بيانات التدريب مفتوحة المصدر قد تم تسريبها بواسطة فريق أبحاث Microsoft عندما تم إصدارها على GitHub في يونيو. تم تسريب البيانات المستضافة على السحابة من خلال رابط تمت تهيئته بشكل خاطئ.
ووفقًا لـ Wiz، فإن إجمالي 38 تيرابايت من البيانات المسربة شمل نسخًا احتياطية للقرص على أجهزة الكمبيوتر الشخصية لاثنين من موظفي Microsoft، وتحتوي هذه النسخ الاحتياطية على كلمات مرور ومفاتيح لخدمات Microsoft وأكثر من 30 ألف كلمة مرور من 359 موظفًا في Microsoft. .
يقول الباحثون في Wiz إن مشاركة البيانات المفتوحة هي عنصر أساسي في تدريب الذكاء الاصطناعي، لكن مشاركة كميات كبيرة من البيانات يمكن أن تعرض الشركات أيضًا لخطر كبير إذا تم استخدامها بشكل غير صحيح.
وأشار عامي لوتواك، كبير مسؤولي التكنولوجيا والمؤسس المشارك لشركة Wiz، إلى أن Wiz شاركت الموقف مع Microsoft في يونيو، وسرعان ما حذفت Microsoft البيانات المكشوفة. اكتشف فريق بحث Wiz ذاكرات التخزين المؤقت للبيانات هذه أثناء فحص الإنترنت بحثًا عن وحدات تخزين تمت تهيئتها بشكل خاطئ.
ردًا على ذلك، علق متحدث باسم Microsoft بعد ذلك قائلاً: "لقد أكدنا أنه لم يتم الكشف عن أي بيانات للعملاء ولم يتم اختراق أي خدمات داخلية أخرى."
قالت Microsoft في منشور على مدونة يوم الاثنين إنها حققت في حادثة تتعلق بموظف في Microsoft قام بمشاركة عنوان URL لنموذج تعلم الذكاء الاصطناعي مفتوح المصدر في مستودع GitHub العام وعالجته. وقالت مايكروسوفت إن البيانات المكشوفة في حساب التخزين تضمنت نسخًا احتياطية من ملفات تكوين محطة العمل لاثنين من الموظفين السابقين، بالإضافة إلى معلومات Microsoft Teams الداخلية عن الموظفين السابقين وزملائهم.