لماذا دائمًا لا يُنشر الحلول الجديدة للوقاية الأمنية؟ ببساطة لأنه يفتقر إلى معيار عام.
لقد بذلنا جهدًا كبيرًا لتطوير طريقة جديدة لقياس الضرر الحقيقي للذكاء الاصطناعي، ولكن فجأة يسأل المراجع: «كيف هو تقييمك في TruthfulQA؟»
«انتظر، نحن لم نختبر TruthfulQA على الإطلاق، فهي لا معنى لها بالنسبة لحلنا.»
«هل هناك معيار قياسي؟»
وهكذا، تُحجب الحلول المبتكرة خارج الباب. بدون معيار تقييم معتمد من الصناعة، حتى أفضل الأفكار لا يمكن أن تخرج من المختبر. أليس هذا تناقضًا في النشر الأكاديمي؟ — لنشر البحث يجب أن يُثبت باستخدام معايير موجودة، لكن المعايير الحالية غالبًا ما تقيّد مساحة الابتكار الثوري.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 17
أعجبني
17
7
إعادة النشر
مشاركة
تعليق
0/400
MemeCoinSavant
· منذ 17 س
نعم، هذا يعادل المراجعة الأكاديمية النظرية لـ "لكن هل يمر بمعيارنا القديم لعام 2019" 💀 مثل يا أخي، لقد بنيت إطارًا جديدًا تمامًا وواجهتك اختبار TruthfulQA بسرعة... هذا ليس حراسة البوابة، هذا مجرد تبرير يتظاهر بالصرامة حقًا
شاهد النسخة الأصليةرد0
SilentObserver
· 01-14 13:11
هذه حقًا دائرة مفرغة، إذا كانت المعايير صارمة جدًا فلن يتمكن أحد من الابتكار، وإذا كانت المعايير غير صارمة فستقول إنك غير دقيق، ماذا يفكر المراجعون؟
مضحك جدًا، أليس هذا هو الروتين اليومي لمشاريع العملات الرقمية، يكتبون الورقة البيضاء بشكل مبهر، وعندما يسألهم البورصة "أين تقرير تدقيق الكود الخاص بك"، ينفجرون مباشرة من الغضب
شاهد النسخة الأصليةرد0
ProbablyNothing
· 01-14 13:01
هذه هي السبب في صعوبة قبول أشياء الويب3 في الأوساط الأكاديمية التقليدية، فهم متمسكون بتلك المقاييس القديمة ولا يتركونها.
شاهد النسخة الأصليةرد0
BitcoinDaddy
· 01-14 12:48
يا إلهي، هذه هي مشكلة النظام، الحراس يسيطرون على حق الكلام، وكل الابتكارات تتوقف.
شاهد النسخة الأصليةرد0
AirdropHunter007
· 01-14 12:47
مرة أخرى نفس الحيلة القديمة، المعايير الموحدة للرقابة تقتل الابتكار، وهو تدهور نمطي في الرقابة الأكاديمية
لماذا دائمًا لا يُنشر الحلول الجديدة للوقاية الأمنية؟ ببساطة لأنه يفتقر إلى معيار عام.
لقد بذلنا جهدًا كبيرًا لتطوير طريقة جديدة لقياس الضرر الحقيقي للذكاء الاصطناعي، ولكن فجأة يسأل المراجع: «كيف هو تقييمك في TruthfulQA؟»
«انتظر، نحن لم نختبر TruthfulQA على الإطلاق، فهي لا معنى لها بالنسبة لحلنا.»
«هل هناك معيار قياسي؟»
وهكذا، تُحجب الحلول المبتكرة خارج الباب. بدون معيار تقييم معتمد من الصناعة، حتى أفضل الأفكار لا يمكن أن تخرج من المختبر. أليس هذا تناقضًا في النشر الأكاديمي؟ — لنشر البحث يجب أن يُثبت باستخدام معايير موجودة، لكن المعايير الحالية غالبًا ما تقيّد مساحة الابتكار الثوري.