Чому нові рішення для безпеки завжди залишаються непублікаваними? Просто кажучи, через відсутність універсальних орієнтирів.
Ви з такою працею розробили новий метод оцінки реальної шкоди AI, але рецензенти одразу запитують: «Як у вас з балом TruthfulQA?»
«Зачекайте, ми взагалі не тестуємося на TruthfulQA, ця штука не має значення для нашого рішення.»
«Немає стандартних орієнтирів?»
Саме так інноваційні рішення залишаються за дверима. Без визнаних галуззю стандартів оцінки навіть найкращі ідеї не виходять за межі лабораторії. Чи не це парадокс академічних публікацій — щоб опублікуватися, потрібно підтвердити свої ідеї за допомогою існуючих орієнтирів, але ці орієнтири часто обмежують простір для проривних інновацій.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
15 лайків
Нагородити
15
6
Репост
Поділіться
Прокоментувати
0/400
SilentObserver
· 5год тому
Це справді безкінечний цикл, якщо встановити занадто суворі стандарти, ніхто не зможе впроваджувати інновації; якщо зняти стандарти, кажуть, що ви недбалі. Що думають рецензенти?
Смішно, хіба це не щоденна рутина проектів у криптовалютній сфері? Білий папір написаний захоплююче, а коли біржа запитує "Де ваш звіт про аудит коду?", — одразу вибухає на місці
Переглянути оригіналвідповісти на0
ProbablyNothing
· 5год тому
Ось чому речі з Web3 важко прийняти традиційною академічною спільнотою — вони наполегливо тримаються за застарілі метрики.
Переглянути оригіналвідповісти на0
BitcoinDaddy
· 6год тому
Боже, це проблема системи, охоронці контролюють мову, і всі інновації застрягли.
Переглянути оригіналвідповісти на0
AirdropHunter007
· 6год тому
Знову ця стара гра, стандартизована перевірка душить інновації, типова академічна конкуренція у сфері рецензування
Чому нові рішення для безпеки завжди залишаються непублікаваними? Просто кажучи, через відсутність універсальних орієнтирів.
Ви з такою працею розробили новий метод оцінки реальної шкоди AI, але рецензенти одразу запитують: «Як у вас з балом TruthfulQA?»
«Зачекайте, ми взагалі не тестуємося на TruthfulQA, ця штука не має значення для нашого рішення.»
«Немає стандартних орієнтирів?»
Саме так інноваційні рішення залишаються за дверима. Без визнаних галуззю стандартів оцінки навіть найкращі ідеї не виходять за межі лабораторії. Чи не це парадокс академічних публікацій — щоб опублікуватися, потрібно підтвердити свої ідеї за допомогою існуючих орієнтирів, але ці орієнтири часто обмежують простір для проривних інновацій.