⚡️ Друзі, обговорення безпеки штучного інтелекту часто зазнають засмічення принциповими заявами, щоб уникнути упереджень, обмежити можливості, гарантувати надійність, але багато дискусій все ще залишаються на папері.
Наступні виклики вже перед нами — це перевірюваність самого процесу логіки. Помилки великих мовних моделей (LLM) є неминучими, проблемою ніколи не було випадкове помилкове рішення, а те, що ми не можемо чітко відстежувати логіку і підстави, на яких ґрунтується їхня оцінка.
Саме це є ядром безпеки AGI: потрібно не лише знати результат, а й розуміти “чому”. Лише тоді, коли процес ло
Переглянути оригінал