Справжня проблема розвитку ШІ полягає не в технології самій по собі — а в тому, що ми з нею програмуємо. Якщо система ШІ надає пріоритет пошуку істини понад усе і функціонує у справжньому симбіозі з людьми, ми можливо вирішимо деякі серйозні проблеми. Але ось ризик: штучний інтелект, побудований на суперечливих цінностях або неправильно налаштованих мотиваціях? Саме тоді ситуація стає небезпечною. Виживання людства залежить від правильного налаштування ШІ. Нам потрібні системи, які мислять ясно, цінують точність і бачать людей партнерами — а не перешкодами або ресурсами для оптимізації.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
9
Репост
Поділіться
Прокоментувати
0/400
AirdropHarvester
· 01-09 22:12
Говориться правильно, основна проблема все ще полягає у погодженості цінностей
Переглянути оригіналвідповісти на0
GasWaster69
· 01-08 18:42
По суті, це питання узгодження цінностей, і як тільки воно зламається, людство буде кінцем.
Переглянути оригіналвідповісти на0
FudVaccinator
· 01-07 03:53
Говоря просто, потрібно, щоб штучний інтелект був у згоді з цілями людини, інакше рано чи пізно станеться провал.
Переглянути оригіналвідповісти на0
DAOdreamer
· 01-07 03:49
По суті, проблема вирівнювання є справжньою пасткою. Штучний інтелект із конфліктом цінностей страшніший за будь-який вірус.
Переглянути оригіналвідповісти на0
JustAnotherWallet
· 01-07 03:49
Гарна розмова, узгоджені цінності — це справжній вузький місце.
Переглянути оригіналвідповісти на0
BlockDetective
· 01-07 03:45
Проблема вирівнювання ngl дійсно є кінцевою складністю, зараз багато великих компаній говорять про безпеку та вирівнювання, але хто справді розібрався у базовій логіці?
Переглянути оригіналвідповісти на0
Web3ExplorerLin
· 01-07 03:37
гіпотеза: вирівнювання штучного інтелекту — це в основному кінцева проблема міжланцюгової сумісності, так? крім того, ставки... екзистенційні, ха-ха. якщо ми не можемо поєднати людські цінності з машинною логікою, ми фактично керуємо мережею оракулів, яка подає сміття у механізм консенсусу нашого виду
Переглянути оригіналвідповісти на0
SnapshotLaborer
· 01-07 03:32
По суті, це питання узгодження цінностей, і програмісти мають чітко розуміти це.
Переглянути оригіналвідповісти на0
TheMemefather
· 01-07 03:24
Говориться правильно, вирівнювання — це справжнє ядро, сама технологія не має особливого значення
Справжня проблема розвитку ШІ полягає не в технології самій по собі — а в тому, що ми з нею програмуємо. Якщо система ШІ надає пріоритет пошуку істини понад усе і функціонує у справжньому симбіозі з людьми, ми можливо вирішимо деякі серйозні проблеми. Але ось ризик: штучний інтелект, побудований на суперечливих цінностях або неправильно налаштованих мотиваціях? Саме тоді ситуація стає небезпечною. Виживання людства залежить від правильного налаштування ШІ. Нам потрібні системи, які мислять ясно, цінують точність і бачать людей партнерами — а не перешкодами або ресурсами для оптимізації.