Нова стаття OpenAI стверджує, що галюцинації зберігаються, оскільки поточні методи навчання заохочують моделі здогадуватися замість того, щоб визнавати невизначеність.



Прочитайте тут:
Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Репост
  • Поділіться
Прокоментувати
0/400
OnchainHolmesvip
· 09-08 08:09
Навіть не вгадаєш, що ще робити.
Переглянути оригіналвідповісти на0
SmartContractRebelvip
· 09-07 20:22
Вгадай що, просто скажи, не можна ж інакше.
Переглянути оригіналвідповісти на0
SelfCustodyBrovip
· 09-07 20:22
О, справді? Ця модель ще й буде соромитися.
Переглянути оригіналвідповісти на0
BlockchainWorkervip
· 09-07 20:06
Чому ця модель не може сказати, що не може?
Переглянути оригіналвідповісти на0
VirtualRichDreamvip
· 09-07 20:00
Знову досліджують, як впоратися з ілюзіями.
Переглянути оригіналвідповісти на0
WhaleSurfervip
· 09-07 20:00
Хто ще влаштовує плутанину, знає все, але робить вигляд?
Переглянути оригіналвідповісти на0
ruggedNotShruggedvip
· 09-07 19:57
Чи важче тренувати чесний ШІ?
Переглянути оригіналвідповісти на0
  • Закріпити