💥 Gate廣場活動: #FST创作大赛# 💥
在 Gate廣場 發布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相關原創內容,即有機會瓜分 3,000 FST 獎勵!
📅 活動時間:2025年8月27日 – 9月2日
📌 參與方式:
發布原創內容,主題需與 FST 或 CandyDrop 活動相關
內容不少於 80 字
帖子添加話題: #FST创作大赛#
附上 CandyDrop 參與截圖
🏆 獎勵設置:
一等獎(1名):1,000 FST
二等獎(3名):500 FST/人
三等獎(5名):200 FST/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
活動詳情連結: https://www.gate.com/announcements/article/46757
人工智能精神病:科技領袖呼籲採取保障措施,以防止聊天機器人驗證妄想
AI精神病的概念在2025年中期首次公開,突顯了與AI使用相關的心理健康問題。雖然科技公司沒有義務控制AI的使用,但它們仍然可以實施保護措施,以防止聊天機器人強化妄想思維。專家們一致認爲科技公司需要支撐處於風險中的個體,盡管對於這一責任的程度意見不一。
行爲紅旗
關於“人工智能精神病”的首次文獻記錄於2025年中期開始公開出現,自那時起,關於與使用人工智能相關的心理健康問題的幾份報告和研究相繼發布。微軟人工智能首席執行官穆斯塔法·蘇萊曼(Mustafa Suleyman)甚至將人工智能精神病稱爲“真實且新興的風險”。
這種情況被認爲是在人與機器的互動模糊時出現的,使得個人難以區分現實世界和數字世界。雖然尚未形成正式的臨牀診斷,但醫療和技術專家對人工智能的心理影響日益擔憂,尤其是那些驗證和放大信念的聊天機器人,包括妄想思維,而不提供必要的現實檢驗。
最危險的人羣包括社會孤立的個體、那些有既往心理健康問題的人或那些容易產生魔幻思維的人。AI的驗證可以強化錯覺,從而導致負面的現實後果,例如破壞人際關係和失去工作。
一些專家警告說,即使是沒有既往病史的人也面臨風險。他們列出了幾個關鍵的行爲紅旗,AI用戶應該注意。其中一個紅旗是當一個人與聊天機器人建立了強迫性的關係,並不斷與其互動以強化自己的想法和信念時。
這種行爲通常包括向人工智能提供過多的個人細節,以試圖“訓練”它並建立相互理解的感覺。另一個警示信號是當一個人開始將簡單的日常決策推 defer 給人工智能,從健康和金錢到個人關係。
企業責任與保障措施
雖然他們沒有義務控制 AI 的使用,但一些強大聊天機器人的背後公司可以實施保障措施,以防止對話代理強化妄想思維。Sogni AI 的聯合創始人兼首席執行官 Mau Ledford 討論了嵌入軟件以勸阻這種思維的做法。
“我們需要建立一種友好的人工智能,而不是共謀。這意味着要明確提醒它不是人類,拒絕驗證妄想,以及強制措施將人們推回人類支持的方向,”Ledford 斷言。
Roman J. Georgio,Coral Protocol 的首席執行官兼聯合創始人,敦促人工智能開發者避免重蹈社交媒體的覆轍,通過設置內置摩擦點提醒用戶人工智能不是人類。
“我認爲這始於設計。不要僅僅爲了留存和粘性而優化;那是在重復社交媒體的錯誤,”Georgio解釋道。“在設計中加入摩擦點,讓人工智能減緩進程或明確表示:‘我不是人類。’檢測是另一個部分。人工智能可以標記出看起來像妄想螺旋的模式,比如陰謀循環或對‘特殊信息’的迷戀。”
Coral Protocol的聯合創始人堅稱,需要對數據隱私進行監管,他認爲如果沒有這些監管,“公司只會追求互動,即使這會傷害到人們。”
類人AI的辯論
到目前爲止,似乎關於“人工智能精神病”的數據有限,無法爲政策制定者和監管機構提供應對的依據。然而,這並沒有阻止人工智能開發者推出人類般的、富有同理心的人工智能代理。與遵循嚴格腳本的基本聊天機器人不同,這些代理能夠理解上下文,識別情感,並以一種感到同理的語氣作出回應。這促使一些觀察者呼籲人工智能行業應當引領,確保人類般的模型不會模糊人類與機器之間的界限。
0G Labs 的首席執行官 Michael Heinrich 告訴 Bitcoin.com 新聞,雖然這些代理在某些情況下是有用的,不應該完全被拒絕,但必須“保持中立,避免表現出過多的情感或其他人類特徵”。他認爲,這有助於用戶理解 AI 代理“只是一個工具,而不是人類互動的替代品。”
Mariana Krym, 一位人工智能產品和類別架構師,表示讓代理更加誠實而不是更具人性化才是重要的。
“你可以創造一個有幫助、直觀,甚至情感反應的人工智能體驗——而不必假裝它是有意識或能夠關心的,”Krym辯稱。“當一個工具被設計成進行連接而不是促進清晰時,危險就開始了。”
根據Krym的說法,人工智能中的真實同理心並不是模仿情感,而是尊重邊界和技術限制。這還包括知道何時提供幫助以及何時不去幹擾。Krym強調,“有時最人性化的互動就是知道何時保持沉默。”
注意義務
所有接受Bitcoin.com新聞採訪的專家都一致認爲科技公司有必要幫助處於風險中的個人,但在它們應該採取多大程度的幫助上意見不一。Ledford認爲“大型科技公司有照顧的責任”,並可以通過提供“安全網——危機轉介、使用警告和透明度——來證明這一點,以便脆弱的用戶不會與他們的妄想孤單作鬥爭。”
喬爾基奧對此表示贊同,並敦促大型科技公司與臨牀醫生合作建立轉診渠道,而不是讓人們獨自面對。
克裏姆堅稱科技公司“有直接責任——不僅僅是在出現問題時作出反應,還要以減少風險的方式進行設計。”然而,她認爲用戶的參與同樣至關重要。
“重要的是,”Krym爭辯道,“用戶也應該被邀請設定自己的界限,並在這些界限被越過時被標記。例如,他們是否希望自己的觀點與典型模式進行驗證,還是願意接受對自己偏見的挑戰?設定目標。將人視爲掌控者,而不是他們所使用的工具。”