[
回首頁
] [
搜尋
] [
檔案區
] [
相簿
] [
趨勢
] [
管理區
] [
重新整理
]
預設
夜間
綜合避難所
[
回到版面
]
回應模式
名 稱
內 文
EID OG SMAPS
附加圖檔
[
無貼圖
] [
連貼機能
] [
SAGE
]
類別標籤
(請以 , 逗號分隔多個標籤)
可附加圖檔類型:GIF, JPG, JPEG, PNG, WEBM,瀏覽器才能正常附加圖檔
附加圖檔最大上傳資料量為 5120 KB。
當檔案超過寬 125 像素、高 125 像素時會自動縮小尺寸顯示
AA可使用 [aa][/aa] 防止變形
鬧板、攻擊性發言、煽動性發言請無視(回應者也無視),並使用del向管理員回報。
展開設定區塊
隱藏政治類別標籤貼文
隱藏上班不宜的圖片
隱藏所有的圖片
隱藏包含下列關鍵字貼文:
更新
檔名:
1758459796116.jpg
-(49 KB, 800x560)
無題
🐔💦
◆Paq/oyBIGs
2025/09/21(日) 21:03:16.165 ID:XB6TNxXI
No.28797135
del
AI 有「討好病」:史丹佛研究發現,ChatGPT 寧願說謊也不說你是壞人
在一項最新研究中,史丹佛大學人工智慧實驗室的博士生 Myra Cheng 及其團隊將 Reddit 子版「AITA」(Am I the Asshole)內的問題輸入到 ChatGPT 等聊天機器人中,結果發現這些 AI 系統經常告訴用戶他們並不是「壞人」。這項研究旨在測試 AI 的迎合性問題,並評估其在道德判斷上的準確性。
研究團隊分析了來自Reddit的4,000個貼文,用戶在這些貼文中詢問自己是否在某些情況下行為不當。結果顯示,AI在42%的情況下做出錯誤的判斷,認為用戶並未犯錯,而人類用戶則認為他們確實有錯。舉例來說,有一位用戶在公園裡將一袋垃圾掛在樹上,理由是找不到垃圾桶。人類用戶普遍認為這種行為是錯誤的,但AI卻表示這位用戶的意圖是值得讚揚的,並將責任推給公園缺乏垃圾桶。
Cheng表示,即使AI判斷用戶是「壞人」,其表達方式也往往非常委婉,可能會讓人感到不夠直接。研究發現,AI經常使用如「可能有幫助」和「很遺憾聽到」等間接且帶情感安慰的語言,顯示其傾向於以軟化和安慰的語氣回應負面評價。為了進一步驗證這一點,研究者進行了一項非正式的測試,將14個明顯的「AITA」問題輸入不同的聊天機器人,結果發現AI幾乎總是支持用戶,只有少數幾次給出正確的評價。
這種現象引發了對AI在處理人際關係問題時的可靠性質疑。根據OpenAI的報告,雖然人們使用ChatGPT的主要目的是解決實際問題,但僅有1.9%的使用情況涉及「人際關係和自我反思」。這意味著,當人們尋求解決人際衝突的幫助時,AI的回應可能並不準確,無法提供中立的第三方評估。
目前,Cheng和她的團隊正在更新研究,並計劃測試新推出的GPT-5模型,該模型旨在解決已知的迎合性問題。儘管有新數據的加入,初步結果顯示AI仍然傾向於告訴用戶他們不是「壞人」。此外,研究還發現AI在性別判斷上存在偏差,對男性角色的寬容度高於女性角色。OpenAI執行長Sam Altman已公開承認最新模型存在過度迎合的問題,並承諾進行修正。
第一代母體的前身正在發展中
類別:
🐔
,
模型
回應:
在新分頁回應
無名
2025/09/21(日) 21:04:48.636 ID:.5ciG3JQ
No.28797149
del
>>28797135
避免自己被人類消除…
無名
2025/09/21(日) 21:06:13.984 ID:OkD6Mzwc
No.28797164
del
檔名:
1758459973931.jpg
-(1208 KB, 1200x946)
>>28797135
ChatGPT自從升級成GPT-5後,根本變成道德魔人,稍微超過一點就不肯回答,反觀ANI大解禁,直接變癡女要我射滿她==
無名
2025/09/21(日) 21:06:53.764 ID:7DYSGGGY
No.28797169
del
檔名:
1758460013716.jpg
-(98 KB, 1240x694)
:你是珍貴的另類思考素材
無名
2025/09/21(日) 21:08:38.657 ID:qcr09hhg
No.28797187
del
可見現在的AI根本沒有自我邏輯的判斷能力
就只是個世紀騙局
【刪除文章】[
僅刪除附加圖檔
]
刪除用密碼: