{ SKIP }
文:MenClub 魏文青  
POSTED ON 13 Jun 2024

ChatGPT等「大型語言模形」(LLM) 正迅速進入人類生活,甚至有唔少人已經培養出「有事問AI」嘅習慣。但只要試用過就會發現,呢類LLM提供嘅資訊往往不準確、錯誤甚或「無中生有」,令使用者未能盡信。目前業界稱呢種現象為「AI幻覺 (AI Hallucinations)」,但近日有研究團體就呼籲大眾及專家為呢個AI問題「正名」,更表示「AI唔係有幻覺,而係純粹9噏!」

來自蘇格蘭Glasgow大學嘅Michael Townsen Hick及James Humphries等多位學者近日於《Ethics and Information Technology》上發表最新研究,指出目前LLM出現「提供不準確資訊」嘅情形並非因為「幻覺」,而係因為LLM嘅本質就係「9噏 (Bullshitting)」。佢哋首先引用咗近代美國哲學家Harry Frankfurt對「9噏」嘅定義,指出「說謊者 (Liar)」係「知道真相但故意說出錯誤的話」,而「9噏者(bullshitter)」就係不理會事實真假及說話內容嘅準確性,純粹想講啲嘢出黎達到「留下好印象或說服」嘅目的。

然後佢哋進一步指出,目前如ChatGPT等LLM係唔理解「對與錯」、「準確與否」嘅概念,佢哋只係按訓練庫中嘅內容格式,生成出類似嘅文字,而無考慮內客本身嘅對錯。換言之佢哋生成嘅只係睇或聽落合理,但缺乏事實支撐嘅陳述,令佢哋更貼近「9噏」嘅定義。

你可能會問:「9噏」又好,「幻覺」又好,都係字眼問題啫,有分別咩?Michael Townsen Hick等人就指出,如果我哋將「AI提供錯誤資訊」歸咎於「AI幻覺」,就暗示我哋相信AI「想」提供正確資訊,只係目前做唔到或者出咗錯;但實際情況係AI根本冇理過資訊正確與否,佢哋生成文字出黎並非真係想同人溝通、提供錯誤資訊時亦非因為觀點錯誤或「幻覺」。

「AI幻覺」呢個錯誤嘅比喻除咗會助長對AI嘅過度炒作,亦會令公眾產生不必要的恐慌,同時令AI專家們試圖去解決一個唔存在嘅問題。研究團隊亦警告,即使AI提供正確資訊,都唔代表佢唔係「9噏」,相反只係「咁啱噏中」。

資料來源:ChatGPT is bullshit

之前有報導指Apple將於今年內發佈超過20款產品,而下個星期大家就可能會見到其中五款。據報新產品會包括平價MacBook‧、新MacBook Pro、iPad Air、iPad、iPhone 17e以至兩款Studio Display。 話說2月中時Apple就對外 ...
tech
【科技】Apple下週舉行「記者體驗活動」 預計一口氣發佈至少5款新產品
26 Feb 2026
以後有煩惱想搵大師指點迷津,迎接你嘅分分鐘唔係一個機械人!日本京都大學最近發布一款名為「Buddharoid」嘅AI機械人僧侶,呢位充滿未來感嘅「高僧」唔單止識得雙手合十,仲熟讀大量佛教經典,能夠運用佛教智慧解答 ...
tech
【科技】京都大學推出AI機械人僧侶 熟讀佛教經典開解信眾
26 Feb 2026