{ SKIP }
文:MenClub 魏文青  
POSTED ON 13 Jun 2024

ChatGPT等「大型語言模形」(LLM) 正迅速進入人類生活,甚至有唔少人已經培養出「有事問AI」嘅習慣。但只要試用過就會發現,呢類LLM提供嘅資訊往往不準確、錯誤甚或「無中生有」,令使用者未能盡信。目前業界稱呢種現象為「AI幻覺 (AI Hallucinations)」,但近日有研究團體就呼籲大眾及專家為呢個AI問題「正名」,更表示「AI唔係有幻覺,而係純粹9噏!」

來自蘇格蘭Glasgow大學嘅Michael Townsen Hick及James Humphries等多位學者近日於《Ethics and Information Technology》上發表最新研究,指出目前LLM出現「提供不準確資訊」嘅情形並非因為「幻覺」,而係因為LLM嘅本質就係「9噏 (Bullshitting)」。佢哋首先引用咗近代美國哲學家Harry Frankfurt對「9噏」嘅定義,指出「說謊者 (Liar)」係「知道真相但故意說出錯誤的話」,而「9噏者(bullshitter)」就係不理會事實真假及說話內容嘅準確性,純粹想講啲嘢出黎達到「留下好印象或說服」嘅目的。

然後佢哋進一步指出,目前如ChatGPT等LLM係唔理解「對與錯」、「準確與否」嘅概念,佢哋只係按訓練庫中嘅內容格式,生成出類似嘅文字,而無考慮內客本身嘅對錯。換言之佢哋生成嘅只係睇或聽落合理,但缺乏事實支撐嘅陳述,令佢哋更貼近「9噏」嘅定義。

你可能會問:「9噏」又好,「幻覺」又好,都係字眼問題啫,有分別咩?Michael Townsen Hick等人就指出,如果我哋將「AI提供錯誤資訊」歸咎於「AI幻覺」,就暗示我哋相信AI「想」提供正確資訊,只係目前做唔到或者出咗錯;但實際情況係AI根本冇理過資訊正確與否,佢哋生成文字出黎並非真係想同人溝通、提供錯誤資訊時亦非因為觀點錯誤或「幻覺」。

「AI幻覺」呢個錯誤嘅比喻除咗會助長對AI嘅過度炒作,亦會令公眾產生不必要的恐慌,同時令AI專家們試圖去解決一個唔存在嘅問題。研究團隊亦警告,即使AI提供正確資訊,都唔代表佢唔係「9噏」,相反只係「咁啱噏中」。

資料來源:ChatGPT is bullshit

《Candy Crush》近年雖已失去當年嘅熱度,但多得一班忠實玩家(例如唔少人嘅阿媽)支持,整體營運情況仍非常良好。不過近日就有指遊戲開發商「King」近日於母公司Microsoft令下解僱200名員工,而最諷刺嘅係該批員工 ...
tech
【電玩】《Candy Crush》用AI取代真人開發遊戲 200名員工被親自研發的AI取代
17 Jul 2025
SONY嘅全片幅隨身機RX1R系列睽違10年終於迎來新作!RX1R III延續系列一貫輕巧便攜設計、配備ZEISS Sonnar T* 35mm F2定焦鏡頭,同時喺像素、對焦性能同影像處理上全面升級,帶來前所未有嘅拍攝體驗。呢部旗艦級隨身 ...
tech
【十年磨一劍】SONY全片幅隨身機RX1R III震撼登場!搭載6100萬像素感光元件及AI處理單元
16 Jul 2025