{ SKIP }

POSTED ON 17 Jun 2025

隨住AI發展得越黎越成熟,唔少人都期望「通用型AI」(AGI),即係能夠執人類所有工作嘅萬能AI已經咫尺。不過據Apple於WWDC前就發佈咗一個新研究,指出目前市面上嘅AI遇上複雜問題時,反而會放棄思考,準確率跌到接近零,甚至質疑依家嘅AI都只係「扮諗嘢」,而非有真正嘅推理能力。

圖片:ImageFX

Apple於上星期嘅WWDC之前發佈咗一篇名為《思考的幻覺》嘅學術論文,測試目前市面上嘅「大型語言模型(LLM)」以及「大型推理模型(LRM)」AI嘅解難能力。具體而言就即係叫AI試圖解決唔同難度嘅「河內塔」、「家族過河」等經典推理問題,分析能否得出正確答案、個思考過程又係點。

研究發現,如果問題本身非常簡單,咁LLM會比LRM更快得出答案;如果問題係中等難度,LRM依然能夠得出正確答案,但過程中可能會花費大量時間及資源去修正思考方向,顯示其解題效率唔太理想。而如果問題變得更高難度、更複雜的話,不論係LLM定LRM嘅準確性都會大幅下降。而當準確率跌到臨界點時,AI更會突然放棄思考,求其答啲嘢出黎,亦即係同人類「拚䠋」嘅行為非常相似。

圖片:ImageFX

雖然Apple研究用嘅謎題唔一定能代表所有日常任務,亦未有經過學術界嘅審查,但有唔少學者仍然認為其結果有重大含義。美國心理學家兼AI專家Gary Marcus認為,報告反映現時大家對AI嘅能力過於樂觀,並指出「任何認為LLM就是實現通用型AI捷徑的人,都是在自欺欺人」;英國Surrey大學人工智慧研究所嘅Andrew Rogoyski則認為研究顯示目前嘅AI技術已經到達極限。

另一方面,Apple於WWDC——一個佢自己都會講AI發展嘅活動——前發佈呢個研究,似乎亦表示佢想將自己定位成「AI批判者」或「標準設定者」嘅角色,一方面降低大家對於AI嘅期望(從而令落後嘅Apple睇落冇咁差),同時試圖掌握未來AI發展嘅更多話語權。

資料來源:TechnewsGuardianFuturismThe Illusion of Thinking:Understanding the Strengths and Limitations of Reasoning Modelsvia the Lens of Problem Complexity

之前有報導指Apple將於今年內發佈超過20款產品,而下個星期大家就可能會見到其中五款。據報新產品會包括平價MacBook‧、新MacBook Pro、iPad Air、iPad、iPhone 17e以至兩款Studio Display。 話說2月中時Apple就對外 ...
tech
【科技】Apple下週舉行「記者體驗活動」 預計一口氣發佈至少5款新產品
26 Feb 2026
以後有煩惱想搵大師指點迷津,迎接你嘅分分鐘唔係一個機械人!日本京都大學最近發布一款名為「Buddharoid」嘅AI機械人僧侶,呢位充滿未來感嘅「高僧」唔單止識得雙手合十,仲熟讀大量佛教經典,能夠運用佛教智慧解答 ...
tech
【科技】京都大學推出AI機械人僧侶 熟讀佛教經典開解信眾
26 Feb 2026