大型語言模型與網路搜尋對學習深度的影響

 (https://academic.oup.com/pnasnexus/article/4/10/pgaf316/8303888?login=false)

 

這篇論文探討了使用大型語言模型(LLM)與傳統網路搜尋對學習深度的影響。論文提出一個理論:即使結果的核心事實相同,當人們透過LLM綜合資訊學習某個主題時,他們所獲得的知識深度也可能比透過標準網路搜尋學習時更淺。這種知識深度的差異源於LLM的一個固有特性——它將結果呈現為海量資訊的摘要,而非單一搜尋連結——這阻礙了用戶像在傳統網路搜尋中那樣主動發現和整合資訊來源。因此,當人們隨後基於搜尋結果就該主題提出建議時,那些從LLM綜合資訊(而非傳統網路連結)中學習的人,在形成建議時投入的精力較少,更重要的是,LLM提出的建議往往更簡略、缺乏原創性,最終也更難被他人採納。七項線上和實驗室實驗(n = 10,462)的結果支持了這些預測,並證實例如,即使結果輔以實時網絡鏈接,參與者仍然認為從學習型學習材料(LLM)摘要中獲得的知識較為淺薄。這篇論文討論了這些發現對近期關於LLM益處和風險的研究的意義。



留言