根據海外媒體報導,OpenAI董事會的鬧劇在上週引起了不少人的關注,許多人都在關心董事會開除Sam Altman的幕後原因,而有媒體曾報導,這與一項可能會威脅人類社會安全的技術突破有關。
這一技術突破使 OpenAI的高級研究人員建立了一個被稱為Q*的模型,它可以解決以前從未見過的數學問題,這對現有的人工智慧模型來說是一項艱鉅的任務。
這無疑是件大事,但紐約大學心理學和神經科學教授 Gary Marcus 在5月參議院人工智慧監管聽證會上與 Sam Altman一起發言時認為,人們不應該對此技術過於激動。
Gary Marcus表示,如今的大語言模型在很大程度上是一種預測機器,它們會根據訓練數據猜測下句話怎麼說更合適。
事實上,Q*能夠解決它以前從未見過的數學問題,這可能是大型語言模型開始克服推理極限的一個標誌。
即便如此,這也只能說明大語言模型的推理能力達到了小學生的水準,想要達到對人類造成威脅的程度還早著呢!而這也是Marcus的觀點,人們距離推出能力能夠媲美人類的人工智慧還有很長的路要走。
Marcus認為,大語言模型的預測性質與符號人工智慧(Symbolic AI)形成了鮮明對比,後者是人工智慧的一個古老分支,通過推理符號和符號之間的關係來解決問題。
它類似於代數,”x"或"y"等符號代表數值,而加號或減號等符號則表示這些數值之間的關係,你可以將這種思維擴展到其他類型的邏輯問題中。
例如,所有虎斑貓都是貓,而所有貓都是動物,因此虎斑貓一定是一種動物。
Marcus認為,未來的人工智慧研究很可能會將生成式AI和符號式人工智慧結合起來,就像人類同時使用直覺思維和分析思維一樣。
實際上,在 Marcus 看來,阻礙人們實現未來願景的主要障礙可能是另一個古老的問題:人際衝突。
Marcus長期以來一直是深度學習的批評者,而深度學習正是GPT-4這樣的大語言模型所採用的機器學習技術,這讓他與人工智慧教父Geoffrey Hinton和Yann LeCun陷入了水深火熱的學術鬥爭之中之中,三人曾在社群媒體上展開過激烈的「學術討論」。
而隨著時間的推移,這三位科學家之間的緊張關係導致了AI學術領域的分裂,而這種分裂似乎在短期內無法彌補。
因此,在支持深度學習的人工智慧研究人員和支持符號人工智慧的研究人員跨過這些鴻溝攜手合作之前,人們不必擔心AGI會在短期內終結人類。
本文為AI新智界授權刊登,原文標題為「OpenAI「唱衰者」Gary Marcus再評論:Q*就是個小學生,不用擔心它威脅人類」