發布時間:2024-08-29作者來源:趙敏瀏覽:1275
近年來,伴隨著AI大模型的顯著技術進步,新一代人工智能成果倍出,如人工智能對話系統ChatGPT、文生視頻軟件Sora、文生音樂軟件Suno等AI新應用不斷給大家帶來驚喜,在沖擊人們眼球和大腦的同時,也正在深刻影響著社會的千行百業。
2023年初,美國Open AI公司推出了基于大規模深層神經網絡、通過人工反饋的強化學習和人工提示的預訓練生成式人工智能對話系統ChatGPT,隨后又推出了它的更新版本GPT-4。
2023年底,Google推出的Gemini系統,性能表現也與GPT-4各有千秋。2024年推出的SORA,則可根據用戶提供的簡單文本生成極為酷炫的短視頻;Anthropic研制成功的Claude 3更是全面超越了GPT-4。
有些人發出感慨,認為“硅基生命超越碳基生命的日子為期不遠了”,甚至還有人提出了荒唐的建議:面對人工智能的發展,人類要么設法逃離地球,要么就得學會臣服機器。
也有不少頭腦清醒的人對此持有不同看法。他們認為,當前GPT產品還存在很多問題,“一本正經地說胡話”就是其中一個特別突出的例子。眾所周知,理解能力是智能的前提。沒有理解能力,不識真偽好歹,怎么能算是“有了真正的智能”?!GPT“一本正經地講胡話”,說明它沒有理解能力,本身意味著巨大風險,因為“胡話”可能把用戶引到錯誤方向。實際上,GPT有意回避了“內容理解”難題,轉而借助同樣也是基于樣本形式特征的“統計方法”來生成語句和選擇對話的“候選答案”。這種缺乏理解能力的GPT離真正的人工智能還相差甚遠,更談不上“全面超人”。
不少國內外的專家、院士、學者,在肯定ChatGPT、Gemini等AI大模型系統的巨大進步的同時,也提出了質疑和反對意見。
2024年8月1日,中國科學院院士、清華大學人工智能研究院名譽院長張鈸在ISC.AI 2024第十二屆互聯網安全大會的演講上表示,當前人工智能還沒有理論,只有發展出來針對的模型和算法,它們都是針對特定領域的,軟件或硬件也都是專用的,市場很小,因此到現在為止還沒有發展出一個大型的人工智能產業,問題就出在這里。
張鈸院士還指出,盡管深度學習在多個領域取得了顯著成就,但是仍然有不少局限性,包括對大量標注數據的依賴、模型的可解釋性差以及容易受到對抗性攻擊的影響。他提出,未來的改進方向應包括開發更高效的學習算法、增強模型的泛化能力、提高模型的可解釋性,并探索更符合人類認知機制的智能系統。
中國科學院院士、北京大學教授鄂維南,在2024年6月26日中國科學院第二十一次院士大會期間,旗幟鮮明地表示,當前人工智能的技術路線是不可持續的,要想找到能使我國人工智能長期穩定發展的技術路線,必須探索人工智能的基本原理。
在2024年5月20日舉辦的搜狐科技年度論壇上,中國工程院院士鄔江興指出:“他們團隊對當前[敏感詞]的10種大模型進行安全分析發現,90%以上的主流大模型是不可信的,而采用內生安全構造的問題,相比單一安全具有顯著優勢,達到了幾個數量級的提升。”
鄔江興指出,深度學習模型存在“三不可”基因缺陷。分別是:
第一,不可解釋性,從數據提供AI模型訓練到知識規律,到獲得應用推理階段,工作原理到現在不明確,問題發現定位非常困難,AI系統中的安全問題比破解密碼還要難。
第二,不可判識性,因為AI對序列性強依賴,不具備對內容的判識能力,所以數據存在質量差異,來源差異,就可能導致訓練出的結果有差異。
第三,不可推論性,AI的推理是從已知數據中獲得規律性,難以勝任對中長期未來事物變遷的預測和推理,只是把現有的東西歸納起來,看起來它聰明無比,但僅僅是比我看得多,并沒有產生什么新的認知。
Meta人工智能首席科學家楊立昆(Yann LeCun)認為,當前的LLM(大語言模型)技術存在“理解邏輯能力極其有限”、“無法對物理世界建模”、“無法形成持久記憶”、“無法進行層級規劃推理”等重大缺陷,并稱單純追求推進LLM的發展“本質是上不安全”的,無法實現真正的AGI(通用人工智能)。
楊立昆指出,現有的LLM盡管在自然語言處理、對話交互、文本創作等領域表現出色,但其仍只是一種“統計建模”技術,通過學習數據中的統計規律來完成相關任務,本質上并非具備真正的“理解”和“推理”能力。結論是:目前的LLM路線無法通往AGI,且非常危險,顯示出業界對AI發展路線圖的分歧。
同濟校長鄭慶華認為,大模型已經成為當前人工智能的[敏感詞],大模型之所以強,是依托了大數據、大算力和強算法,但是也面臨著四大固有缺陷:
缺陷一是過度消耗數據和算力。大模型的參數量已達到萬億級別,訓練數據規模和算力消耗與參數規模成正比。
缺陷二是災難性遺忘。在新任務上訓練會損害之前任務的性能;在問題求解階段,無法記住處理過的數據或場景,比如在無人駕駛中,人腦對路況有記憶,但自動駕駛每次都要重新計算,并為此消耗了大量能量。
缺陷三是黑盒模型邏輯推理能力弱,大模型缺乏“分而治之”能力,在處理需要邏輯、數值推理等復雜問題時表現不佳,無法舉一反三、觸類旁通。
缺陷四是大模型不知道自己錯了,也不知道為啥錯,更做不到知錯就改。以GPT4求解算術運算題的實例為例,對于在1381和1453之間選兩個隨機數相乘的結果給出了錯誤答案,被指出錯誤后,無法定位是語料,還是訓練等原因,更無從修正。
中國科學院院士陳潤生在接受媒體采訪時,談及過他對國產大模型的看法。他認為,好的大模型要真正解決實際問題,并具有足夠的準確度和效率。中國現在有上百個大模型,其中的90%沒多大用處,只會加劇資源和人力的浪費,應該被淘汰。
原工信部副部長楊學山教授在2019年3月21日的人工智能春季創新大會上提到一個統計數據和一個重要觀點,麻省理工近日對16625篇人工智能的論文進行了分析總結,得出結論是:近26年來人工智能領域并沒有出現新技術。他認為,人工智能到今天為止還沒有理論基礎,沒有形成類似經典物理學的“牛頓定律”式的理論,人工智能的理論仍處于“前牛頓時期”。
楊學山在其所著《智能原理》前言中指出:智能成熟度不是以使用什么算法和邏輯決定的。更進一步,人在進化和發展中形成這樣的本能或直覺,也沒有經過邏輯或算法的過程。(編者注:真正的智能無需計算。通過暴力計算出來的結果,也不是真正的智能)
楊學山在《智能原理》P79指出:2017年,又有一些科學家預測到2136年,人工智能可以承擔所有人的工作,這樣的可能性是存在的,但前提是對一系列重大理論和方向問題要有答案。工業革命基于物理學的大發現,智能革命的理論尚未建立,任何樂觀的預言都缺乏理論基礎。
楊學山在《智能原理》P085指出:不僅指導人工智能走向未來的理論尚未建立,最佳實踐也沒有達到,這是有人憂慮人工智能進入再一個冬天的原因。…還有人指出,人工智能的神經網絡研究進展,并沒有跟上認知神經科學[敏感詞]研究的成功,深度學習的算法與人腦的工作機制幾乎沒有共同之處。
楊學山在《智能原理》P092指出:但是人工智能的理論研究與具體的非生物智能應用成果之間存在一條不協調的溝壑。
楊學山在其另一本專著《智能工程》P005指出:智能和通用人工智能沒有[敏感詞]的定義,常識和理解這兩個通用人工智能的必要條件也成為可望而不可即的空中樓閣。…與此相伴的是人工智能界對算法、算力和具有算法能力的人的崇拜,認為具備這三者就一定能構造通用人工智能,這是一個基本認識論的錯誤。
楊學山在《智能工程》P205指出:通過數據挖掘就能得到知識和智慧更是一廂情愿,因為知識和智慧的形成根本不是通過數據挖掘這種模式就能夠獲得的。我們通過大數據及利用一些計算工具和算法得到的一些有趣或有效的結論,這種局部想象泛化為知識和智慧的來源,是科學方法的不嚴謹。
中國人工智能學會原理事長鐘義信教授認為:在物質學科范式引領下的人工智能研究,雖然在技術層次上不斷取得一些淺層和局部的進展,但始終沒有在基礎理論的研究上實施必要的變革,因此始終無法根治物質學科范式給人工智能研究帶來的致命性缺陷:
第一,受到“分而治之”方法論的制約,三大學派各奉所信,各行其是,分道揚鑣,無法建立統一的人工智能理論,也無法研制出通用的人工智能系統。
第二,受到“唯形式化”方法論的制約,人工智能所有概念都被閹割了內涵,成為了難以理解的“無心概念”。因此,所有人工智能產品(當然包括GPT系列)都無法實現對概念的理解,無法生成基于理解的真實智能。
如前所述,當今的AI大模型盡管目前看起來“很成功”,但是確實是沒有發展后勁的,其成果是不可持續的。
上述質疑者和批評者的共性意見摘錄如下:
*“當前人工智能還沒有理論指導”;“指導人工智能走向未來的理論尚未建立”;“人工智能到今天為止還沒有理論基礎”;“人工智能所有概念都被閹割了內涵”;“智能革命的理論尚未建立,任何樂觀的預言都缺乏理論基礎”;
*“理解邏輯能力極其有限”;“不可解釋,不可判識,不可推論”;“本質上并非具備真正的‘理解’和‘推理’能力”;“大模型不知道自己錯了,也不知道為啥錯,更做不到知錯就改”;“無法生成基于理解的真實智能”;
*“當前人工智能的技術路線是不可持續的”;。
*“算法、算力和具有算法能力的人,這三者不可能構造AGI”;“目前的LLM路線無法通往AGI”;
*“90%以上的主流大模型是不可信的”;“中國現在有上百個大模型,其中的90%沒多大用處”。
從上面的專家觀點可以看到,目前還不能對當今AI大模型取得的巨大成果過于樂觀,客觀上AI大模型還存在諸多弊病和偏差。如果上述專家們所言屬實,那么用不了兩三年,很多現有AI大模型在技術上是走不下去的,甚至是沒有未來的。
現有人工智能缺乏理論基礎,是諸多專家詬病最多的一個問題。人類幾百年的近代科學史證明,缺乏理論的科研,一定走不遠。
那么,該怎么辦?
當今人工智能在技術取得長足進步、市場一片喧囂之后,是時候該放慢腳步,換個思路,思考一下人工智能的理論基礎了,即研究人工智能的學科范式問題。
鐘義信教授的見解是:作為信息學科高級篇章的人工智能研究,一直遵循著經典的物質學科范式的“唯形式化”和“分而治之”的方法論,這不符合信息學科性質的需要,屬于學科范式的“錯配”。應該用全新的信息學科范式來研究今天的人工智能,用中華文明中的“整體觀和辯證論”的思想去重新思考人工智能的基本問題。
物質學科只研究物質。信息學科則不僅研究物質,更要研究主體(編者注:只有主體才有智能),尤其要研究主體駕馭下的主體客體相互作用的信息生態過程。信息學科的迅猛崛起是時代進步的需要。物質學科研究主導的科學時代一定要向信息學科研究主導的科學時代迅速轉變,才能適應時代進步和科學發展的要求。
信息學科范式在人工智能領域取代物質學科范式,并不表明物質學科范式本身存在什么問題,只是表明學科范式與學科研究的性質之間必須和諧匹配,而不應當錯位,不應當張冠李戴:人工智能是信息學科的高級篇章,因此應當遵循信息學科范式;而物質學科的研究則應當遵循物質學科的范式。各種范式都按照學科的性質各就其位,各得其所,各司其職,各領風騷,協調發展,共創輝煌。
免責聲明:本文采摘自英諾維盛公司,本文僅代表作者個人觀點,不代表金航標及行業觀點,只為轉載與分享,支持保護知識產權,轉載請注明原出處及作者,如有侵權請聯系我們刪除。
Copyright ? 深圳市金航標電子有限公司 版權所有 粵ICP備17113853號