首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|低空經(jīng)濟|智能汽車|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 報告 >> 正文

斯坦福最新AI研究報告出爐 中美模型質(zhì)量差距縮小至0.3%

2025年4月9日 10:51  鳳凰網(wǎng)科技  作 者:陳俊熹

nature發(fā)文,斯坦福大學(xué)以人為本人工智能研究所發(fā)布的《2025年人工智能指數(shù)報告》顯示,人工智能領(lǐng)域的競爭日益激烈:中國高性能AI模型的數(shù)量和質(zhì)量不斷提升,對美國的領(lǐng)先地位構(gòu)成挑戰(zhàn),頂級模型之間的性能差距正在縮小。

美國此前在模型質(zhì)量方面的領(lǐng)先優(yōu)勢已經(jīng)消失。中國是人工智能出版物和專利產(chǎn)出最多的國家,如今其開發(fā)的模型在性能上已經(jīng)與美國的競爭對手不相上下。2023年,在大規(guī)模多任務(wù)語言理解測試(MMLU)中,中國領(lǐng)先的模型落后于美國頂級模型近20個百分點。然而,到2024年底,美國的領(lǐng)先優(yōu)勢縮小到了0.3個百分點。

世界各頂級AI模型之間性能已無太大差距

該報告強調(diào),隨著人工智能的快速持續(xù)發(fā)展,沒有一家公司能夠脫穎而出。在聊天機器人競技場排行榜上,2024年初排名第一的模型比排名第十的模型得分高出約12%,但到2025年初,這一差距縮小到了5%。報告稱:“前沿領(lǐng)域的競爭越來越激烈,也越來越擁擠。”

該指數(shù)顯示,通過使用更多決策變量、更強的計算能力和更大的訓(xùn)練數(shù)據(jù)集,生成式人工智能模型平均而言仍在變得更“大”。但開發(fā)人員也在證明,更小、更精簡的模型也能有出色的表現(xiàn)。由于算法的改進,如今的模型性能與兩年前規(guī)模大100倍的模型性能齊平。該指數(shù)稱:“2024年是小型人工智能模型的突破之年!

紐約伊薩卡康奈爾大學(xué)的計算機科學(xué)家巴特 塞爾曼表示,很高興看到像中國的DeepSeek這樣相對小型、低成本的研究成果證明了自己的競爭力。他說:“我預(yù)計我們會看到一些由五人甚至兩人組成的獨立團隊,他們會提出一些新的算法想法,從而改變現(xiàn)狀。這很好。我們不希望世界只由一些大公司掌控!

報告顯示,如今絕大多數(shù)強大的人工智能模型是由工業(yè)界而非學(xué)術(shù)界開發(fā)的:這與21世紀初神經(jīng)網(wǎng)絡(luò)和生成式人工智能尚未興起情況正好相反。報告稱,2006年之前,工業(yè)界開發(fā)的著名人工智能模型不到20%,2023年這一比例為60%,2024年則接近90%。

美國仍然是強大模型的最大生產(chǎn)國,2024年發(fā)布了40個模型,中國發(fā)布了15個,歐洲發(fā)布了3個。但許多其他地區(qū)也在加入這場競賽,包括中東、拉丁美洲和東南亞。

塞爾曼說:“2015年左右,中國走上了成為人工智能領(lǐng)域頂尖參與者的道路,他們通過教育投資實現(xiàn)了這一目標。我們看到這開始有了回報!

AI領(lǐng)域還出現(xiàn)了“開放權(quán)重”模型在數(shù)量和性能上的驚人增長,如DeepSeek和Meta的LLaMa。用戶可以自由查看這些模型在訓(xùn)練過程中學(xué)習(xí)到的并用于預(yù)測的參數(shù),不過其他細節(jié),如訓(xùn)練代碼,可能仍保密。最初,不公開這些因素的封閉系統(tǒng)明顯更優(yōu)越,但到2024年初,這些類別中頂級競爭者之間的性能差距縮小到了8%,到2025年初則縮小到了1.7%。

加利福尼亞州門洛帕克的非營利性研究機構(gòu)SRI的計算機科學(xué)家、該報告的聯(lián)合主任雷 佩羅特說:“這對任何無力從頭構(gòu)建模型的人來說肯定是好事,包括許多小公司和學(xué)者!監(jiān)penAI計劃在未來幾個月內(nèi)發(fā)布一個開放權(quán)重模型。

2022 年ChatGPT公開推出后,開發(fā)人員將大部分精力投入到通過擴大模型規(guī)模來提升系統(tǒng)性能上。該指數(shù)報告稱,這一趨勢仍在繼續(xù):訓(xùn)練一個典型的領(lǐng)先人工智能模型所消耗的能源目前每年翻一番;每個模型使用的計算資源每五個月翻一番;訓(xùn)練數(shù)據(jù)集的規(guī)模每八個月翻一番。

然而,各公司也在發(fā)布性能非常出色的小型模型。例如,2022年在MMLU上得分超過60%的最小模型使用了5400億個參數(shù);到2024年,一個模型僅用38億個參數(shù)就達到了相同的分數(shù)。小型模型比大型模型訓(xùn)練速度更快、回答問題更迅速,且能耗更低。佩羅特說:“這對各方面都有幫助!

塞爾曼說,一些小型模型可以模仿大型模型的行為,或者利用比舊系統(tǒng)更好的算法和硬件。該指數(shù)報告稱,人工智能系統(tǒng)使用的硬件的平均能源效率每年提高約40%。由于這些進步,在MMLU上得分超過60%的成本大幅下降,從2022年11月的每百萬個token約20美元降至 2024年10月的每百萬個token約7美分。

盡管在幾項常見的基準測試中取得了顯著進步,但該指數(shù)強調(diào),生成式人工智能仍然存在一些問題,如隱性偏見和“幻覺”傾向,即吐出虛假信息。塞爾曼說:“它們在很多方面給我留下了深刻印象,但在其他方面也讓我感到恐懼。它們在犯一些非;镜腻e誤方面讓我感到驚訝!

編 輯:章芳
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中興通訊董事長李自學(xué):算力筑基、 AI 啟智,共迎數(shù)智化新紀元
精彩專題
通信產(chǎn)業(yè)2024年業(yè)績盤點
3·15權(quán)益日 | 共筑滿意消費 守護信息通信安全防線
聚焦2025全國兩會
2025年世界移動通信大會
CCTIME推薦
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像