英泰移動通信學校
400-6160-599
咨詢熱線:
教育引領未來
實時熱點

誰在“吊打”ChatGPT?

發表時間:2023-11-09 11:50

AI行業的“百模大戰”已經打了大半年。從上半年的火熱,到下半年的漸冷,勝負難分。

GPT成了國內廠商的靶子。幾乎每家在發布大模型時,都要把GPT拉出來對比一波,而且他們總能找到一個指標把GPT超越——比如,中文能力。

測評類的榜單太多了。從英文的MMLU,到中文的SuperCLUE,再到借鑒游戲排位賽機制的ChatbotArena,各種大模型榜單讓人眼花繚亂。很多時候,榜單上的排名成為廠商對外宣傳的工具。

但奇怪的是,用戶在體驗后發現,號稱超越ChatGPT的一些大模型產品,實際表現不盡如人意。各種不同的統計排名口徑,更是讓人感到迷惑。以至于“**”太多,榜單都快不夠用了。

比如最近,昆侖萬維開源「天工」系列大模型,號稱多榜超越Llama 2;李開復的零一萬物公司發布開源大模型“Yi”,“問鼎”全球多項榜單;vivo發布自研AI“藍心”大模型,是國內“首家”開源7B大模型的手機廠商。

如此之多的大模型,跑馬圈地這半年,大家做得怎么樣?我們又該如何評價孰優孰劣?

“刷榜”,大模型公開的秘密

就像當年手機廠商流行跑分打榜,現在的大模型廠商,也熱衷于沖上各種榜單。

大模型相關的榜單很多,學術圈、產業界、媒體智庫、開源社區,都在今年推出了各種各樣的評測榜單。這其中,國內廠商常常引用的是SuperCLUE和C-Eval,這倆都由國人自己推出。

5月6日科大訊飛發布星火認知大模型,三天后SuperCLUE發布榜單,星火排在國產**;6月13日360集團發布360智腦大模型,六天后SuperCLUE更新榜單,360成了**。

再后來的7月、8月、9月、10月榜單,拿下國產**的分別是百度、百川智能、商湯、vivo?!暗琼敗薄皧Z冠”“國內**”,出現在這些廠商的宣傳中。

有好事者發現,科大訊飛在5月9日“奪冠”時,SuperCLUE官網顯示的顧問成員中,排在最前面的那位,頭銜是哈工大訊飛聯合實驗室(HFL)資深級研究員。發榜第二天,這位專家的信息被官網刪除了。

當時,SuperCLUE只用了幾百道題進行測試,被人質疑不夠客觀。而在國外,早就有一個叫做SuperGLUE的權威榜單,二者名稱相似度極高,讓人傻傻分不清楚。后來,SuperCLUE對測評標準和題目數量進行了完善,日漸成為國內知名度較高的測評榜。

大模型測評領域的業內人士趙小躍對「定焦」說,一些測評機構有題庫,用接入各家廠商API的方式來測試,但其實測一遍之后,廠商就知道測過什么題,除非下輪測試換題,否則廠商可以用定向爆破的方式得高分。

在他看來,一套題只要測過一家模型,題目就廢了,因為模型可以通過API獲取題目,題目的可重復性為零。這是模型評測最有挑戰的一件事情。

C-Eval榜單剛推出時,業內是認可的。它由上海交通大學、清華大學、愛丁堡大學共同完成,有13948道題目。

但很快,大家就發現,一些原本知名度不高的大模型,突然沖到了榜首,甚至把GPT4踩在腳下使勁摩擦。

在9月初的榜單中,云天勵飛大模型總分排**,360排第八,GPT4居然排第十。再后來,拿過榜單**的還有度小滿金融大模型、作業幫銀河大模型,業內公認最強的GPT4被它們無情甩在了身后。

成績墊底,到底是GPT錯了還是榜錯了?

顯然,榜單有問題,因為它遭遇了“不健康的刷榜”。

C-Eval團隊在官網發出聲明,承認評測方式有局限性,同時指出了刷榜得高分的一些方法,比如:從GPT-4的預測結果蒸餾,找人工標注然后蒸餾,在網上找到原題加入訓練集中微調模型。

這三種方法,前兩種可以視為間接作弊,第三種相當于直接作弊。

大模型從業者李健對「定焦」說,間接作弊,就是知道考試大概的類型,然后花較多精力把可能的題目都找出來或叫專業的人造出來,答案也給出來,用這樣的數據訓練模型。

他指出,業內現在常用的手段是,讓GPT4來“造答案”,然后得到訓練數據。

李健分析,直接作弊,就是知道考試題目,然后稍微改改,得到新的很多份題目,之后直接拿來訓練模型。

“在清楚榜單任務的情況下,很多類型的任務,很容易刷榜?!彼f。

這樣得到的分數是沒有意義的?!爸苯幼鞅谆緦μ嵘P偷姆夯芰Γㄅe一反三)沒用,間接作弊有點像做題家,對提升學生真實的素質弊大于利?!?/span>

為了讓“用戶謹慎看待以下榜單”,C-Eval團隊不得不將榜單拆分成兩個,一個是模型已公開的,一個是未公開的。結果,那些得分高的基本全是未公開的大模型。而這些模型的真實表現,人們是無法體驗的。

復旦大學計算機科學技術學院教授邱錫鵬說,C-Eval本身質量還挺高,但被刷榜后導致學術價值不大了?,F在很多企業去刷榜,但又不公開數據,也不具體說怎么做,這是一種不公平的競爭。

多位大模型從業者對「定焦」說,刷榜在大模型行業很常見。

躍盟科技創始人王冉對「定焦」打了一個比方:“先射完箭再畫靶子”。他認為今天的某些測評手段,是有一些大模型公司為了表現自己牛而專門設計的。

盛景嘉成董事總經理劉迪認為,有答案或者評分標準,就有人能鉆空子。單靠數據集和問題集的評判方式,很難評出大模型在應用層面的好壞。

“一個丹一個煉法,哪個對癥還得吃下去看?!彼麑Α付ń埂拐f。

考試**名,不是好學生?

大模型評測,作為評估大模型綜合實力的一個手段,還有參考價值嗎?

趙小躍認為,在核心的通用能力上,比如語言理解、邏輯推理等,學術數據集的榜單測評能反映七八成。這其中**的問題是,開源的榜單結果跟大家用大語言模型的場景之間有鴻溝。

“測評只能反映模型某一部分的能力,大家其實都是從不同的維度盲人摸象,很難知道它的能力邊界在哪里?!彼f。

對于大語言模型,首先在語言上,分為英文和中文兩大語種。國外大模型的訓練語料以英文為主,所以英文很強,但中文不一定比國內大模型強。這也是為什么國內很多大模型,都在“超越ChatGPT”之前加一個“中文能力”的定語。

其次在考察科目上,評測數據集通常會設置很多個方面,從百科知識到角色扮演,從上下文對話到閑聊。但這些能力只能單一評價,然后得分加總。

這跟評價一個人很像。任何一道考卷,都只能測試出這個人某方面的能力。即便是全套試卷的成績,也不等同于這個人的能力。就像ChatGPT的榜單排名不一定能比過國內的一些大模型,但使用體驗上就是更好。

王冉認為,如果將大模型比作一個人的大腦,如何評測一個人的大腦好用,如果只給他做題,其實是充滿偏見的?!?/span>大模型的測評不應該用考試來做,而應該用應用來做。

人工智能公司開放傳神(OpenCSG)創始人、CEO陳冉認為,通用性的評測,看綜合得分,沒有一個大模型超過GPT4,但是在特定領域,可能有些指標GPT4得分不一定高。

問題在于,有些廠商拿特定領域的得分,去宣傳整體超過了GPT4?!斑@就是以偏概全,我覺得有些廠商在對外宣傳時,還是要對生態公司給到正確的指引,具體哪個指標在哪個領域得分高,要說清楚?!彼麑Α付ń埂贡硎?。

而一旦測評成績進入排名賽,有了功利的成分,有些廠商就會有刷榜的動機?!皬乃竦慕嵌?,不太能保證中小廠不會把這部分數據拿去訓練,這是大家對公開數據集**的顧慮?!壁w小躍說。

綜合多位業內人士的觀點,目前國內還沒有一個特別好的數據集,能綜合反映大模型的能力,各方都在探索。

李健在今年做了“CLiB中文大模型能力評測榜單”,為了避免泄題,他盡量參考業界好的方案,自己出題?!爸饕菢I界和學術界的榜單,不太讓人滿意,公開程度不高,都是各說各話?!?/span>

還有一些非商業性質的機構相信,測評榜單**的意義在于,從模型演化的角度,能夠幫助廠商監控模型生產過程中能力的變化,糾正訓練模型的方法,有針對性提高模型能力。

比如OpenCompass,它是Meta官方推薦的開源大模型評測框架,利用分布式技術支持上百個數據集的評測,提供了大模型評測的所有技術細節,同時給大家提供了統一的測試基準,方便各家模型在公平公正的情況下開展對比。

開源:先賺吆喝再賺錢

對大模型做出全面評價是困難的。除了打榜的方式,有一些廠商通過開源,獲得了巨大的關注。

開源是一種經營策略,需要對自家產品足夠自信。相比之下,敢于放開注冊讓公眾體驗的閉源大模型,要比那些無法體驗的強,開源大模型則又往前邁了一步。

**個被大范圍使用、好評度最高的開源大語言模型,是由Meta在今年2月推出的Llama。當時全球科技公司都盯著OpenAI,試圖追趕閉源的ChatGPT。但開源讓Meta坐上了牌桌,吸引了大量開發者,一時名聲大噪。

國內公司很快跟上,搶抓**波關注度。智譜AI、智源研究院、百川智能,是動作最快的三家。

在Llama開源之后,號稱全面對標OpenAI、有著清華背景的智譜AI,迅速在國內**個開源了自己的大模型ChatGLM-6B。這個時間點非常早,當時國內廠商的大模型都還沒發布,百度文心一言兩天后才推出,而王小川的百川智能公司還沒成立。

三個月后的6月9日,跟智譜AI有著很深淵源的智源研究院,宣布開源“悟道·天鷹”Aquila。它比智譜AI更進一步——可商用,于是拿下“國內首個開源可商用語言大模型”的頭銜。

是否支持商用,是判斷模型能力的一個關鍵指標。GPT 3.5的水平,通常被認為是大模型商用的標準線。不過,智源是一個非營利機構,它更多的用意是為公用發展提供技術支持。

智源主動開源之后,開源大模型的軍備競賽正式打響。

這其中值得一提的是百川智能。作為一家今年4月才成立的初創公司,百川獲得的關注度甚至超過很多互聯網大廠。

從時間上來看,百川是智源之后**家開源的創業公司,且**個宣布可免費商用。它開源不可商用的版本時,比智譜AI早九天;后來開源免費可商用的版本時,又比智譜AI早三天。

時間點很重要。當時Llama1只被允許用作研究,但市場有傳聞可商用的Llama 2即將開源。百川不僅搶在Llama 2之前,還卡在智譜AI之前宣布了免費可商用,贏得了巨大的關注度,一周之內下載量破百萬。

趙小躍認為,百川在那個時間發布一個開源模型,作為自己的**槍,是一個很對的決策?!百嵙艘徊ㄟ汉??!?/span>

支持商用的Llama 2比百川和智譜AI晚了一周,即便如此,它還是在全球引發巨震。在同等參數規模下,Llama 2能力超過所有的開源大模型,是目前全球公認的開源大模型的代表。

因為Llama的帶動,國內廠商踩上了開源熱潮的風口。它們急著秀肌肉,爭奪大眾注意力。但從技術角度,尚不能說明它們就跑在了前面。

有觀點認為,開源模型雖多,但大多數都是從Llama派生出來。簡單來說,就是用了Llama作為基模型,然后選用其它不同的訓練方法微調。因為Llama原生在中文方面相對較弱,給了國產開源大模型宣傳的發力點。

6月中旬百川開源**版Baichuan-7B時,公司只成立剛兩個月。當時有人質疑其模型架構跟Llama很相似?!敖柚呀涢_源的技術和方案,百川是站在了巨人的肩膀上?!币晃淮竽P蛣摌I者評價。

本質上,開源也是一種商業模式。賺完吆喝后,廠商的目的還是賺錢。

陳冉向「定焦」舉了個例子,開源就像一些化妝品品牌推出試用裝,免費給用戶用,但不會透露配方和成分。用戶試用完如果覺得好想繼續用,就得付費買商業版。另外它可能透露配方,如果有廠商想基于這個配方去創造一個新的產品,就需要交授權費。

百川在9月下旬推出了兩款閉源大模型,API接口對外開放,進入ToB領域,開啟商業化進程。

“它已經通過開源賺了一波吆喝,接下來一定會推閉源大模型做商業化,它***的模型是一定不會開源的?!壁w小躍說。

大家都沒有護城河?

“百模大戰”發展到今天,各家廠商通過各種方式博取關注度,那么誰做到了真正的領先?

趙小躍認為,從主觀感受層面來看,國內的大模型,無論是開源還是閉源,本質上沒有核心的技術代差。因為無論是模型大小,還是數據質量,大家都沒有飛躍式的突破?!霸贕PT3.5的指引下,國內廠商只要模型容量達到一定地步,再配合一批高質量數據,大家都不會太差?!?/span>

但跟GPT4相比,技術代差是存在的?!耙驗殚]源,大家不知道GPT4背后真正的技術方案是什么,如何把這么大的模型用專家結構訓練出來,目前大家還都在探索?!?/span>

在陳冉看來,國內的大語言模型完全原創的較少,有些是在transformer架構上做了一個整體調優,本質是在算子上做了調優,而沒有本質上的改變。還有一些走開源路線的廠商,更多是在中文方面深入研究。

大家都有自己的大模型,但本質上沒有顯著的區別,這就是當前國內大模型行業的特點。

某種程度上,這是由行業階段決定的。國內的互聯網大廠、創業公司、高??蒲袡C構,真正開始投入大量人力物力做大模型,也就在今年。行業的技術路線也還在摸索中,沒有哪家公司建立起護城河。

相比純技術實力方面的比拼,算力和數據層面的比拼更能出效果。

“大家更多的精力是花在數據和語料上,誰能花錢獲得高質量的語料,同時有足夠的算力,誰就能訓練出一個相對好一點的模型?!标惾秸f。

開源讓局面變得更加不可控。去年底ChatGPT亮相后,全球冒出來上百個大模型,但今年Meta開源Llama 2之后,很多模型還沒有投入市場就已經過時。就連谷歌的工程師都在內部直言稱,谷歌和OpenAI都沒有護城河。

大模型更新迭代太快了?!敖裉炷阃瞥鲆粋€大模型,花錢打了榜,有很多人用,可能明天就有個新的模型迅速替代掉?!标惾秸f。

多位業內人士對「定焦」表示,大模型之間真正顯著的區別,會在具體的用戶場景或B端的業務中體現。

“現實世界里我們評價某個人是專家,是因為他在特定領域很厲害。大模型也一樣,要在領域里建立共識,專業性一定要放到具體的場景里去體現?!蓖跞秸f。

核心的通用能力是基礎,廠商會根據自己所在的領域,差異化發展?!氨热缥覀兏t院和律所接觸,他們其實更關心的是醫療或法律方面的能力?!壁w小躍說。

對于互聯網巨頭而言,需要考量的因素相對更多。

除了要對外“接單”,巨頭們已經開始在內部進行大模型的應用端部署。比如騰訊的廣告、游戲、社交、會議等業務,接入了混元大模型,百度搜索、文庫、百家號等產品早已接入文心大模型,阿里把AI作為各大業務板塊的驅動力。

大模型對巨頭內部的正面影響究竟有多大,會更難量化評估。

綜合來看,國內大模型還處在起跑的混沌階段,一切都在快速變化中。做出一個大模型的技術壁壘不高,但要做好并真的解決問題,還有很長的路要走。

*應受訪者要求,趙小躍為化名。

分享到: