本文來自于微信公眾號 量子位 (ID:QbitAI),作者:豐色。
對標GPT-4代碼解釋器,港中大最新研究放了個“大招”:
他們開發了一個叫做MathCoder的大模型,數學能力直接在競賽級“題庫”Math上超過GPT-4。
做到這一點靠的就是無縫集成代碼的能力——
在遇到數學問題時,它不僅能用自然語言推理,還能自動編寫和執行代碼來建模、推導公式與方程。
這樣的工作方式無疑和強大的GPT-4代碼解釋器一樣。
在實際評測中,MathCoder除了超過GPT-4,還順利在MATH和GSM8K兩大數據集上取得了開源LLM中的SOTA(打敗了8月份才誕生的WizardMath)
這個“新王”究竟是如何誕生的?對標GPT-4代碼解釋器
總的來看,港大這項研究為了提高大模型的數學推理能力,學習了GPT-4代碼解釋器的優點和工作原理,提出了一種微調開源語言模型的方法。
該方法最終使大模型無縫集成代碼,利用代碼來解決數學問題。
具體而言,他們首先提出了一個可以生成高質量數學題的數據集:MathCodeInstruct。
該數據集由兩部分組成:
種子數據(D0):主要基于GSM8K和MATH,并利用GPT-4收集答案。
插值數據(D1):讓GPT-4基于他們提出的一種叫做“問題插值提示”的方法生成。
如下圖所示:
示例1和2分別來自于GSM8K和MATH,1簡單,2難一些,GPT-4要做的“插值”就是生成比1難但比2更簡單的新問題。
基于以上兩類問題,最終MathCodeInstruct數據集一共收集了8萬道數學題。
如下表所示,這比業內其他數據集規模稍小一些:
而與其他數據集相比,它的特點之一是同時彌補了GSM8K和MATH這兩大重要數據集中不足的部分,給出了一些難度范圍更廣的問題,增強了數據集的泛化能力。
特點之二是數據集中的每道題目同時包含基于自然語言推理的部分+基于代碼解決的部分(包括執行代碼和代碼輸出結果)。
如下圖所示,這是對上面GPT-4生成的“插值”問題的解決思路:
在數據集準備好以后,團隊便提出了一種定制的監督微調和推理方法,最終在Llama-2和Code Llama上微調出了MathCoder。
具體而言,該方法使用特殊的token(<|text|>、<|code|>、<|execution|>)來識別訓練數據集中哪一部分是自然語言、代碼還是結果,讓模型學習生成由這些特殊標記劃分的自然語言和代碼。
在推理期間,該方法還會將動態執行的結果附加到模型的先前預測中。
然后,繼續基于這個新版本的輸入自回歸預測下一個token,以及最后的執行結果。
作者表示,通過這種方式,模型將能夠“看到”執行結果,并不斷地繼續推理。
最終,該方法使微調模型MathCoder以類似GPT-4代碼解釋器的方式運行。
在評測中,MathCoder憑此直接在MATH和GSM8K這倆數據集上取得了45.2%和83.9%的好成績。
該成績證明:
其一,它超過了ChatGPT-3.5和PaLM-2等9個閉源模型,并在以數學競賽題為主的MATH集上超過GPT-4。
其二,它打敗了此前數學領域里最強的開源模型WizardMath,成為新的開源之最。
不過其三,模仿但還未超越,在這倆數據集上,MathCoder還是與GPT-4代碼解釋器(69.7%和97%高分)存在著一定的性能差距。 作者介紹
本研究一共10位作者,除了兩位來自香港城市大學以外,其余均來自香港中文大學。
共同一作一共有6位,分別是:Ke Wang、Houxing Ren、Aojun Zhou、Zimu Lu、Sichun Luo和Weikang Shi。
通訊作者為李鴻升,為港中大電子工程系副教授,同時也就職于上海人工智能研究室。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。