在最新的AI研究報道中,Google DeepMind推出了一項名為“優化通過提示(OPRO)”的技術,將大型語言模型(LLM)作為其自身提示的優化器。該方法旨在通過自然語言描述問題,指導LLM生成和改進解決方案,從而提高提示性能。
OPRO的工作方式相對簡單,使用LLM作為優化器,但與使用數學公式不同,它采用自然語言描述優化問題,指導LLM迭代生成和改進解決方案。這對于提示優化等問題特別有用,因為在這些情況下,梯度不容易獲取。
該技術以“元提示”作為輸入,由任務的自然語言描述以及一些問題和解決方案的示例組成。在優化過程中,LLM基于問題描述和元提示中的先前解決方案生成候選解決方案。然后,OPRO評估這些候選解決方案的結果,并將它們與其質量得分一起添加到元提示中。這個過程重復進行,直到模型不再提出具有改進得分的新解決方案。
LLM作為優化器的一個關鍵優勢是它們能夠處理自然語言指令,這使用戶能夠描述優化任務而無需形式規范。例如,用戶可以指定“準確性”等度量標準,同時提供其他指令,如要求模型提供簡潔且普遍適用的解決方案。
OPRO還充分利用了LLM對上下文模式的識別能力,通過在元提示中包含的示例來識別優化軌跡。這一方面是OPRO的核心魔力,因為LLM將語言視為數字令牌,可以發現人類觀察不到的模式。
DeepMind在線性回歸和“旅行推銷員問題”等兩個著名的數學優化問題上測試了OPRO,并展示了在這些情況下的有望結果。然而,OPRO的真正潛力在于優化LLM的使用,如ChatGPT和PaLM。
DeepMind的研究顯示,OPRO可以引導LLM優化其自身提示,即找到最大化特定任務響應準確性的提示。例如,為了發現解決詞數學問題的最佳提示,一個“優化器LLM”被給予一個包含指令和示例的元提示,其中包含優化提示的占位符。模型生成一組不同的優化提示,并將它們傳遞給一個“評分LLM”,該LLM在問題示例上測試它們并評估結果。最佳提示及其分數被添加到元提示的開頭,然后重復這個過程。
研究人員使用PaLM和GPT系列的多個LLM對該技術進行了評估,根據實驗,所有模型都能通過迭代優化提高生成提示的性能。
雖然DeepMind尚未發布OPRO的代碼,但該技術的概念直觀且簡單,可以在幾小時內創建一個自定義實現。這里分享一個由LlamaIndex制作的使用OPRO增強LLM在檢索增強生成(RAG)任務上性能的逐步指南感興趣的可以訪問閱讀。
OPRO是利用LLM優化其性能的多種技術之一,這一領域正在積極探索各種主題,包括越獄和紅隊行動,研究人員正在不斷釋放大型語言模型的全部潛力。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。