近期,大型語言模型(LLM)如ChatGPT和Bard在全球范圍內(nèi)引起了廣泛的關(guān)注,眾多公司投資數(shù)百萬美元用于開發(fā)這些人工智能工具,而一些領(lǐng)先的AI聊天機(jī)器人的估值已達(dá)到了數(shù)十億美元。這些LLM主要被應(yīng)用于AI聊天機(jī)器人,它們通過整合互聯(lián)網(wǎng)上的大量信息來學(xué)習(xí)和為用戶提供請求的答案,這些請求通常被稱為“提示”。
然而,最近一項(xiàng)由AI安全初創(chuàng)公司Mindgard和英國蘭開斯特大學(xué)的計(jì)算機(jī)科學(xué)家進(jìn)行的研究揭示了LLM存在的嚴(yán)重漏洞。研究發(fā)現(xiàn),LLM的部分內(nèi)容可以在不到一周的時(shí)間內(nèi)以低至50美元的成本被復(fù)制,并且獲得的信息可以用于發(fā)動(dòng)有針對性的攻擊。這些潛在的攻擊者可能會(huì)泄露私人機(jī)密信息、繞過安全保護(hù)措施、提供錯(cuò)誤答案或進(jìn)行進(jìn)一步的有針對性攻擊。
這項(xiàng)名為“模型寄生”的攻擊方法通過與LLM進(jìn)行交互,提出一系列有針對性的提示,以使LLM提供深入見解的信息,揭示了模型的工作方式。研究團(tuán)隊(duì)在研究中主要關(guān)注了ChatGPT-3.5-Turbo,然后利用這一知識(shí)創(chuàng)建了自己的復(fù)制模型,該模型的大小只有原模型的1%,但復(fù)制了LLM的關(guān)鍵特征。研究人員隨后利用這個(gè)模型副本作為測試平臺(tái),研究如何在不被察覺的情況下利用ChatGPT的漏洞。他們成功地利用從模型中獲得的知識(shí)攻擊ChatGPT,并提高了11%的成功率。
蘭開斯特大學(xué)的Peter Garraghan博士表示:“我們發(fā)現(xiàn)的現(xiàn)象在科學(xué)上令人著迷,但也極具憂慮。這是首次實(shí)證證明安全漏洞可以成功傳遞于封閉源和開源的機(jī)器學(xué)習(xí)模型之間,這在考慮到產(chǎn)業(yè)如何依賴像HuggingFace這樣的公開可用機(jī)器學(xué)習(xí)模型時(shí),令人極為擔(dān)憂。”
研究人員指出,盡管這些強(qiáng)大的數(shù)字AI技術(shù)具有明顯的用途,但它們存在著隱藏的弱點(diǎn),甚至不同模型之間可能存在共同的漏洞。各行各業(yè)的企業(yè)目前正在或準(zhǔn)備投資數(shù)十億美元用于開發(fā)自己的LLM,以執(zhí)行各種任務(wù),如智能助手。金融服務(wù)和大型企業(yè)也在采用這些技術(shù),但研究人員表示,這些漏洞應(yīng)該成為計(jì)劃構(gòu)建或使用第三方LLM的所有企業(yè)的主要關(guān)切點(diǎn)。
Peter Garraghan博士強(qiáng)調(diào):“雖然LLM技術(shù)具有潛在的變革性,但企業(yè)和科學(xué)家都必須仔細(xì)考慮采用和部署LLM所涉及的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。”這項(xiàng)研究為我們提醒了雖然AI技術(shù)帶來了巨大的機(jī)會(huì),但也伴隨著一系列潛在的威脅,因此必須謹(jǐn)慎行事。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
海報(bào)生成中...
海藝AI的模型系統(tǒng)在國際市場上廣受好評(píng),目前站內(nèi)累計(jì)模型數(shù)超過80萬個(gè),涵蓋寫實(shí)、二次元、插畫、設(shè)計(jì)、攝影、風(fēng)格化圖像等多類型應(yīng)用場景,基本覆蓋所有主流創(chuàng)作風(fēng)格。
9月9日,國際權(quán)威市場調(diào)研機(jī)構(gòu)英富曼(Omdia)發(fā)布了《中國AI云市場,1H25》報(bào)告。中國AI云市場阿里云占比8%位列第一。
9月24日,華為坤靈召開“智能體驗(yàn),一屏到位”華為IdeaHub千行百業(yè)體驗(yàn)官計(jì)劃發(fā)布會(huì)。
IDC今日發(fā)布的《全球智能家居清潔機(jī)器人設(shè)備市場季度跟蹤報(bào)告,2025年第二季度》顯示,上半年全球智能家居清潔機(jī)器人市場出貨1,2萬臺(tái),同比增長33%,顯示出品類強(qiáng)勁的市場需求。