文 | 《中國科學報》 記者 王昊昊
面世不到一年的ChatGPT,引發了大模型時代變革,在掀起又一波人工智能(AI)浪潮的同時,也帶來了泄漏隱私、引發“飯碗焦慮”、暗藏侵權風險等一系列問題。
ChatGPT以及百度文心一言、訊飛星火認知大模型等的出現,標志著人工智能進入新發展階段。但與此同時,《科學》《自然》等期刊紛紛發文,指出人工智能威脅著科學的透明度。多國教育部門也紛紛出臺政策,禁止在學校使用ChatGPT。
在我國,學位法草案不久前提請十四屆全國人大常委會第五次會議初次審議。草案對學位獲得者利用人工智能代寫學位論文等行為,明確了相應的法律責任:經學位評定委員會審議決定由學位授予單位撤銷學位證書。然而,在實際操作中,利用人工智能代寫學位論文這類學術不端行為如何查證?這些學術不端行為和適度運用人工智能的尺度標準又如何界定?
現狀:
在“混亂”中慌忙應對
ChatGPT已面世大半年,它對學術界和教育界究竟產生了怎樣的影響?
今年1月,美國某網站發文稱,ChatGPT才出現兩個月,就已造成了難以言喻的混亂。《中國科學報》記者梳理發現,學術界和高校更多的是在眼花繚亂的應用場景出現后,才出臺政策,倉促“應戰”。
在學術界,今年1月,《科學》主編索普以社論形式發文稱,ChatGPT已成為一種文化轟動,對科學界和學術界造成嚴重影響,并表示人們在最近的研究中發現,大量由ChatGPT創建的論文摘要被提交給學術審稿人。
索普說,《科學》正在更新編輯規則,強調不能在作品中使用由ChatGPT(或任何其他人工智能工具)生成的文本、數字、圖像或圖形。他特別強調,人工智能程序不能成為作者。
包括《自然》《細胞》《柳葉刀》等在內的諸多科學類期刊也都發布了大體一致的規則。
高校受到的影響似乎更大。
今年初,美國斯坦福大學的一項非正式民意調查顯示,該校有大量學生已經在期末考試中使用了ChatGPT。同時,《福布斯》發文稱,89%的學生承認使用ChatGPT做家庭作業,其中48%的學生承認使用ChatGPT進行家庭測試或測驗,53%的學生用它寫了一篇論文,22%的學生用它寫了一篇論文的大綱。有72%的大學生認為ChatGPT應在他們的大學網絡中被禁用。
“在稱贊ChatGPT功能強大的背后,人們應看到其給學術界帶來的焦慮與恐慌。”中國人民大學首都發展與戰略研究院副院長郭英劍表示,美國一些高校已將新技術納入學術誠信中。華盛頓大學和佛蒙特大學等已經修改了它們的學術誠信策略,將使用ChatGPT等人工智能工具納入剽竊等學術不端范圍。
對此,郭英劍表示,人工智能造成的剽竊行為在當下的學術規則中很難得到證明。這一系列的負面影響開始讓人們思考,是否應該在學術界和高校禁用ChatGPT?
擔憂:
怕學生喪失獨立思考能力
“高校或學術界全面禁止人工智能產品是不可能的,也是逆歷史潮流的。”長沙理工大學教授劉小春表示,應引導學生正確認識和使用人工智能產品而非禁止。決定能否使用人工智能輔助的關鍵,應是判斷其相關產品是否涉及受教育者創新能力的培養。
湖南大學法學院副院長蔣海松舉例說,ChatGPT已成為教育領域的強大工具,并帶來顛覆性影響,尤其對他所在的傳統法律教育等領域的沖擊更大。
ChatGPT的母公司OpenAI表示,GPT-4在律師資格考試(UBE)中可擊敗90%的考生。在網上輸入“ChatGPT會取代哪些崗位”的熱門詞條中,法律工作者高居榜首。
“即便如此,人為禁止ChatGPT是毫無意義的,也會喪失學術進步的機遇。”蔣海松表示,是否禁用人工智能產品不能一概而論,要積極面對新技術運用帶來的機遇與挑戰,引導學生正確看待科技,并加大規制力度,將其在教育與學術研究中可能產生的風險盡可能降低。
那么,科研人員和教師使用人工智能產品的過程中有何疑慮?《中國科學報》記者在采訪發現,教師的擔憂集中在過多使用可能導致學生喪失獨立思考能力。
“我對ChatGPT的出現持完全支持態度,平時使用較多,我的不少學生也在用。”郭英劍表示,ChatGPT的功能確實很強大,但他很擔心學生經常使用會產生依賴,導致其缺乏思辨性,這對學生的寫作能力培養等會很不利。
郭英劍認為,ChatGPT等人工智能產品的出現,就像是算盤時代開始出現了計算器,或者馬車時代出現了機動車。這種革命性變化是任何人都阻擋不住的。應允許并支持學生從積極方面使用人工智能產品。
至于學生的態度,北京理工大學宇航學院博士生蔣量受訪時表示,科研中,ChatGPT可作為一種工具輔助開展相關工作,但研究生仍應以自身獨立思考為主。人工智能可提高學習效率,但不能作為學習主體。“有必要在研究生培養過程中限制ChatGPT的使用。”
“我們會較頻繁地用ChatGPT,我發現它更像有點‘小聰明’的學生,產生的信息不一定準確,但在邏輯上可能是對的。”蔣量表示,未來人工智能在搜集信息方面的優勢會愈加明顯,關鍵是規范此類工具的使用,使其能更好地幫助人們學習和思考,又不直接替代人學習和思考。
據蔣海松觀察,理工科學生對ChatGPT的使用更多,也有學生用它完成部分作業。“關鍵是在使用過程中堅持自主思考,保持警覺與謹慎、合理合規使用,同時要加強信息素養的培養,接受人工智能相關知識的學習和培訓。”
中國人民大學哲學院教授劉永謀表示,目前大語言模型對教育的沖擊才剛剛顯現,未來會愈演愈烈。就已經暴露的跡象看,生成式人工智能將對就業、教育、信息安全等領域帶來極大挑戰,這些領域都與教育相關。人工智能新產品對人文社科類學科的教學科研以及文科類就業崗位沖擊將會巨大,如以ChatGPT為代表的自然語言處理技術擅長各種文字、翻譯、信息匯總和編程等工作。
“未來,學生將生活在人工智能輔助的環境中,因此不該在學校和學術界禁用相關產品,否則培養出來的學生就會落后于社會。”劉永謀表示,對于學生和教師運用人工智能產品幫助其學習和研究,學校和學術界應制定細致的指導意見,對于哪些用法被允許、哪些需要禁止作出詳細規定和建議。這些規定和建議要堅持通行的學術道德原則指導,又要考慮不阻礙創新效率的提高。
未來:
界定尺度和標準
學位法草案對利用人工智能代寫學位論文等行為規定了相應的法律責任。那么。此前用人工智能產品寫論文會觸犯法律嗎?有沒有相關法律規定?
對此,蔣海松表示,利用人工智能寫學位論文本質上屬于學術不端行為。現行法律法規框架下,用ChatGPT等語言大模型寫論文的行為同樣違法。
他介紹,人工智能作為“筆替”創作的文章可擬制為“他人代寫的范疇”,被歸類為學術不端的范疇。根據2016年頒布的《高等學校預防與處理學術不端行為辦法》規定,相關責任人會受到通報批評、終止或者撤銷相關科研項目、撤銷學術獎勵或者榮譽稱號、辭退或解聘等處罰。
此次提請審議的學位法草案明確,已經獲得學位者在獲得學位過程中存在學位論文或實踐成果抄襲、剽竊、偽造、數據造假、人工智能代寫等學術不端行為的,經學位評定委員會審議決定,由學位授予單位撤銷學位證書。
“需要注意的是,草案打擊的是人工智能代寫這種學術不端行為,而不是指人工智能的適度運用。但代寫和適度運用的尺度及標準如何界定和劃分目前仍是難題,要結合答辯教師、學術評定委員會等的判定。”蔣海松表示。
至于學位法草案能否管得住學術不端等行為,劉小春認為,這取決于是否擁有相應的技術能力檢測學位論文是否采用了人工智能創作。劃清楚“人工智能輔助”和“人工智能主導創作”的界線也十分重要。人類已經進入可以高效率、高質量獲取知識的年代,在常規的文獻綜述、文獻檢索與分析能力方面,人工智能將超過人類,因此這些環節草案應予以考慮、詳細規定。
他進一步建議,在論文寫作過程中,非創造與創新類的知識匯總和梳理工作可以允許使用人工智能輔助創作,但必需作明確備注;涉及論文創新思想和核心內容部分的工作,不允許使用人工智能輔助,經技術鑒定一旦認定,應按照學術不端行為處理。
“依照目前國際上的通行做法,以及我對國內高校的觀察,要在學位法草案中對人工智能引發的學術不端等做出具有法律意義上的詳細規范是很難的。”郭英劍表示,禁止使用人工智能代寫學位論文看似是剛性規定,但具體操作中會很難查證,無論是人還是機器代寫論文,只要做得隱蔽,都很難被發現。
郭英劍表示,應考慮到很多人工智能產品已真實存在,它們正快速成為人們日常使用的工具。同時,這些產品對寫作的重大影響與沖擊還剛剛開始,目前國際高等教育界對此基本上都處于束手無策的狀態。部分高校的禁令并不能真正達到效果,更多高校除制定簡單的宏觀規定外,都還處在觀望狀態。
為此,郭英劍建議,在禁止人工智能代寫論文相關立法中,將人工智能與學位論文的關系單列出來作為一項加以規范,以示其重要,讓人們充分認識到人工智能對學術的深刻影響;提出一個指導性規范意見,待未來時機成熟可以再做更加詳細的修訂。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。