財聯社1月16日訊(編輯 周子意)據預印本平臺月底發布的一份預印報告顯示,一篇由人工智能(AI)聊天機器人寫出的研究論文摘要chatgpt研究論文,甚至最終能騙過專家審核。這一報告一經發出就受到人們的廣泛關注,研究人員對該AI機器人的影響力有著巨大爭議。

聊天機器人的所有者是一家位于舊金山的軟件公司,該公司于11月30日發布了這款AI工具,并提供了免費試用。

可以根據用戶的提示創建實際且智能的文本。它是一個“大型語言模型”,是一個基于神經網絡的系統,通過消化大量現有的人類生成的文本來學習并執行任務。

上周,有消息稱,美國科技巨頭微軟計劃向投資高達100億美元,目前尚處于談判階段。

難以區分

自從它發布以來,由于該機器人的大部分輸出內容就很難與人工書寫出的文本進行區分,研究人員一直在努力解決圍繞其使用的倫理問題。

現在,伊利諾斯州西北大學 Gao領導的一個小組已經開展了一項研究:使用生成研究論文摘要,以測試科學家是否能發現它們。

研究人員要求根據發表在四大醫學頂刊《美國醫學會雜志》、《新英格蘭醫學雜志》、《英國醫學雜志》、《柳葉刀》以及《自然》子刊《自然醫學》上的精選文章,撰寫50篇醫學研究摘要。

隨后該小組通過抄襲檢測系統和人工智能輸出檢測器chatgpt研究論文,將這些摘要與原始摘要混在一起匿名比較,要求一組醫學研究人員找出由輸出的摘要。

結果顯示,生成的摘要順利通過了抄襲檢查:其原創性平均得分為100%,這表明沒有檢測到抄襲。人工智能輸出檢測器發現了66%的由生成的摘要。

而人工審閱者錯誤地將32%的生成摘要識別為原始摘要。

重大爭議

Gao和他的同事在預印本報告中寫道,確實寫出了可信的科學摘要,不過使用大型語言模型來幫助科學方面的寫作,其道德界限和可接受程度仍有待商榷。

英國牛津大學技術和監管領域學者 不是此次研究的參與者,但是她對此表示非常擔心。她補充道,“如果我們現在處于連專家都無法判斷真假的情況下,那么我們就不會再看到那些能夠在復雜話題中指導我們的論文摘要。”

提醒道,如果由生成的論文內容無法確定是否正確,那可能會有“可怕的后果”。這不光會給研究人員帶來重大問題,因為他們閱讀的研究是被捏造出來的;而且對整個社會也有影響,因為科學研究在社會中扮演著重要角色。

警告,更嚴重的或許導致基于研究的政策決定出現失誤。

新澤西州普林斯頓大學的計算機科學家 認為chatgpt研究論文,“任何嚴肅的科學家都不太可能使用來生成摘要。”

他補充道,“問題在于,該工具能否生成準確而令人信服的摘要。若是不能,那它的缺點是顯著的。”

還表態,此類問題的解決方案不在本身,而是應該集中在導致這種行為的不良動機上,例如招聘和晉升審查時只看論文的量、而不看質。

人工智能公司 Face研究人員 則認為,“這些AI模型是根據過去的信息進行訓練的,而社會和科學的進步往往來自于與過去不同的思維,或開放思維。”

補充說,在醫學等關鍵領域,假信息可能危及人類的安全,所以一些期刊必須采取更嚴格的方法來驗證信息的準確性。

該預印報告的研究小組建議,那些評估科學傳播的人士應該制定政策,杜絕使用人工智能生成的文本。而要是機構選擇允許在某些情況下使用該技術,他們應該就披露建立明確的規則。

免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責。如需轉載,請聯系原作者。如果來源標注有誤或侵犯了您的合法權益或者其他問題不想在本站發布,來信即刪。