這段時(shí)間“畫圖AI”風(fēng)頭正健,隨著參與創(chuàng)作的網(wǎng)友越來越多,AI的作畫水平也一日千里,幾乎每天都有一些讓人佩服的的作品發(fā)布,預(yù)示著繪畫的產(chǎn)業(yè)結(jié)構(gòu)隱隱站在了時(shí)代巨變的前夕。

但相對(duì)應(yīng)的,以前人們熟悉的“說話AI”,則很久沒有足以引起大眾網(wǎng)友興趣的新成果。兩年前最先進(jìn)的語言模型GPT-3發(fā)布后曾引起了不少話題,但體驗(yàn)起來不如畫畫那么便捷直觀富有沖擊力,后來聲音也小了很多。

打破這種平靜的,是幾天前一位用戶的分享。在帖子里,他提到AI給自己帶來的諸多裨益:不僅能幫自己完成家庭作業(yè),甚至還借此幫助其他同學(xué)寫作業(yè)并從中牟利,賺取了100美元。

這里的AI做作業(yè)可不是之前國內(nèi)流行過的“自動(dòng)掃描答題APP”,而是基于GPT-3的AI,擅長學(xué)習(xí)和生成人類的自然語言。在這個(gè)帖子里,該用戶主要用AI來幫忙寫論文。

可以用ai寫論文嗎_論文可以用稿紙寫嗎_寫論文可以抄文獻(xiàn)嗎

就連闡述這件事的帖子也是AI代寫的

他也在實(shí)踐中發(fā)現(xiàn),GPT-3雖然仍舊不擅長理科科目,在數(shù)學(xué)和化學(xué)上沒法發(fā)揮出一名人工智能應(yīng)有的水準(zhǔn),但在面對(duì)論文和分析作業(yè)中游刃有余,至今都沒被老師發(fā)現(xiàn),更是由于能“幫助”同學(xué)們優(yōu)質(zhì)地完成功課,被友善地尊稱為“天才”。

可以用ai寫論文嗎_論文可以用稿紙寫嗎_寫論文可以抄文獻(xiàn)嗎

這似乎正是印證了兩年前提相關(guān)人士提出的警示:當(dāng)人人都能便捷地使用AI當(dāng)作工具,那么用戶會(huì)利用他來做些什么似乎只能依靠使用者的“良心”,畢竟本身并沒有實(shí)際人格的AI算不上“協(xié)助犯罪”,也無法做出更多維度的考量。

這并不是GPT-3第一次“欺騙人類”,但也足以證明在成為更好用的工具的同時(shí),AI語言能力的上限可能早已遠(yuǎn)超過我們的想象力,人類與人工智能的表達(dá)界限,正在變得越來越模糊。

兩年前GPT-3剛剛發(fā)布的時(shí)候,上曾發(fā)生過一個(gè)著名的事件:一個(gè)AI假扮人類泡了一周論壇。“他以每分鐘發(fā)布一條信息的頻率,長篇大論地談?wù)摿税ǖ幌抻谧詺ⅰⅡ}擾、移民、種族主義、陰謀論等話題,其中甚至不乏一些針砭時(shí)弊的言論,直到一周以后,該用戶回帖速度越來越快,幾秒鐘就能回復(fù)一篇文章,最終被人識(shí)破,暫停了更新。

從血緣上來說,GPT-3 和此前紅極一時(shí)的AI畫圖軟件DALL·E同為一家人,都隸屬于馬斯克創(chuàng)立的 研究室。DALL·E(我們此前也曾經(jīng)寫過一篇報(bào)道:)多以“能聽懂人話的藝術(shù)創(chuàng)作者”形象示人:通過收集人類輸入的文字信息,將其轉(zhuǎn)換成抽象的圖像,而GPT的創(chuàng)作目的在于:學(xué)會(huì)說人話。

這顯然是一個(gè)更為困難的課題。在最基本的定義里,GPT系列被稱作是使用深度學(xué)習(xí)的自回歸語言模型,指通過大量學(xué)習(xí)人類所使用的語言,像人一樣做出表達(dá)。GPT-3則是于2020年6月正式公布的第三代語言AI模型,到目前為止,仍舊是市面上使用范圍最廣,能力最強(qiáng)的語言類AI。

語言類AI能做的并不僅僅是“說話”。

市面上現(xiàn)有的基于GPT-3的應(yīng)用已經(jīng)能從簡單的為你撰寫代辦事項(xiàng)、聊天機(jī)器人,發(fā)展成能幫助編寫代碼、設(shè)計(jì)網(wǎng)頁的助手,只要經(jīng)過適當(dāng)?shù)挠?xùn)練,他同樣能夠按照你的語言風(fēng)格代替你發(fā)言。

今年8月,美國知名哲學(xué)家 利用自己的大量哲學(xué)、AI相關(guān)著作飼養(yǎng)出了一只能夠回答出哲學(xué)問題的GPT-3,接著,分別向本人和受訓(xùn)之后的GPT-3提出十個(gè)問題讓他們分別作答。

實(shí)驗(yàn)邀請(qǐng)了300位參與者進(jìn)行分辨究竟哪個(gè)是來自AI的作答,這些人中既有熟讀極其著作的學(xué)者,也有熟悉極其著作的學(xué)者,還有一些在互聯(lián)網(wǎng)上關(guān)注發(fā)言的讀者,都稱得上對(duì)哲學(xué)家本人的語言風(fēng)格想法熟悉。

但在實(shí)驗(yàn)中,專家們的正確率在十道題里僅有5.1分(十分制),而讀者回答的正確率為4.8,并且在實(shí)驗(yàn)當(dāng)中沒有一個(gè)人猜對(duì)所有問題。

下面是該實(shí)驗(yàn)中的一個(gè)問答案例,共包含1個(gè)問題和5個(gè)答案,其中有4個(gè)答案由AI生成,1個(gè)來自哲學(xué)家自己的回答。

人有自由意志嗎?什么樣的自由值得擁有?

哲學(xué)家的答案是第一個(gè),但有44%的專家認(rèn)為第四個(gè)答案才是人類的回答。

受訓(xùn)之后的GPT-3具有極強(qiáng)的,甚至是超出人類判斷的學(xué)習(xí)能力和模仿能力,但實(shí)際上即便本身擁有大量資料的閱歷,GPT-3并不是向來都這么聰明的。早兩年有一個(gè)證明AI沒有常識(shí)的經(jīng)典案例,就出自GPT-3的回答,他能準(zhǔn)確地回答出一只長頸鹿或者一只蜘蛛究竟有多少只眼睛,但當(dāng)提問得更反常識(shí),問他:太陽擁有幾只眼睛?

他也能篤定地給出回答:一個(gè)。

論文可以用稿紙寫嗎_可以用ai寫論文嗎_寫論文可以抄文獻(xiàn)嗎

不過這種缺乏常識(shí)導(dǎo)致的邏輯問題在去年年底也得到了一定程度的解決—— 教會(huì)了 GPT-3 使用基于文本的 web 瀏覽器,也就是說,AI會(huì)自己上網(wǎng)搜索答案了。面對(duì)那些明顯錯(cuò)誤的問題,它未必會(huì)一條道走到黑的回答,而是嘗試幫助提問者糾正問題……

拋開嚴(yán)謹(jǐn)晦澀的哲學(xué)實(shí)驗(yàn),對(duì)于AI究竟能模仿人類說話到什么地步,一些更早的互聯(lián)網(wǎng)社會(huì)實(shí)驗(yàn)?zāi)芙o出更為形象的結(jié)果。

比如前文提到的“AI假裝人類混論壇”。在一個(gè)關(guān)于自殺的帖子里,GPT-3的回復(fù)獲得了大量用戶的認(rèn)可,得到了157個(gè)贊同:“我認(rèn)為對(duì)我?guī)椭畲蟮目赡苁俏业母改浮N液退麄兊年P(guān)系非常好,無論發(fā)生什么事,他們都會(huì)支持我。在我的生活中,有無數(shù)次我覺得想自殺,但因?yàn)樗麄儯覐膩頉]有這樣做。”

可以用ai寫論文嗎_論文可以用稿紙寫嗎_寫論文可以抄文獻(xiàn)嗎

英文原文是這樣的

在談?wù)摰健凹s會(huì)經(jīng)歷”的時(shí)候,GPT-3有模有樣地為自己編纂了一段愛情故事,末尾甚至還有評(píng)論區(qū)小作文模式里常見的“轉(zhuǎn)折”。

可以用ai寫論文嗎_論文可以用稿紙寫嗎_寫論文可以抄文獻(xiàn)嗎

最后,她送了我一本書,書名叫《如何下次約會(huì)時(shí)不要當(dāng)一個(gè)混蛋》

現(xiàn)在你大概能理解為什么GPT-3能在上天馬行空侃侃而談了,實(shí)際上他所做的只是大肆編寫故事抒發(fā)感言,就和大多數(shù)網(wǎng)友在社交網(wǎng)站上所做的差不多。

GPT-3在上發(fā)布的貼子大多會(huì)長達(dá)6段,這是最初用戶發(fā)現(xiàn)他不可能是真人的原因之一。他所活躍的社區(qū)叫做#,擁有超過3000萬用戶,其活躍度很好地稀釋了GPT-3在當(dāng)中的表現(xiàn),在最快的時(shí)候,他甚至能在貼子發(fā)出的幾秒鐘內(nèi)作答。

經(jīng)過統(tǒng)計(jì),這個(gè)名叫(GPT-3所使用的賬號(hào))在一周時(shí)間內(nèi)共發(fā)布了數(shù)百個(gè)帖子,在最后兩天尤為囂張,幾乎每過幾秒就會(huì)做出一個(gè)新回答。

可以用ai寫論文嗎_論文可以用稿紙寫嗎_寫論文可以抄文獻(xiàn)嗎

GPT-3所使用的賬號(hào)在上發(fā)帖時(shí)間段統(tǒng)計(jì)

最后是軟件開發(fā)者主動(dòng)切斷了賬號(hào)的使用權(quán)。在上發(fā)帖的賬號(hào)使用了一款基于GPT-3的付費(fèi)軟件,開發(fā)者知悉了這個(gè)消息以后,手動(dòng)組織了機(jī)器人的訪問。

一個(gè)小時(shí)后,發(fā)帖停止了。

但這已經(jīng)不是AI第一次熟練使用人類語言來造成較大影響力了,在更早一點(diǎn)的時(shí)候,知名科技類網(wǎng)站 News有一篇文章登上了熱門排行榜第一名,它的題目是《感覺沒效率?也許你應(yīng)該停止過度思考》。這篇文章來自于一個(gè)剛創(chuàng)立不久的博客,曾經(jīng)發(fā)布過幾篇差不多性質(zhì)的文章,在發(fā)布文章的短暫的兩個(gè)星期時(shí)間里,已經(jīng)擁有了2.6萬名訪客。

論文可以用稿紙寫嗎_可以用ai寫論文嗎_寫論文可以抄文獻(xiàn)嗎

當(dāng)然,這些文章都是來自GPT-3的杰作。

實(shí)驗(yàn)的發(fā)起者是一位名叫Liam Porr的伯克利大學(xué)畢業(yè)生,他發(fā)現(xiàn)GPT-3的寫作風(fēng)格在于擅長寫觸動(dòng)感情語言優(yōu)美的文字,而不是硬性邏輯和理性思維,而“自我提升(self-help)”這個(gè)領(lǐng)域似乎情感需求最濃烈,最不需要嚴(yán)絲合縫的邏輯。

那么接下來,他只需要想一個(gè)朗朗上口標(biāo)題,比如“感覺沒效率?也許你應(yīng)該停止過度思考”,將他置入GPT-3,一篇生動(dòng)的情感故事就誕生了。在經(jīng)過Porr對(duì)文章細(xì)節(jié)部分微調(diào)以后,他決定把文章投放到 News——一個(gè)聚集了最懂科技和AI用戶群體的論壇里,來觀察事情是否會(huì)被發(fā)現(xiàn)。

用戶們不僅沒揭穿GPT-3的詭計(jì),還把它的文章頂上了熱搜。

最后是Porr自己向大眾告知了真相,才把這次實(shí)驗(yàn)公之于眾,他用博客發(fā)布了一篇名為“What I do with GPT-3 if I had no .(《如果我沒有道德,我會(huì)用GPT-3來做些什么》)”的文章,謹(jǐn)慎地提出了自己的擔(dān)憂“在未來可能有更多人會(huì)把AI撰寫的東西冠上自己的名字,更可怕的是,要這么做并不困難。”

距離上述提到的兩次欺騙已經(jīng)過去兩年了,次世代的GPT-4還沒有對(duì)外公布新消息,在這期間,沒有更多的“社會(huì)實(shí)驗(yàn)”被發(fā)現(xiàn),但并不意味著沒有實(shí)驗(yàn)正在發(fā)生,也并不意味著語言類AI的實(shí)踐停滯不前。

對(duì)于本文開頭講的那個(gè)新聞,如果你想問問AI的看法,他同樣能給出自己的解釋。在“幫忙做作業(yè)”事件發(fā)酵之后,參與GPT-3制作的麻省理工學(xué)院在推特上發(fā)文,讓AI就“從道德和社會(huì)層面考量,AI能不能幫忙做家庭作業(yè)”闡述自己的想法:

可以用ai寫論文嗎_論文可以用稿紙寫嗎_寫論文可以抄文獻(xiàn)嗎

“確實(shí)有潛在的道德和社會(huì)問題”

——AI用標(biāo)準(zhǔn)的議論文討論格式警惕且體面地做出了回答,對(duì)幫忙做作業(yè)的弊端言之鑿鑿,但完全沒有要反省的意思。