chatgpt生成算法 專訪《生成式人工智能》作者丁磊:中國大模型廠商趕超美國,關(guān)鍵在這里
以大模型為代表的生成式AI,可以說是今年全球科技圈最火熱的概念,甚至沒有之一。
在不久前閉幕的世界人工智能大會(huì)上,無論是以BAT為代表的傳統(tǒng)互聯(lián)網(wǎng)大廠,還是華為等ICT企業(yè),亦或是科大訊飛、商湯科技這種本來就帶有AI標(biāo)簽的公司,都在展示大模型能力。
下游應(yīng)用中,有的廠商展示了AI大模型的聊天、寫詩、作畫能力,有的則展示了大模型的編程、建模能力,還有的企業(yè)專注直接行業(yè)結(jié)合,強(qiáng)調(diào)自己的大模型“不作詩,只做事”。
當(dāng)大模型爆火了大半年之后,復(fù)盤變得很有必要,同時(shí)也有很多專業(yè)問題亟待解答。比如,如今的生成式AI和前些年火熱的AI概念有沒有本質(zhì)區(qū)別?催生生成式AI的關(guān)鍵技術(shù)有哪些?如何看待國內(nèi)互聯(lián)網(wǎng)大廠的大模型“軍備競賽”?中美大模型的發(fā)展有哪些差距?我們離真正的通用人工智能(AGI)還有多遠(yuǎn)?等等。
針對這些外界普遍關(guān)心的話題,觀察者網(wǎng)近期深度專訪了《生成式人工智能》作者、美國俄亥俄州立大學(xué)人工智能專業(yè)博士、美國全球數(shù)據(jù)科學(xué)平臺(tái)創(chuàng)始負(fù)責(zé)人丁磊。
丁磊
以下是專訪實(shí)錄:
觀察者網(wǎng):幾年前掀起過一輪人工智能熱潮,但熱度很快冷卻了。如今這種大模型再度引發(fā)人們對AI的高度關(guān)注。在您看來,和所代表的兩個(gè)AI發(fā)展階段,有什么本質(zhì)不同?另外,會(huì)不會(huì)也像一樣,很快失去熱度?
丁磊:首先可以這樣類比一下,人類從一個(gè)嬰幼兒成長為成年人,需要漫長的過程,同時(shí)也需要花很多時(shí)間去學(xué)習(xí),而的訓(xùn)練過程相當(dāng)于人類的成長過程。現(xiàn)在可以說在一定程度上已經(jīng)擁有成年人的通識(shí)水平,并且具有一定的邏輯推理和常識(shí)理解能力。
作為對比,只是一個(gè)人工智能圍棋機(jī)器人,而人類能在相對較短的時(shí)間內(nèi)學(xué)會(huì)下圍棋。我認(rèn)為所具有的知識(shí)和邏輯,讓一個(gè)人去學(xué)習(xí)的話,肯定比學(xué)習(xí)下圍棋的時(shí)間要長。所以的里程碑式意義更大,但不是說就沒有意義,只是模擬人類學(xué)習(xí)的意義更大。從人腦學(xué)習(xí)的層面來看,跨越時(shí)空的尺度肯定比更大,因?yàn)閷W(xué)習(xí)圍棋相比于學(xué)習(xí)常識(shí)和邏輯,需要的時(shí)間更短。
從第二個(gè)層面來說,并不是一個(gè)普通的AI機(jī)器人,它以擊敗圍棋世界冠軍柯潔而名聲大噪,背后依靠的主要是強(qiáng)大算力。雖然圍棋是比較復(fù)雜的棋類,但它是有規(guī)則的,通過大量的數(shù)據(jù)學(xué)習(xí)就能做到很優(yōu)秀。在我看來,這種AI機(jī)器人更像是在規(guī)則之下,通過大量數(shù)據(jù)不停地強(qiáng)化和迭代的過程,而處理的是人類自然語言,相對更復(fù)雜。
處理的主要是圍棋數(shù)據(jù),格式相對簡單。雖然圍棋中的內(nèi)涵邏輯,包括取勝的規(guī)則也挺復(fù)雜,但它的底層數(shù)據(jù)結(jié)構(gòu)更簡單直白。而對應(yīng)的是人類自然語言數(shù)據(jù),存在的形式更為復(fù)雜、多樣和多變,這也就從另一個(gè)角度印證了是AI領(lǐng)域更大的突破。
觀察者網(wǎng):能否這樣理解,和其實(shí)是一種進(jìn)化關(guān)系,在進(jìn)一步進(jìn)化之后,就可以成為這種AI大模型?
丁磊:盡管二者在算法上有一些相通性,但并不能完全說是進(jìn)化。換個(gè)角度來說,其實(shí)下圍棋的程序早已存在,雖然可能沒有那么優(yōu)秀,但很早就出現(xiàn)了。而作為一種可以跟人類自然交互的聊天工具,之前是不存在的,所以它突破性更大。奪得圍棋冠軍,引起很大的轟動(dòng),主要因?yàn)樗懔λ惴ǜ鼜?qiáng)更優(yōu)秀,它更像是一種量變。而在之前的自然語言對話工具完全不能用,很多場合下像“人工智障”,而現(xiàn)在基本超越了一些人認(rèn)為能用的閾值或限度,所以它更像一種質(zhì)變,在一定程度上突破了可用的邊界。
觀察者網(wǎng):之前看到一種說法,AI 1.0時(shí)代是在海量數(shù)據(jù)庫中做快速比對,而的突破之處在于,它可以基于大數(shù)據(jù)集自己生成內(nèi)容,并不是簡單的比對和匹配。這意味著掌握了一定自學(xué)習(xí)能力的AI,技術(shù)迭代速度大幅提升,進(jìn)入2.0時(shí)代。您如何看待此種說法?
丁磊:不能完全說是匹配,它也擁有一套深度強(qiáng)化學(xué)習(xí)的模式,但不是生成式,而是生成式。可以理解為早前那種判別式AI,也可說是決策式AI。
從技術(shù)路徑來看,決策式AI的主要工作是對已有數(shù)據(jù)“打標(biāo)簽”,對不同類別的數(shù)據(jù)做區(qū)別,最簡單的例子如區(qū)分貓和狗、草莓和蘋果等,干的主要是“判斷是不是”和“區(qū)分是這個(gè)還是那個(gè)”的活兒。生成式AI不一樣,它會(huì)在歸納分析已有數(shù)據(jù)后,再“創(chuàng)作”出新內(nèi)容,如在看了很多狗的圖片后,生成式AI會(huì)再創(chuàng)作出一只新的狗的圖片,實(shí)現(xiàn)“舉一反三”。
從成熟程度看,決策式AI的應(yīng)用更為成熟,已在互聯(lián)網(wǎng)、零售、金融、制造等行業(yè)展開應(yīng)用,極大地提升了企業(yè)的工作效率。而生成式AI的“年歲更小”,2014年至今發(fā)展迅猛,堪稱指數(shù)級的爆發(fā),已在文本和圖片生成等應(yīng)用內(nèi)落地。從應(yīng)用方向來看,決策式AI在人臉識(shí)別、推薦系統(tǒng)、風(fēng)控系統(tǒng)、機(jī)器人、自動(dòng)駕駛中都已經(jīng)有成熟的應(yīng)用,非常貼合日常生活。生成式AI則在內(nèi)容創(chuàng)作、人機(jī)交互、產(chǎn)品設(shè)計(jì)等領(lǐng)域展現(xiàn)出巨大潛力。
觀察者網(wǎng):您在新書《生成式人工智能》中提到,與模型的出現(xiàn)密切相關(guān),已成為深度學(xué)習(xí)最亮眼的成果之一,但很多人不明白什么是,為什么這么重要?除了,催生這類大模型的關(guān)鍵技術(shù)還有哪些?
丁磊:提到,大家肯定首先想到的就是“”這個(gè)詞,也就是“轉(zhuǎn)換”的意思。而顧名思義,也就是“轉(zhuǎn)換器”的意思。為什么一個(gè)技術(shù)模型要叫“轉(zhuǎn)換器”呢?其實(shí)這也正是的核心,也就是它能實(shí)現(xiàn)的功能——從序列到序列。
序列到序列模型( to )是在2014年提出的。所謂序列,指的是文本數(shù)據(jù)、語音數(shù)據(jù)、視頻數(shù)據(jù)等一系列具有連續(xù)關(guān)系的數(shù)據(jù)。在序列到序列模型中,只要能編碼成序列,輸入和輸出的可以是任何形式的內(nèi)容。而序列編碼形式非常廣泛,我們?nèi)粘W龅拇蟛糠止ぷ鞫伎梢跃幋a成序列,因此這種模型可以解決很多問題。
2017年出現(xiàn)的模型,在序列到序列模型基礎(chǔ)上有兩大提升,分別是采用多頭注意力機(jī)制和引入位置編碼機(jī)制,能夠識(shí)別更復(fù)雜的語言情況,從而能夠處理更為復(fù)雜的任務(wù)。在模型中,能輸出或生成的內(nèi)容更加廣泛,包括文本、圖像、語音、視頻以及更廣義的內(nèi)容,例如它可以生成報(bào)告、策劃方案、代碼以及程序等,是通用型的模型,可以生成任何我們需要的內(nèi)容。目前國內(nèi)外的大廠,都在基于技術(shù)推出自己的模型。
而且模型底層是開源的,每個(gè)人都可以利用技術(shù)chatgpt生成算法,然后就是看誰可以設(shè)計(jì)出更加精巧的模型結(jié)構(gòu)。現(xiàn)在是基于GPT模型的,未來可能有更新的GPT模型結(jié)構(gòu),我們可以去改進(jìn)它。也就是說,首先我們能改變模型結(jié)構(gòu),其次我們有沒有更多更好的數(shù)據(jù)去訓(xùn)練模型,第三就是如何去訓(xùn)練一個(gè)類似的模型,這也是很有講究的。
這三點(diǎn)也可以這么理解,就像教育小孩一樣,首先要有一個(gè)類似人類大腦的框架在那里,也就是模型的結(jié)構(gòu);其次是訓(xùn)練模型的數(shù)據(jù),相當(dāng)于給小孩看什么樣的教材、講什么樣的課程;第三是如何培養(yǎng)孩子chatgpt生成算法,也就訓(xùn)練的方法。這三點(diǎn),決定了我們能訓(xùn)練出什么樣的模型。
(資料圖)
觀察者網(wǎng):現(xiàn)在很多互聯(lián)網(wǎng)大廠在宣傳自己模型的時(shí)候,更喜歡突出千億甚至萬億的參數(shù)規(guī)模,這導(dǎo)致行業(yè)在模型參數(shù)上展開“軍備競賽”,業(yè)界也似乎秉持著“模型越大越好”的觀點(diǎn),您如何評價(jià)這種觀點(diǎn)?我們該如何認(rèn)識(shí)一個(gè)大模型的水平?
丁磊:大模型或模型大只是單一評價(jià)維度,大公司喜歡突出參數(shù)規(guī)模,是因?yàn)樗麄兛梢哉{(diào)動(dòng)的資源更多,比如在算力、數(shù)據(jù)等層面,他們更有優(yōu)勢,所以他們更偏向突出模型參數(shù)規(guī)模的優(yōu)勢。但是從客觀角度來說,我覺得模型的“深度”更重要。
什么叫深度?是指模型在某一領(lǐng)域解決問題的能力更強(qiáng),比如解決數(shù)學(xué)問題的能力更突出,或者在具體行業(yè)應(yīng)用中,能把某一行業(yè)的問題解決的更專業(yè),這就叫模型更深。如果一個(gè)模型只是夠大,并不能解決相應(yīng)的業(yè)務(wù)問題,或者是只能解決部分問題chatgpt生成算法,給不出完全正確的解決方案,在很多情況下就會(huì)失去用處。因此,除了關(guān)注參數(shù)規(guī)模之外,還要看重模型的深度。
觀察者網(wǎng):能否這樣理解,大模型的“大”代表的是通用性,如果中小企業(yè)沒有能力去煉大模型的話,可以基于大廠研發(fā)的大模型,去做更加專用的行業(yè)模型來服務(wù)自身的業(yè)務(wù)?
丁磊:大部分的中小企業(yè)并不會(huì)去參與大模型的競賽,相反他們會(huì)基于開源的大模型去研發(fā),甚至也都支持在線的訓(xùn)練和迭代。也就是說,這些中小企業(yè)會(huì)利用一些開源的大模型,或者在線可以訓(xùn)練迭代的大模型,去解決他們業(yè)務(wù)場景的問題,來構(gòu)建相應(yīng)的“深模型”,這也是大部分中小企業(yè)應(yīng)該走的路。
觀察者網(wǎng):現(xiàn)在布局大模型的大多都是互聯(lián)網(wǎng)企業(yè),像國內(nèi)的阿里、百度、騰訊等,以及美國的微軟和谷歌,互聯(lián)網(wǎng)企業(yè)在做大模型方面有哪些獨(dú)特的優(yōu)勢?
丁磊:互聯(lián)網(wǎng)大廠在數(shù)據(jù)積累方面肯定更有優(yōu)勢,但我認(rèn)為開源還是會(huì)成為整個(gè)行業(yè)的趨勢,現(xiàn)在國內(nèi)外都有開源的大模型,使用的數(shù)據(jù)大多也都是互聯(lián)網(wǎng)上公開的,像訓(xùn)練使用的數(shù)據(jù),大多也都是互聯(lián)網(wǎng)上可以公開獲得的。大公司獲取數(shù)據(jù)的速度可能會(huì)更快,獲得體量也會(huì)更大,但這并不意味著互聯(lián)網(wǎng)巨頭在大模型領(lǐng)域有絕對的壟斷優(yōu)勢。我們之前分析過,實(shí)際上訓(xùn)練這種大模型,實(shí)力雄厚的創(chuàng)業(yè)公司或者一些中型公司,也都有能力來做這方面的事,不一定只有大公司才能做。
觀察者網(wǎng):中美在AI領(lǐng)域的競爭最引人關(guān)注。馬斯克不久前曾提到,中美在AI方面的差距大約在十二個(gè)月左右。而國內(nèi)一些廠商稱自己的大模型部分能力已超越,并且很快將整體趕超。您如何看待中美在AI方面的差距,國內(nèi)廠商能否迅速趕超美國企業(yè)?
丁磊:我覺得與其對比中美,不如對比訓(xùn)練模型這件事跟互聯(lián)網(wǎng)思維模式的差別。各國企業(yè)其實(shí)沒有本質(zhì)差別,都可以做訓(xùn)練模型這件事,但誰能最終做出來,就需要一種新的思維方式。打個(gè)比方,包括谷歌在內(nèi)的互聯(lián)網(wǎng)公司研發(fā)產(chǎn)品,采用的是“養(yǎng)雞模式”,公司會(huì)將“養(yǎng)雞”拆成不同的細(xì)分任務(wù),多部門人員各自負(fù)責(zé)具體業(yè)務(wù)。
而訓(xùn)練GPT模型是“養(yǎng)娃模式”,它反而不需要那么多老師、廚師,核心人物只要少數(shù)。也就是說,它很難拆分成完全獨(dú)立的任務(wù),必須有固定父母站在全局角度,親自教授培養(yǎng)孩子。所以在這種模式下,谷歌沒有最早做出產(chǎn)品的原因很簡單,現(xiàn)有體系很難在AI領(lǐng)域取得里程碑式的成功。訓(xùn)練GPT模型本質(zhì)是一個(gè)很難拆解的事,需要公司領(lǐng)導(dǎo)層在技術(shù)、業(yè)務(wù),甚至資本層都是專家。
另一個(gè)簡單的例子就是,美國AI繪畫工具,是由一家獨(dú)立研究實(shí)驗(yàn)室開發(fā)出來的。包括創(chuàng)始人大衛(wèi)·霍爾茲在內(nèi)僅有11個(gè)人,除了他和財(cái)務(wù)、法務(wù),核心只有8位研發(fā)人員。我也曾在IBM沃森研究中心有過一段工作經(jīng)歷,IBM的沃森人工智能也曾陷入這種困境——有太多的人參與人工智能訓(xùn)練,資源太多、研發(fā)不聚焦,造成項(xiàng)目沒有持續(xù)取得成績。
實(shí)際上,美國真正專注通用人工智能研發(fā)的知名公司也就兩家——以及谷歌母公司下設(shè)的人工智能實(shí)驗(yàn)室。就目前披露的信息看,創(chuàng)始人奧特曼個(gè)人能力非常強(qiáng),不僅懂技術(shù),也懂商業(yè)運(yùn)作,在運(yùn)營過程中也鮮少受股東制約。是長在美國硅谷重視工程師地位的文化土壤里,有著強(qiáng)大的“工程師文化基因”,簡單說就是工程師可以主導(dǎo)研發(fā),擁有更大自主性,發(fā)揮創(chuàng)造性的空間更大。
但并不能代表美國的互聯(lián)網(wǎng)公司。所以我認(rèn)為,互聯(lián)網(wǎng)公司在訓(xùn)練大模型這件事上,并不具有天賦基因。它們可以去學(xué),也可以去適應(yīng),但它本身并沒有這個(gè)基因。他們適合做一件事情,就是像“養(yǎng)雞”這樣的事,或者說更適合做大規(guī)模的生產(chǎn),但訓(xùn)練模型更像是“養(yǎng)娃”,你不能把這個(gè)問題拆分,擁有1750億個(gè)參數(shù),我們沒辦法把它拆分成100份1000份,讓不同團(tuán)隊(duì)并行去做,根本做不到。
觀察者網(wǎng):有沒有可能判斷一下,中美企業(yè)在大模型領(lǐng)域的差距,以及追趕的時(shí)間表?
丁磊:這個(gè)沒辦法給出明確的時(shí)間表,因?yàn)楝F(xiàn)在主要也就一家的大模型在各方面都比較領(lǐng)先。但是我認(rèn)為,任何一家互聯(lián)網(wǎng)企業(yè),如果按照原來的運(yùn)行模式,很難做出像這樣的大模型,無論中國還是美國企業(yè)都一樣。
觀察者網(wǎng):現(xiàn)在人們?nèi)菀子懻摰膯栴}是,為什么會(huì)率先誕生在美國,而中國企業(yè)涌入大模型更像是跟風(fēng),您怎么看待這種問題?
丁磊:我在硅谷工作多年,非常了解為什么硅谷會(huì)出現(xiàn)以及奧特曼這樣的人物——是硅谷的“工程師文化基因”造就了他們。其實(shí)也是一個(gè)異類公司,而硅谷擁有技術(shù)驅(qū)動(dòng)的傳統(tǒng)文化,可以去忽視短期利益去做長期投入。以及奧特曼,本身也有較強(qiáng)的資金基礎(chǔ),使他們可以進(jìn)行大規(guī)模投入,而大部分公司并不具備做這種事情的先決條件。
觀察者網(wǎng):我們都知道,人工智能有三駕馬車:算力,算法,數(shù)據(jù)。在生成式AI概念中,這三駕馬車的重要性有大小之分嗎?眼下英偉達(dá)的GPU成為稀缺品,國內(nèi)AIGC的發(fā)展會(huì)因?yàn)樗懔σ蛩厥芟迒幔?/p>
丁磊:數(shù)據(jù)、算法和算力都很重要。但是我認(rèn)為,數(shù)據(jù)現(xiàn)在比較容易獲得,很多數(shù)據(jù)都是互聯(lián)網(wǎng)上的數(shù)據(jù),可以很容易獲得。最核心的還是算法,這關(guān)系到模型訓(xùn)練的效果。
觀察者網(wǎng):國內(nèi)很多企業(yè)現(xiàn)在訓(xùn)練中文模型,需要使用中文語料,而中文可使用的語料可能沒有英文那么廣泛,這會(huì)不會(huì)導(dǎo)致中美大模型之間產(chǎn)生差距?
丁磊:這確實(shí)是個(gè)問題,英文高質(zhì)量的語料可能比中文要多,但這其中是不是也可以考慮做一些跨語言的翻譯,然后再做模型訓(xùn)練。
觀察者網(wǎng):自爆火以來,無論是馬斯克還是的高管,都提出要對人工智能進(jìn)行監(jiān)管,甚至還有逾千名專家呼吁暫停巨型AI的研發(fā),他們在擔(dān)心什么?
丁磊:我覺得有幾個(gè)方面的因素。首先是目前行業(yè)對于巨型AI怎么應(yīng)用,還沒有準(zhǔn)備好,可能會(huì)產(chǎn)生一些擔(dān)心。其次可以推測,這其中不乏可能有一些商業(yè)利益的考慮,比如說我沒造出來,你也別造。第三就是對社會(huì)而言,我們要做到科技向善。對技術(shù)的發(fā)展來說,其實(shí)一定程度上是很難停滯的,尤其是提升生產(chǎn)力的技術(shù),很難去暫停它的發(fā)展。
但是從政策法規(guī)角度進(jìn)行適當(dāng)?shù)谋O(jiān)管,這個(gè)是完全有必要的。比如說我們國家也出臺(tái)了《生成式人工智能服務(wù)管理辦法》。因此,怎么監(jiān)管人工智能的發(fā)展是更加重要的,而不是說暫停,我認(rèn)為呼吁暫停研發(fā)本身還是有一定的片面性。
丁磊新書《生成式人工智能》
觀察者網(wǎng):您在《生成式人工智能》一書中提到,AGI(通用人工智能)的出現(xiàn)將推動(dòng)社會(huì)產(chǎn)生極具顛覆性的發(fā)展。這種大模型可以被看做是AGI嗎?距離實(shí)現(xiàn)真正的AGI,我們還需要跨越哪些門檻?
丁磊:作為人工智能領(lǐng)域的一個(gè)中長期目標(biāo),AGI技術(shù)要不僅能夠執(zhí)行特定任務(wù),而且能夠像人類一樣通盤理解和處理各種不同的信息,這樣才能成為具有與人類類似或超越人類智能的計(jì)算機(jī)程序。雖然等模型在自然語言處理方面取得了一些進(jìn)展,但仍然需要進(jìn)一步研究和發(fā)展,才能逐步向著AGI的方向發(fā)展。
我認(rèn)為,要真正實(shí)現(xiàn)AGI必須滿足幾點(diǎn)要素。
首先是跨模態(tài)感知,我們將平時(shí)接觸到的每個(gè)信息來源域稱為一個(gè)模態(tài),這些來源可以是文字、聲音、圖像、味覺、觸覺等等。人類天然具有跨模態(tài)感知能力,能夠?qū)碜远喾N感官的信息進(jìn)行整合和理解。而當(dāng)前絕大部分的人工智能系統(tǒng)只能單獨(dú)運(yùn)用其中的一項(xiàng)作為傳感器來感知世界,對于不同模態(tài),需要設(shè)計(jì)不同的專有模型。
第二是多任務(wù)協(xié)作,比如說給機(jī)器人發(fā)一條指令,讓它幫忙拿一杯茶,它就會(huì)進(jìn)行指令的理解、任務(wù)的分解、路線規(guī)劃、識(shí)別物體等一系列動(dòng)作,現(xiàn)在像這種大模型還不具備多任務(wù)協(xié)作能力。因此,多任務(wù)協(xié)作是AGI最重要的研究方向之一,旨在讓“通用性”體現(xiàn)為不僅能夠同時(shí)完成多種任務(wù),還能夠快速適應(yīng)與其訓(xùn)練情況不同的新任務(wù)。
第三是自我學(xué)習(xí)和適應(yīng)。人類具有學(xué)習(xí)和適應(yīng)能力,能夠通過不斷的學(xué)習(xí)和經(jīng)驗(yàn)積累來提高自己的能力。因此,研究如何讓人工智能系統(tǒng)具有自我學(xué)習(xí)和適應(yīng)能力也是實(shí)現(xiàn) AGI 的必要步驟。其中主要包括增量學(xué)習(xí)、遷移學(xué)習(xí)和領(lǐng)域自適應(yīng)三個(gè)方向。
第四是情感理解。能夠理解并表達(dá)情感是人類最重要的特征,它在交流協(xié)作中甚至常常影響事件的下一步走向。當(dāng)前,不少生成式對話系統(tǒng)的工作尚且將關(guān)注點(diǎn)集中在提升生成語句的語言質(zhì)量,忽略了對人類情感的理解。
第五是超級計(jì)算能力。實(shí)現(xiàn)AGI需要龐大的計(jì)算資源和超級計(jì)算能力。為了提升這一能力,人們從不同角度出發(fā),采取多種方法不斷推進(jìn)就像一輛汽車,人們不斷升級油箱的容量、提高燃料的效率,以實(shí)現(xiàn)更遠(yuǎn)的行程。
觀察者網(wǎng):我們能把理解為是一個(gè)兒童,而AGI是一個(gè)成年人嗎?
丁磊:我認(rèn)為可以這么理解。
免責(zé)聲明:本文系轉(zhuǎn)載,版權(quán)歸原作者所有;旨在傳遞信息,不代表本站的觀點(diǎn)和立場和對其真實(shí)性負(fù)責(zé)。如需轉(zhuǎn)載,請聯(lián)系原作者。如果來源標(biāo)注有誤或侵犯了您的合法權(quán)益或者其他問題不想在本站發(fā)布,來信即刪。
聲明:本站所有文章資源內(nèi)容,如無特殊說明或標(biāo)注,均為采集網(wǎng)絡(luò)資源。如若本站內(nèi)容侵犯了原著者的合法權(quán)益,可聯(lián)系本站刪除。