带玩具逛街时突然按下按钮的故事,丰满的妺妺3伦理播放,新婚人妻不戴套国产精品,大肉大捧一进一出好爽视频百度

壹沓AI探索:五類主流文本生成方法實(shí)測(cè)

原創(chuàng) 收藏 評(píng)論
舉報(bào) 2020-08-13


公號(hào)前綴圖.gif

近期,壹沓科技通過(guò)對(duì)如LSTM,GRU,transformer-xl,GPT2等主流的文本生成方法進(jìn)行實(shí)驗(yàn)探索,對(duì)深度學(xué)習(xí)的文本生成算法和工具從行業(yè)領(lǐng)域應(yīng)用視角開展了測(cè)評(píng),本文簡(jiǎn)單介紹了幾類方法的基本思想和實(shí)驗(yàn)結(jié)果,從中可以直觀地感受到人工智能在NLP領(lǐng)域快速的發(fā)展。

在深度學(xué)習(xí)的文本生成算法和工具流行之前,NLP文本生成的主要任務(wù)是文本摘要(從一篇文章中提取出一篇文章的中心,即摘要的自動(dòng)生成),文本摘要生成大體的思想是先去除文章中的一些停用詞,對(duì)句子的相似度進(jìn)行度量,計(jì)算相似度得分,對(duì)其進(jìn)行迭代直到誤差小于某個(gè)閾值。針對(duì)得到的關(guān)鍵語(yǔ)句進(jìn)行排序從而得到想要的摘要。自動(dòng)摘要的生成應(yīng)用場(chǎng)景如自動(dòng)報(bào)告生成、新聞標(biāo)題生成、搜索結(jié)果預(yù)覽等。伴隨大數(shù)據(jù)條件下訓(xùn)練大規(guī)模的語(yǔ)料網(wǎng)絡(luò)的發(fā)展,為給定的一句話開頭或者關(guān)鍵詞來(lái)進(jìn)行生成一篇可以閱讀的文章創(chuàng)造了條件。

壹沓認(rèn)為:目前此類自然語(yǔ)言處理中關(guān)于文章的生成大多依賴于文本預(yù)測(cè)的基本方法,大體思路就是在給定的一句話或者關(guān)鍵詞來(lái)預(yù)測(cè)下一個(gè)詞是什么,在拿預(yù)測(cè)出來(lái)的下個(gè)詞加上之前的詞再作為輸入進(jìn)行預(yù)測(cè)下個(gè)詞,以此類推。但如果這樣類推下去,當(dāng)文章長(zhǎng)度一長(zhǎng)便會(huì)出現(xiàn)問(wèn)題,一是輸入過(guò)長(zhǎng);二是輸入文本過(guò)長(zhǎng),可能前面部分內(nèi)容并不需要保留,而只需要當(dāng)下的幾句話(長(zhǎng)時(shí)間依賴或遺忘不相關(guān)的數(shù)據(jù))。

先介紹一下關(guān)于文本(詞)預(yù)測(cè)的兩種思想,第一種是針對(duì)已有大量的數(shù)據(jù)集進(jìn)行訓(xùn)練,用訓(xùn)練好的模型去預(yù)測(cè)下一個(gè)詞是什么,具體需要預(yù)測(cè)多少個(gè)詞,這個(gè)可以根據(jù)需要進(jìn)行設(shè)置(步長(zhǎng))。

上圖中缺少一個(gè)字,用模型去預(yù)測(cè)該字是什么。根據(jù)已有的句子去訓(xùn)練預(yù)測(cè),這里就會(huì)把前面的語(yǔ)句當(dāng)作輸入來(lái)進(jìn)行預(yù)測(cè)空格處的字。這里有兩個(gè)問(wèn)題需要注意,一是輸入的長(zhǎng)度多長(zhǎng)。二是空格處后面的句子對(duì)預(yù)測(cè)會(huì)不會(huì)有幫助。

有兩個(gè)情況,第一種情況:當(dāng)預(yù)測(cè)的時(shí)候,如果只輸入“我會(huì)說(shuō)__語(yǔ)”前面的一句話,這個(gè)時(shí)候空格處預(yù)測(cè)大概率是“英”,但是這個(gè)也要看訓(xùn)練文本數(shù)據(jù)集中英語(yǔ)這個(gè)詞出現(xiàn)的頻率。但是如果考慮到“我出生在法國(guó)”這個(gè)時(shí)候預(yù)測(cè)出來(lái)“法”語(yǔ),才是我們想要的答案。這里就是長(zhǎng)時(shí)間依賴問(wèn)題。第二種情況,考慮到雙向預(yù)測(cè),把要空格后面的語(yǔ)句也作為輸入,這個(gè)時(shí)候可能也會(huì)預(yù)測(cè)到我們想要的答案(雙向?qū)W習(xí))。

壹沓NLP團(tuán)隊(duì)意識(shí)到雙向?qū)W習(xí)的提出是源于有時(shí)候如果我們只看前面的信息來(lái)預(yù)測(cè)后面的信息是不夠的。

比如:我今天不舒服,我打算____一天。

如果只根據(jù)前面的語(yǔ)句,“不舒服”,可能預(yù)測(cè)出“去醫(yī)院”,“睡覺(jué)”,“請(qǐng)假”等等。但如果加上后面的“一天”,能選擇的范圍就小很多,“去醫(yī)院”這種就不能再選擇,而“請(qǐng)假”,“休息”之類的詞被選擇的概率較大。這體現(xiàn)出的就是雙向?qū)W習(xí)的重要性。這里放個(gè)網(wǎng)上的圖供參考:

 以上說(shuō)到的兩個(gè)問(wèn)題,一是長(zhǎng)時(shí)間依賴、二是雙向的問(wèn)題。現(xiàn)有比較好的文本生成模型主要是用來(lái)解決這兩個(gè)問(wèn)題,還有在對(duì)文本處理上下功夫。下面針對(duì)目前研究的五種模型進(jìn)行論述和總結(jié),以及提出一個(gè)新的角度去更好地解決文章生成,能夠更好的去控制文章的質(zhì)量。

閱讀本文你可以了解到以下內(nèi)容:

(1)如何用生成模型產(chǎn)出文章。

(2)五種生成模型的實(shí)驗(yàn)效果。

(3)從一個(gè)新的角度(文章要素控制)去生成文章。

(4)從應(yīng)用角度來(lái)看文章生成。

1.LSTM+One-hot

壹沓推薦優(yōu)先上手實(shí)驗(yàn)最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型。首先對(duì)文本文件進(jìn)行讀取,將文本向量化,再采用one-hot編碼為三位向量。這里為了能夠快速地得到實(shí)驗(yàn)結(jié)果以及便于和其它模型對(duì)比,這里模型參數(shù)設(shè)置比較寬松(訓(xùn)練時(shí)間短)。

LSTM模型+ one-hot 編碼來(lái)進(jìn)行預(yù)測(cè),主要面臨著長(zhǎng)時(shí)間依賴以及one-hot編碼會(huì)造成稀疏性,需要的內(nèi)存空間比較大,在表達(dá)語(yǔ)義方面也有所欠缺。但總的來(lái)說(shuō)還是可以進(jìn)行預(yù)測(cè),不過(guò)需要注意的是如果輸入的語(yǔ)句或者關(guān)鍵詞,是在訓(xùn)練集中未出現(xiàn)的詞,通過(guò)概率計(jì)算可能會(huì)得不到下一個(gè)詞。如果有這種情況出現(xiàn),可以通過(guò)以下方法解決,一是加入解決方法,二是增大訓(xùn)練集(足夠大)。

用訓(xùn)練好的模型去對(duì)文本進(jìn)行生成,主要步驟包括以下:

(1)將已生成的文本同樣進(jìn)行one-hot編碼,用訓(xùn)練好的模型計(jì)算所有字符的概率分布。

(2)根據(jù)給定的 temperature 得到新的概率分布(可以省略)。

(3)從新的概率分布中抽樣得到下一個(gè)字符。

(4)將生成的字符加到最后,并去掉原文本的第一個(gè)字符,作為輸入再預(yù)測(cè)下一個(gè)詞。

其中(2)步驟提到的temperature是指采樣策略,當(dāng)設(shè)置這個(gè)參數(shù)的時(shí)候即表示使用采樣策略。考慮到語(yǔ)言模型中的預(yù)測(cè)輸出就是字典中所有詞的概率分布中最大的那個(gè)詞,這里加上采樣策略就是為了生成的時(shí)候可能并不總是要概率最大的那個(gè)詞(比如:前文說(shuō)到的“__語(yǔ)”預(yù)測(cè))。如果嚴(yán)格按照概率最大生成模型,那么最后預(yù)測(cè)出來(lái)的文章可能就是某某人講話稿了。因此引入采樣策略,讓其從概率分布中選擇詞的過(guò)程引入一定的隨機(jī)性,進(jìn)而讓文本變得有趣,采樣參數(shù)temperat分布為:

實(shí)驗(yàn)數(shù)據(jù)集來(lái)源于:搜狐新聞數(shù)據(jù)集中包括汽車內(nèi)容的文章,6539篇文章。

數(shù)據(jù)集連接:https://www.sogou.com/labs/resource/cs.php

備注:該數(shù)據(jù)集從網(wǎng)上采集,包含很多調(diào)查問(wèn)卷類型的文章,訓(xùn)練出來(lái)的模型,在預(yù)測(cè)文章時(shí)可能會(huì)出現(xiàn)一些跟汽車相關(guān)的奇怪?jǐn)?shù)字或者語(yǔ)句。

樣例輸入:簡(jiǎn)短的語(yǔ)句。

樣例輸出:預(yù)測(cè)下文。

從預(yù)測(cè)效果來(lái)看,在不加采樣策略下(概率最大來(lái)選),續(xù)寫出來(lái)的文章還是具有一定的可閱讀性。但在采樣的策略下面,輸出內(nèi)容與不使用采樣策略效果有所不同,當(dāng)采樣參數(shù)設(shè)置越大,隨機(jī)性越強(qiáng),生成的語(yǔ)句會(huì)更奇怪,不過(guò)可以根據(jù)需要適當(dāng)調(diào)整。從整理效果來(lái)算,如果給定一些關(guān)鍵詞,而不是從測(cè)試集中選擇一句讓其續(xù)寫,效果會(huì)相對(duì)差一些。原因主要是實(shí)驗(yàn)訓(xùn)練的篇數(shù)少(考慮到訓(xùn)練時(shí)間的問(wèn)題,只是用了汽車文章中一小部分),從結(jié)果來(lái)看生成的效果看起來(lái)不順暢,主要是源于數(shù)據(jù)集的問(wèn)題。

2.雙向 GRU+Embedding

壹沓NLP團(tuán)隊(duì)認(rèn)為該模型與第一個(gè)模型LSTM主要的區(qū)別有三點(diǎn):

(1)LSTM模型是基于字符級(jí)別的語(yǔ)言模型,每個(gè)句子都是以字符為單位,而雙向GRU加Embedding為詞組為單位進(jìn)行訓(xùn)練,使用jieba分詞來(lái)將句子分成詞組(當(dāng)然也可以使用其它方式進(jìn)行分詞)。

(2)使用詞嵌入(Embedding)代替One-hot編碼,節(jié)省內(nèi)存空間,同時(shí)詞嵌入可能比one-hot更好地表達(dá)語(yǔ)義信息。

(3)雙向GRU代替LSTM,從正向和反向兩個(gè)方向來(lái)進(jìn)行學(xué)習(xí)訓(xùn)練。GRU是LSTM的一個(gè)變種,相比于LSTM優(yōu)點(diǎn)是:參數(shù)更少更容易收斂,性能上有所提高。

雙向GRU+Embedding模型輸入的時(shí)候?qū)斎霕颖具M(jìn)行分詞,因此在進(jìn)行輸入的時(shí)候不能保證輸入樣本一致,這里樣例輸入與 LSTM 模型有一些出入。采樣策略與 LSTM 模型使用的參數(shù)保持一致,從實(shí)驗(yàn)結(jié)果來(lái)看,在不啟用采樣策略下,輸出的結(jié)果比較符合邏輯。可見,啟用采樣策略,輸出結(jié)果有意想不到的表達(dá)方式。

3.GRU+Embedding+Conv 

壹沓NLP團(tuán)隊(duì)認(rèn)識(shí)到盡管卷積的概念一般只出現(xiàn)在圖像領(lǐng)域,但也可以使用卷積的概念來(lái)完成文章生成,其特點(diǎn)就是對(duì)局部特征的學(xué)習(xí)提取功能。后來(lái)有研究學(xué)者發(fā)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)同樣適用于時(shí)序數(shù)據(jù)的處理,其能夠提取長(zhǎng)序列中的局部信息,這在NLP特定領(lǐng)域非常有用(如機(jī)器翻譯、自動(dòng)問(wèn)答)。因此這里提出引入卷積來(lái)進(jìn)行處理。

在雙向GRU+Embedding基礎(chǔ)之上加入卷積之后,不管是使用采樣策略或者不使用采樣策略的情況下,生成的文章語(yǔ)句看起來(lái)與預(yù)期輸出的關(guān)聯(lián)性較弱。而這主要是輸入的樣本語(yǔ)句給定的詞在訓(xùn)練樣本集中有多個(gè),在使用統(tǒng)計(jì)模型預(yù)測(cè)下文的時(shí)候,按照概率的大小來(lái)進(jìn)行選擇時(shí)就會(huì)導(dǎo)致這種情況。

4.transformer-xl

該模型是由谷歌開源的語(yǔ)言模型,該模型是在transformer模型(具有固定長(zhǎng)度內(nèi)容建模的局限性)基礎(chǔ)之上進(jìn)一步完善,主要針對(duì)長(zhǎng)文本問(wèn)題進(jìn)行改進(jìn)。一是對(duì)transformer模型使用的位置編碼進(jìn)行改進(jìn),transformer使用的位置編碼是一種絕對(duì)位置編碼,當(dāng)對(duì)文本進(jìn)行分段處理之后,絕對(duì)位置會(huì)出現(xiàn)問(wèn)題,通過(guò)計(jì)算公式來(lái)對(duì)其進(jìn)行改進(jìn),引入相對(duì)位置編碼。二是對(duì)分段文本進(jìn)行編碼時(shí),加入相連的上一段的編碼信息。(而不再是單獨(dú)的一段)。

壹沓科技利用收集的汽車語(yǔ)料庫(kù)來(lái)訓(xùn)練Transformer-xl模型,通過(guò)輸出結(jié)果得出,該模型能夠較好的根據(jù)輸入內(nèi)容繼續(xù)生成文章。生成的內(nèi)容相對(duì)于LSTM模型和GRU模型效果要好一些。但隨著生成的文本過(guò)長(zhǎng),模型也會(huì)出現(xiàn)一些意想不到的生成。為提升效果,還需要收集更多的語(yǔ)料庫(kù)來(lái)進(jìn)行完善。

5.GPT-2

對(duì)于語(yǔ)言模型來(lái)說(shuō),很多學(xué)者不斷刷新自然語(yǔ)言中的記錄,其中包括BERT、Transformer-XL、XLNet等大型自然語(yǔ)言處理模型。但上述模型大部分用于理論研究,在工業(yè)界中由OPEN-AI提出的GPT、GPT2模型憑借著穩(wěn)定、優(yōu)異的性能受到業(yè)界廣泛關(guān)注。

GPT-2相比于GPT模型差別并不大,采用了更大的數(shù)據(jù)集進(jìn)行試驗(yàn)。預(yù)訓(xùn)練的方式和上述幾種語(yǔ)言模型一樣,可以通過(guò)上下文的學(xué)習(xí),根據(jù)輸入的文本來(lái)預(yù)測(cè)下一個(gè)詞。 

其中參數(shù)最小為1.17億,也就是GPT模型,第二參數(shù)為3.45億與BERT是一個(gè)量級(jí),最大的15.42億個(gè)參數(shù)的模型成為GPT-2。

GPT-2模型與其它模型的對(duì)比試驗(yàn)結(jié)果就不再一一列出,本文提供本試驗(yàn)測(cè)試的結(jié)果供大家參考,該模型是GPT-2預(yù)訓(xùn)練好的模型,并未增加相關(guān)數(shù)據(jù)集進(jìn)行調(diào)整。為了展示效果,這里樣例輸入與上述幾種模型保持一致。

 從GPT-2實(shí)驗(yàn)結(jié)果來(lái)看,生成的文章與使用汽車語(yǔ)料庫(kù)訓(xùn)練出的模型有所差距, GPT-2生成的文章相比其它模型閱讀起來(lái)更順暢。但是查看樣例輸入的語(yǔ)句上下文會(huì)發(fā)現(xiàn),前面幾種模型給出的結(jié)果要好于GPT-2,這個(gè)跟GPT-2訓(xùn)練數(shù)據(jù)樣本有關(guān),后續(xù)會(huì)考慮把收集到的汽車語(yǔ)料庫(kù)對(duì)模型進(jìn)行完善,以便得到更好的效果。另外,如果樣例輸入變成某個(gè)關(guān)鍵詞,GPT-2生成文章的質(zhì)量要好于其它語(yǔ)言模型。

6.如何利用上述模型來(lái)實(shí)現(xiàn)可供閱讀的文章

通過(guò)上述自然語(yǔ)言模型的介紹,我們大體了解到自然語(yǔ)言處理現(xiàn)階段的發(fā)展過(guò)程,以及近年來(lái)自然語(yǔ)言模型在處理不同任務(wù)上的各個(gè)優(yōu)勢(shì)。自然語(yǔ)言模型在進(jìn)行文章生成任務(wù)時(shí)是通過(guò)給定的輸入,對(duì)其輸入進(jìn)行預(yù)測(cè)下一個(gè)詞是什么,以此類推,直到達(dá)到設(shè)置的生成長(zhǎng)度。

但這可能會(huì)出現(xiàn)一些問(wèn)題,比如設(shè)置的生成長(zhǎng)度過(guò)長(zhǎng)時(shí),生成的詞可能會(huì)不通順、不連貫,導(dǎo)致生成的一篇文章后半部分無(wú)法達(dá)到閱讀的邏輯要求。

針對(duì)這一問(wèn)題,我們可以考慮將一篇文章進(jìn)行拆分段落來(lái)分塊進(jìn)行生成,針對(duì)每一部分可以對(duì)輸入的語(yǔ)句(關(guān)鍵詞)有所不同。因?yàn)槊恳徊糠謧?cè)重點(diǎn)有所不同,這時(shí)可以根據(jù)需要的側(cè)重點(diǎn)給予相應(yīng)的關(guān)鍵詞來(lái)進(jìn)行預(yù)測(cè)。

以下為壹沓NLP團(tuán)隊(duì)針對(duì)“大眾汽車”為開頭來(lái)生成的一篇文章,從大眾汽車的集團(tuán)概況、平臺(tái)、內(nèi)飾、價(jià)格等方面來(lái)介紹大眾汽車,從中可以看到文本生成僅千字內(nèi)容時(shí)還能基本保持語(yǔ)句通順的初步效果。

“大眾汽車集團(tuán)(中國(guó))公司,并且已經(jīng)在中國(guó)市場(chǎng)取得了一定成功。目前,中國(guó)市場(chǎng)已經(jīng)成為全球第二大汽車消費(fèi)市場(chǎng)。

大眾汽車國(guó)內(nèi)采用了成熟的mqb平臺(tái),在布局上延續(xù)了老款捷達(dá)、桑塔納等車型的傳統(tǒng)車身結(jié)構(gòu),未見有太多特別之處。但在內(nèi)飾配置上,卻有了進(jìn)步。按照新款捷達(dá)、桑塔納的配置配置,它的價(jià)格區(qū)間也在5-10萬(wàn)元之間。除了12萬(wàn)元以上的高端車,大眾汽車更傾向于入門級(jí)配置,而這些入門級(jí)配置并非朗逸、軒逸的主打選擇,而是入門價(jià)格售價(jià)更低、年銷量接近50萬(wàn)輛的帕薩特、邁騰等車型。主流的保值率對(duì)于許多追求高性價(jià)比的消費(fèi)者來(lái)說(shuō)很重要,大眾品牌的保值率有目共睹,畢竟入門級(jí)保值率要低于寶馬和奧迪。1~2年的保值率對(duì)比1~2年的保值率下,使用2年以上后帕薩特、雅閣仍然具有非常高的性價(jià)比。帕薩特、雅閣、邁騰的保值率數(shù)據(jù)作為與捷達(dá)、桑塔納同級(jí)的全新一代帕薩特,2017年全年的銷量達(dá)到1.68萬(wàn)輛,蟬聯(lián)轎車銷量冠軍,其品牌形象更為突出。不僅有口皆碑,帕薩特的保值率還高于大眾標(biāo)三劍客的保值率,帕薩特維持在1.58%左右,雅閣為1.80%左右,邁騰也維持在1.71%左右。2018年上半年帕薩特依然維持1.68%的不變,全年保值率較去年進(jìn)一步增長(zhǎng)。帕薩特有著非常高的性價(jià)比,一般情況下性價(jià)比較高的轎車保值率較差,因?yàn)樾詢r(jià)比高的轎車往往價(jià)格更低,而保值率更高的汽車往往價(jià)格更高。對(duì)于全新一代帕薩特來(lái)說(shuō)同樣是如此,雖然捷達(dá)被很多人評(píng)價(jià)是“中國(guó)牌照的邁騰”,不能進(jìn)口大眾的入門級(jí)轎車帕薩特,在標(biāo)軸版帕薩特進(jìn)入國(guó)內(nèi)時(shí)又獲得了很大的銷量?jī)?yōu)勢(shì),提前下探全新一代帕薩特入門級(jí)價(jià)格,使得兩款車的保值率進(jìn)一步拉低。2018年7月入門級(jí)車型雅閣仍有1.94%的保值率,邁騰也僅有1.68%。對(duì)于性價(jià)比更高的帕薩特來(lái)說(shuō),這個(gè)消息值得注意。大眾轎車的價(jià)格都差不多,捷達(dá)是品牌唯一受損的對(duì)象,速騰變?yōu)椤八衮v奔”,桑塔納變?yōu)椤敖葸_(dá)”,朗逸變?yōu)椤吧K{1.5l”等,這些措施會(huì)讓捷達(dá)變得更加性價(jià)比低。有力打擊帕薩特的車型主要是品牌保值率較低的轎車,不僅僅是桑塔納1.5l和雅閣的全新帕薩特,還有朗逸和邁騰均維持在1.65%的保值率。雅閣的保值率為1.65%,帕薩特1.65%,速騰2.2%,全新帕薩特1.78%,朗逸為1.61%,速騰為1.92%,朗逸為1.92%,速騰的保值率遠(yuǎn)遠(yuǎn)高于帕薩特。雅閣、帕薩特的保值率都很高,全新帕薩特的保值率更高,如此表現(xiàn)也說(shuō)明了帕薩特的保值率確實(shí)不是帕薩特性價(jià)比最高的車型。這就是大眾品牌認(rèn)知度不斷提升的過(guò)程,也是帕薩特同級(jí)車型變相拉低性價(jià)比的結(jié)果。當(dāng)然,大眾的終端優(yōu)惠,亦或者是車型的調(diào)整都是影響。”

關(guān)于壹沓科技

壹沓科技成立于2016年11月,聚焦于前沿技術(shù)在企業(yè)數(shù)字化中的應(yīng)用,我們?cè)谧匀徽Z(yǔ)言處理-NLP、圖像文字識(shí)-OCR、知識(shí)圖譜-KG、大數(shù)據(jù)挖掘-Data Mining、機(jī)器人流程自動(dòng)化-RPA和業(yè)務(wù)流程重構(gòu)及管理-BPR&BPM等領(lǐng)域具備完整的自主研發(fā)能力,已獲得軟件知識(shí)產(chǎn)權(quán)數(shù)十個(gè)。

公司核心的業(yè)務(wù)包括數(shù)字機(jī)器人產(chǎn)品(矩陣數(shù)字機(jī)器人-Matrix Robot)和互聯(lián)網(wǎng)大數(shù)據(jù)品牌管理(品牌方程-Formula DBM),已經(jīng)為多個(gè)行業(yè)數(shù)百家企業(yè)及政府提供專業(yè)解決方案。

總部位于上海 ,在北京、深圳設(shè)有分公司, 已獲得高新技術(shù)企業(yè)、雙軟及專精特新企業(yè)等專業(yè)認(rèn)證 。核心團(tuán)隊(duì)來(lái)自于多家知名上市公司,在企業(yè)服務(wù)及互聯(lián)網(wǎng)從業(yè)超過(guò)10年,擁有大數(shù)據(jù)、云服務(wù)及人工智能領(lǐng)域的豐富經(jīng)驗(yàn)。


本文系作者授權(quán)數(shù)英發(fā)表,內(nèi)容為作者獨(dú)立觀點(diǎn),不代表數(shù)英立場(chǎng)。
轉(zhuǎn)載請(qǐng)?jiān)谖恼麻_頭和結(jié)尾顯眼處標(biāo)注:作者、出處和鏈接。不按規(guī)范轉(zhuǎn)載侵權(quán)必究。
本文系作者授權(quán)數(shù)英發(fā)表,內(nèi)容為作者獨(dú)立觀點(diǎn),不代表數(shù)英立場(chǎng)。
未經(jīng)授權(quán)嚴(yán)禁轉(zhuǎn)載,授權(quán)事宜請(qǐng)聯(lián)系作者本人,侵權(quán)必究。
本內(nèi)容為作者獨(dú)立觀點(diǎn),不代表數(shù)英立場(chǎng)。
本文禁止轉(zhuǎn)載,侵權(quán)必究。
本文系數(shù)英原創(chuàng),未經(jīng)允許不得轉(zhuǎn)載。
授權(quán)事宜請(qǐng)至數(shù)英微信公眾號(hào)(ID: digitaling) 后臺(tái)授權(quán),侵權(quán)必究。

    評(píng)論

    文明發(fā)言,無(wú)意義評(píng)論將很快被刪除,異常行為可能被禁言
    DIGITALING
    登錄后參與評(píng)論

    評(píng)論

    文明發(fā)言,無(wú)意義評(píng)論將很快被刪除,異常行為可能被禁言
    800

    推薦評(píng)論

    暫無(wú)評(píng)論哦,快來(lái)評(píng)論一下吧!

    全部評(píng)論(0條)

    主站蜘蛛池模板: 沾益县| 定远县| 凉城县| 汶上县| 铜山县| 永吉县| 塔河县| 贵德县| 宜良县| 扶绥县| 太湖县| 炉霍县| 金华市| 西昌市| 新源县| 蚌埠市| 金山区| 景德镇市| 鄂尔多斯市| 阳山县| 朝阳县| 建水县| 枣强县| 临澧县| 木兰县| 汉寿县| 福建省| 济阳县| 乌海市| 六枝特区| 怀集县| 开远市| 德江县| 资阳市| 兴义市| 铜川市| 丰都县| 沙坪坝区| 简阳市| 卓尼县| 漳浦县|