Paraphrase Thought:Sentence Embedding Module Imitating Human Language Recognition
句子嵌入式NLP領(lǐng)域的重要話題,不同的句子嵌入模型在文本情感分析、句子分類等任務(wù)中都有很好的標(biāo)簽。但是由于文本分類或情感分析可以通過簡單的句子表示方法提高,所以這些模型不能完全反映句意。這篇論文受人類語言認(rèn)知的啟發(fā),作者提出了一種語義一致性的概念,即相似的句子應(yīng)該在嵌入空間中位于相近的位置。并提出了名為Paraphrase Thought的概念,盡可能地追求語義的連貫。
地址:https://arxiv.org/abs/1808.05505
2
Deeper Image Quality Transfer:Training Low-Memory Neural Networks for 3D Images
深度學(xué)習(xí)在處理3D、高分辨率、多通道的醫(yī)學(xué)影像時常需要大量內(nèi)存。這篇論文的作者使用高效的內(nèi)存反向傳播技術(shù),減少了神經(jīng)網(wǎng)絡(luò)訓(xùn)練時的內(nèi)存復(fù)雜性,與之前相比提高了內(nèi)存,將均方根誤差減少了13%。
地址:https://arxiv.org/abs/1808.05577
3
Combining time-series and textual data for taxi demand prediction in event areas:a deep learning approach
精準(zhǔn)的時間序列預(yù)告對交通、能源、金融、經(jīng)濟(jì)等領(lǐng)域都非常重要。但是現(xiàn)代技術(shù)都是通過時間數(shù)據(jù)來建立預(yù)測模型,通常忽略了非結(jié)構(gòu)化文本之下有價值的信息。本篇論文的作者提出了兩種深度學(xué)習(xí)架構(gòu),利用詞嵌入、卷積層和注意力機(jī)制結(jié)合了文本信息和時序數(shù)據(jù)。并將這兩種架構(gòu)用在紐約的出租車需求預(yù)測上,結(jié)果發(fā)現(xiàn)模型能有效減少錯誤的預(yù)報。
-
嵌入式
+關(guān)注
關(guān)注
5086文章
19140瀏覽量
305896 -
nlp
+關(guān)注
關(guān)注
1文章
489瀏覽量
22052 -
語言識別
+關(guān)注
關(guān)注
0文章
15瀏覽量
4836
原文標(biāo)題:每日論文 | UCL提出更省內(nèi)存的圖像遷移訓(xùn)練;結(jié)合時序數(shù)據(jù)和文本信息精準(zhǔn)預(yù)測;模擬人類語言讓語義更連貫
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論