色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華裔女博士提出:Facebook提出用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

人工智能與大數(shù)據(jù)技術(shù) ? 來源:新智元 ? 作者:新智元 ? 2021-04-26 09:45 ? 次閱讀

來源:Facebook

【導(dǎo)讀】Facebook的研究人員近日提出了一種用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架。這個新模型實現(xiàn)了準(zhǔn)確預(yù)測的結(jié)果,估計超參數(shù)的速度快了6到20倍。

近日,F(xiàn)acebook的研究人員提出了一種新的用于模型選擇(SSL-MS) 和超參數(shù)調(diào)整(SSL-HPT)的自監(jiān)督學(xué)習(xí)框架,該框架以較少的計算時間和資源提供準(zhǔn)確的預(yù)測。

與基于基線搜索的算法相比,SSL-HPT 算法估計超參數(shù)的速度快了6-20倍,同時在各種應(yīng)用中產(chǎn)生了比較準(zhǔn)確的預(yù)測結(jié)果。

SSL:估算超參數(shù)速度快6-20倍

在時間序列分析(用于發(fā)現(xiàn)趨勢或預(yù)測未來值)中,超參數(shù)的細(xì)微差別可能導(dǎo)致給定模型的非常不同的預(yù)測結(jié)果。

因此,選擇最優(yōu)的超參數(shù)值顯得尤為重要。

大多數(shù)現(xiàn)有的超參數(shù)調(diào)整方法,如網(wǎng)格搜索、隨機搜索和貝葉斯最優(yōu)搜索,都是基于一個關(guān)鍵組件: 搜索。

因此,它們計算代價非常昂貴,不能應(yīng)用于快速、可擴展的時間序列超參數(shù)調(diào)整。

研究人員提出的框架 SSL-HPT 使用時間序列特征作為輸入(不犧牲精確度的情況下),在較短的時間內(nèi)產(chǎn)生最佳的超參數(shù)。

那么,它們是如何工作的呢?

研究人員開發(fā)的自監(jiān)督學(xué)習(xí)框架在預(yù)測時的兩個主要任務(wù): SSL-MS 和 SSL-HPT。

SSL-MS: SSL-MS 的自我監(jiān)督學(xué)習(xí)框架包括三個步驟,如下所示:

1eef003a-a610-11eb-aece-12bb97331649.png

1 離線訓(xùn)練數(shù)據(jù)準(zhǔn)備: 獲得每個時間序列的時間序列特征和每個時間序列的最佳性能模型通過離線超參數(shù)調(diào)整。

2 離線訓(xùn)練: 利用步驟1中的數(shù)據(jù)訓(xùn)練分類器(自我監(jiān)督學(xué)習(xí)者) ,其中輸入特征(預(yù)測器)是時間序列特征,標(biāo)記是步驟1中性能最好的模型。

3 線模型預(yù)測: 在線服務(wù)中,對于新的時間序列數(shù)據(jù),提取特征,然后使用預(yù)先訓(xùn)練的分類器進(jìn)行推理,例如隨機森林模型。

SSL-MS 的工作流程可以自然地擴展到 SSL-HPT。

如下圖所示,給定一個模型,探索每個時間序列在預(yù)定義參數(shù)空間內(nèi)的所有超參數(shù)設(shè)置。

對于輸入 x,研究者在這里使用的時間序列特征與 SSL-MS 相同。

自監(jiān)督學(xué)習(xí)器一經(jīng)訓(xùn)練,就可以直接對超參數(shù)進(jìn)行預(yù)測,并針對任何新的時間序列數(shù)據(jù)產(chǎn)生預(yù)測結(jié)果。

1f1286c2-a610-11eb-aece-12bb97331649.png

最終,研究人員通過在內(nèi)部和外部數(shù)據(jù)集上對新型算法進(jìn)行了實證評估,并得到了相似的結(jié)論。

SSL 框架可以極大地提高模型選擇和超參數(shù)調(diào)整的效率,以可比的預(yù)測精度減少6-20倍的運行時間。

預(yù)測為什么重要?

預(yù)測是 Facebook 的核心數(shù)據(jù)科學(xué)和機器學(xué)習(xí)任務(wù)之一,因此提供快速、可靠、準(zhǔn)確的預(yù)測結(jié)果和大量的時間序列數(shù)據(jù)對自身的業(yè)務(wù)非常重要。

這個框架的應(yīng)用包括容量規(guī)劃和管理、需求預(yù)測、能源預(yù)測和異常檢測。

計算技術(shù)的迅速發(fā)展使企業(yè)能夠跟蹤大量的時間序列數(shù)據(jù)集。因此,定期預(yù)測數(shù)百萬個時間序列的需求正變得越來越普遍。

但是,要獲得大量時間序列的快速且準(zhǔn)確的預(yù)測仍然具有挑戰(zhàn)性。

Facebook新提出的 SSL 框架提供了一個高效的解決方案,以低計算成本和短運行時間提供高質(zhì)量的預(yù)測結(jié)果。

這種方法獨立于特定的預(yù)測模型和算法,因此享有單個預(yù)測技術(shù)的優(yōu)勢,例如 Prophet 模型的可解釋性。

初步分析表明, SSL框架可以擴展到模型推薦,并在Facebook內(nèi)部 AX 庫中增強貝葉斯優(yōu)化算法。

論文一作:普渡大學(xué)華人學(xué)者

這篇論文一作是普渡大學(xué)大學(xué)的研究員Peiyi Zhang。

Peiyi Zhang本科畢業(yè)于浙江大學(xué),并在康奈爾大學(xué)獲得了碩士學(xué)位,普渡大學(xué)獲得了博士學(xué)位。

去年6月,她還在Facebook進(jìn)行了兩個月的實習(xí)。

Peiyi Zhang曾獲得洛杉磯市數(shù)據(jù)分析項目榮譽獎、浙江大學(xué)學(xué)生科研訓(xùn)練計劃優(yōu)秀獎、大學(xué)生數(shù)學(xué)建模競賽優(yōu)秀獎。

Xiaodong Jiang是本片論文的第二作者,他目前在Facebook工作,擔(dān)任基礎(chǔ)設(shè)施研究數(shù)據(jù)科學(xué)家,開發(fā)通用時間序列分析工具。

他在佐治亞大學(xué)獲得了碩士和博士學(xué)位。

參考資料

https://ai.facebook.com/blog/large-scale-forecasting-self-supervised-learning-framework-for-hyper-parameter-tuning/

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SSL
    SSL
    +關(guān)注

    關(guān)注

    0

    文章

    125

    瀏覽量

    25737
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13179

原文標(biāo)題:華裔女博士生一作:Facebook提出用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    復(fù)旦提出大模型推理新思路:Two-Player架構(gòu)打破自我反思瓶頸

    更多的訓(xùn)練算力和數(shù)據(jù)資源,不如讓模型「花更多時間思考」。以 OpenAI 推出的 o1 模型為例,通過增加推理時間,這種方法讓模型能夠進(jìn)行反思、批評、回溯和糾正,大幅提升了推理表現(xiàn)。 ? 但問題在于,傳統(tǒng)的自我反思(Self-Reflection)和自我糾正(Self-C
    的頭像 發(fā)表于 12-06 11:24 ?152次閱讀
    復(fù)旦<b class='flag-5'>提出</b>大模型推理新思路:Two-Player架構(gòu)打破<b class='flag-5'>自我</b>反思瓶頸

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個
    的頭像 發(fā)表于 11-15 15:10 ?328次閱讀

    時空引導(dǎo)下的時間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?240次閱讀
    時空引導(dǎo)下的時間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b><b class='flag-5'>框架</b>

    哈爾濱工業(yè)大學(xué)在分辨顯微成像技術(shù)領(lǐng)域取得突破性進(jìn)展

    近日,哈爾濱工業(yè)大學(xué)儀器學(xué)院先進(jìn)光電成像技術(shù)研究室(IPIC)李浩宇教授團隊在生物醫(yī)學(xué)分辨顯微成像技術(shù)領(lǐng)域取得突破性進(jìn)展。針對目前活體細(xì)胞分辨成像領(lǐng)域中光子效率不足的難題,團隊提出一種基于無
    的頭像 發(fā)表于 09-27 06:33 ?220次閱讀
    哈爾濱工業(yè)大學(xué)在<b class='flag-5'>超</b>分辨顯微成像技術(shù)領(lǐng)域取得突破性進(jìn)展

    Linux操作系統(tǒng)運行參數(shù)自動調(diào)整技術(shù)

    Linux操作系統(tǒng)運行參數(shù)的自動調(diào)整是一個復(fù)雜而關(guān)鍵的技術(shù),它可以顯著提高系統(tǒng)性能、穩(wěn)定性和資源利用率。通過使用自適應(yīng)算法特別是內(nèi)核態(tài)的機器學(xué)習(xí)框架、性能監(jiān)控工具和配置管理工具,能夠在
    的頭像 發(fā)表于 08-22 09:53 ?301次閱讀
    Linux操作系統(tǒng)運行<b class='flag-5'>參數(shù)</b>自動<b class='flag-5'>調(diào)整</b>技術(shù)

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?591次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    講解,包括偏置、權(quán)重、激活函數(shù);三要素包括網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和優(yōu)化方法。章節(jié)最后總結(jié)了神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)的關(guān)鍵步驟。 1.4章節(jié)描述了自然語言處理的相關(guān)知識點,包括什么是自然語言處理、文本的向量化和自監(jiān)督學(xué)習(xí)
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用無監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方式對于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?775次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?676次閱讀

    谷歌提出大規(guī)模ICL方法

    谷歌DeepMind團隊近日取得了一項突破性的研究成果。他們提出了強化和無監(jiān)督兩種新型的ICL(In-Context Learning)學(xué)習(xí)方法,這一創(chuàng)新技術(shù)能夠在多個領(lǐng)域顯著提升模型的性能。
    的頭像 發(fā)表于 05-14 14:17 ?352次閱讀

    阿里達(dá)摩院提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達(dá)摩院(湖畔實驗室)攜手新加坡南洋理工大學(xué)等研究機構(gòu),共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構(gòu)知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答知識型問題時的準(zhǔn)確率,并顯著降低了所謂的“幻覺現(xiàn)象”。
    的頭像 發(fā)表于 05-10 11:46 ?688次閱讀

    機器學(xué)習(xí)8大調(diào)參技巧

    今天給大家一篇關(guān)于機器學(xué)習(xí)調(diào)參技巧的文章。參數(shù)調(diào)優(yōu)是機器學(xué)習(xí)例程中的基本步驟之一。該方法也稱為參數(shù)
    的頭像 發(fā)表于 03-23 08:26 ?612次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>8大調(diào)參技巧

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發(fā)的用于機器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個開源的機器學(xué)習(xí)
    的頭像 發(fā)表于 03-01 16:25 ?870次閱讀

    谷歌發(fā)布ASPIRE訓(xùn)練框架,提升AI選擇性預(yù)測能力

    框架分為三步驟:“特定任務(wù)調(diào)整”、“答案采樣”以及“自我評估學(xué)習(xí)”。首先,“特定任務(wù)調(diào)整”階段針對基本訓(xùn)練的大型語言模型進(jìn)一步深化訓(xùn)練,重
    的頭像 發(fā)表于 01-23 11:19 ?544次閱讀
    主站蜘蛛池模板: 免费视频精品38| 晓雪老师我要进你里面好爽| 亚洲人视频在线| 国产精品 日韩精品 欧美| 欧美国产成人在线| 在线观看成人3d动漫入口| 国产交换丝雨巅峰| 日韩精品欧美亚洲高清有无| 97超碰97资源在线观看| 久久AV亚洲精品一区无码网| 亚洲国产成人私人影院| 国产叼嘿久久精品久久| 善良的小峓子2在钱免费中文字| a4you销魂gogo人体| 免费视频亚洲| 97超级碰久久久久香蕉人人| 久久综合狠狠综合狠狠| 亚洲无码小格式| 九九热在线免费观看| 亚洲激情网站| 精品一品国产午夜福利视频| 亚洲精品一区二区在线看片| 国产亚洲精品久久久久久久软件 | 国产精品亚洲精品久久品| 色四房播播| 国产精品永久免费| 亚洲精品久久久久AV无码| 韩国hd高清xxx| 伊人网久久网| 美国xaxwaswaskino| 99热这里只有是精品| 日本久久久| 国产精品久久人妻无码蜜 | 毛片999| 99麻豆精品国产人妻无码 | 黑丝制服影院| 尤物国产在线精品三区| 榴莲推广APP网站入口下载安装| 在线观看免费视频a| 欧美一第一页草草影院| 国产精品日本欧美一区二区|