色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NLP類別不均衡問題之loss合集

jf_78858299 ? 來源:PaperWeekly ? 作者:眼睛里進磚頭了 ? 2023-02-23 14:10 ? 次閱讀

NLP 任務中,數據類別不均衡問題應該是一個極常見又頭疼的的問題了。最近在工作中也是碰到這個問題,花了些時間梳理并實踐了下類別不均衡問題的解決方式,主要實踐了下“魔改”loss(focal loss, GHM loss, dice loss 等),整理了下。所有的 Loss 實踐代碼在這里:

https://github.com/shuxinyin/NLP-Loss-Pytorch

數據不均衡問題也可以說是一個長尾問題,但長尾那部分數據往往是重要且不能被忽略的,它不僅僅是分類標簽下樣本數量的不平衡,實質上也是 難易樣本的不平衡

解決不均衡問題一般從兩方面入手:

  1. 數據層面:重采樣,使得參與迭代計算的數據是均衡的;
  2. 模型層面:重加權,修改模型的 loss,在 loss 計算上,加大對少樣本的 loss 獎勵。

數據層面的重采樣

關于數據層面的重采樣,方式都是通過采樣,重新構造數據分布,使得數據平衡。一般常用的有三種:1)欠采樣;2)過采樣;3)SMOTE

  1. 欠采樣:指某類別下數據較多,則只采取部分數據,直接拋棄一些數據,這種方式太簡單粗暴,擬合出來的模型的偏差大,泛化性能較差;
  2. 過采樣:這種方式與欠采樣相反,某類別下數據較少,進行重復采樣,達到數據平衡。因為這些少的數據反復迭代計算,會使得模型產生過擬合的現象。
  3. SMOTE:一種近鄰插值,可以降低過擬合風險,但它是適用于回歸預測場景下,而 NLP 任務一般是離散的情況。

這幾種方法單獨使用會或多或少造成數據的浪費或重,一般會與 ensemble 方式結合使用,sample 多份數據,訓練出多個模型,最后綜合。

但以上幾種方式在工程實踐中往往是少用的,一是因為數真實據珍貴,二也是 ensemble 的方式部署中資源消耗大,沒法接受。因此,就集中看下重加權 loss 改進的部分。

模型層面的重加權

重加權主要指的是在 loss 計算階段,通過設計 loss,調整類別的權值對 loss 的貢獻。比較經典的 loss 改進應該是 Focal Loss, GHM Loss, Dice Loss。

2.1 Focal Loss

Focal Loss 是一種解決不平衡問題的經典 loss,基本思想就是把注意力集中于那些預測不準的樣本上。

何為預測不準的樣本?比如正樣本的預測值小于 0.5 的,或者負樣本的預測值大于 0.5 的樣本。再簡單點,就是當正樣本預測值>0.5 時,在計算該樣本的 loss 時,給它一個小的權值,反之,正樣本預測值<0.5 時,給它一個大的權值。同理,對負樣本時也是如此。

以二分類為例,一般采用交叉熵作為模型損失。

圖片

其中 是真實標簽, 是預測值,在此基礎又出來了一個權重交叉熵,即用一個超參去緩解上述這種影響,也就是下式。

圖片

接下來,看下 Focal Loss 是怎么做到集中關注預測不準的樣本?

在交叉熵 loss 基礎上,當正樣本預測值 大于 0.5 時,需要給它的 loss 一個小的權重值 ,使其對總 loss 影響小,反之正樣本預測值 小于 0.5,給它的 loss 一個大的權重值。為滿足以上要求,則 增大時, 應減小,故剛好 可滿足上述要求。

應此加上注意參數 ,得到 Focal Loss 的二分類情況:

圖片

加上調節系數 ,Focal Loss 推廣到多分類的情況:

圖片

其中 為第 t 類預測值,,試驗中效果最佳時,。

代碼的實現也是比較簡潔的。

def __init__(self, num_class, alpha=None, gamma=2, reduction='mean'):
    super(MultiFocalLoss, self).__init__()
    self.gamma = gamma
    ......

    def forward(self, logit, target):
        alpha = self.alpha.to(logit.device)
        prob = F.softmax(logit, dim=1)

        ori_shp = target.shape
        target = target.view(-1, 1)

        prob = prob.gather(1, target).view(-1) + self.smooth  # avoid nan
        logpt = torch.log(prob)

        alpha_weight = alpha[target.squeeze().long()]
        loss = -alpha_weight * torch.pow(torch.sub(1.0, prob), self.gamma) * logpt

        if self.reduction == 'mean':
            loss = loss.mean()

        return loss

2.2 GHM Loss

上面的 Focal Loss 注重了對 hard example 的學習,但不是所有的 hard example 都值得關注,有一些 hard example 很可能是離群點,這種離群點當然是不應該讓模型關注的。

GHM (gradient harmonizing mechanism) 是一種梯度調和機制,GHM Loss 的改進思想有兩點:1)就是在使模型繼續保持對 hard example 關注的基礎上,使模型不去關注這些離群樣本;2)另外 Focal Loss 中, 的值分別由實驗經驗得出,而一般情況下超參 是互相影響的,應當共同進行實驗得到。

Focal Loss 中通過調節置信度 ,當正樣本中模型的預測值 較小時,則乘上(1-p),給一個大的 loss 值使得模型關注這種樣本。 **于是 GHM Loss 在此基礎上,規定了一個置信度范圍 ** **,具體一點,就是當正樣本中模型的預測值為 **** 較小時,要看這個 ** ** 多小,若是 ** ,這種樣本可能就是離群點,就不注意它了。

于是 GHM Loss 首先規定了一個梯度模長

圖片

其中, 是模型預測概率值, 是 ground-truth 的標簽值,這里以二分類為例,取值為 0 或 1。可發現,** 表示檢測的難易程度, 越大則檢測難度越大。**

GHM Loss 的思想是,不要關注那些容易學的樣本,也不要關注那些離群點特別難分的樣本。所以問題就轉為我們需要尋找一個變量去衡量這個樣本是不是這兩種, 這個變量需滿足當 值大時,它要小,從而進行抑制,當 值小時,它也要小,進行抑制。 于是文中就引入了梯度密度:

表明了樣本 1~N 中,梯度模長分布在 范圍內的樣本個數, 代表了 區間的長度,因此梯度密度 GD(g) 的物理含義是:單位梯度模長 部分的樣本個數。

在此基礎上,還需要一個前提,那就是處于 值小與大的樣本(也就是易分樣本與難分樣本)的數量遠多于中間值樣本,此時 GD 才可以滿足上述變量的要求。

圖片

此時,對于每個樣本,把交叉熵 CE×該樣本梯度密度的倒數,就得到 GHM Loss。

圖片

這里附上邏輯的代碼,完整的可以上文章首尾倉庫查看。

class GHM_Loss(nn.Module):
    def __init__(self, bins, alpha):
        super(GHM_Loss, self).__init__()
        self._bins = bins
        self._alpha = alpha
        self._last_bin_count = None

    def _g2bin(self, g):
        # split to n bins
        return torch.floor(g * (self._bins - 0.0001)).long()


    def forward(self, x, target):
        # compute value g
        g = torch.abs(self._custom_loss_grad(x, target)).detach()

        bin_idx = self._g2bin(g)

        bin_count = torch.zeros((self._bins))
        for i in range(self._bins):
            # 計算落入bins的梯度模長數量
            bin_count[i] = (bin_idx == i).sum().item()

        N = (x.size(0) * x.size(1))

        if self._last_bin_count is None:
            self._last_bin_count = bin_count
        else:
            bin_count = self._alpha * self._last_bin_count + (1 - self._alpha) * bin_count
            self._last_bin_count = bin_count

        nonempty_bins = (bin_count > 0).sum().item()

        gd = bin_count * nonempty_bins
        gd = torch.clamp(gd, min=0.0001)
        beta = N / gd  # 計算好樣本的gd值

        # 借由binary_cross_entropy_with_logits,gd值當作參數傳入
        return F.binary_cross_entropy_with_logits(x, target, weight=beta[bin_idx])

2.3 Dice Loss & DSC Loss

Dice Loss 是來自文章 V-Net 提出的,DSC Loss 是香儂科技的 Dice Loss for Data-imbalanced NLP Tasks。

按照上面的邏輯,看一下 Dice Loss 是怎么演變過來的。Dice Loss 主要來自于 dice coefficient,dice coefficient 是一種用于評估兩個樣本的相似性的度量函數。

定義是這樣的:取值范圍在 0 到 1 之間,值越大表示越相似。若令 X 是所有模型預測為正的樣本的集合,Y 為所有實際上為正類的樣本集合,dice coefficient 可重寫為:

圖片

同時,結合 F1 的指標計算公式推一下,可得:

圖片

可以動手推一下,就能得到 dice coefficient 是等同 F1 score 的,**因此本質上 dice loss 是直接優化 F1 指標的。 **

上述表達式是離散的,需要把上述 DSC 表達式轉化為連續的版本,需要進行軟化處理。對單個樣本 x,可以直接定義它的 DSC:

圖片

但是當樣本為負樣本時,y1=0,loss 就為 0 了,需要加一個平滑項。

圖片

上面有說到 dice coefficient 是一種兩個樣本的相似性的度量函數,上式中,假設正樣本 p 越大,dice 值越大,說明模型預測的越準,則應該 loss 值越小,因此 dice loss 的就變成了下式這也就是最終 dice loss 的樣子。

圖片

為了能得到 focal loss 同樣的功能,讓 dice loss 集中關注預測不準的樣本,可以與 focal loss 一樣加上一個調節系數 ,就得到了香儂提出的適用于 NLP 任務的自調節 DSC-Loss。

圖片

弄明白了原理,看下代碼的實現。

class DSCLoss(torch.nn.Module):

    def __init__(self, alpha: float = 1.0, smooth: float = 1.0, reduction: str = "mean"):
        super().__init__()
        self.alpha = alpha
        self.smooth = smooth
        self.reduction = reduction

    def forward(self, logits, targets):
        probs = torch.softmax(logits, dim=1)
        probs = torch.gather(probs, dim=1, index=targets.unsqueeze(1))

        probs_with_factor = ((1 - probs) ** self.alpha) * probs
        loss = 1 - (2 * probs_with_factor + self.smooth) / (probs_with_factor + 1 + self.smooth)

        if self.reduction == "mean":
            return loss.mean()

總結

本文主要討論了類別不均衡問題的解決辦法,可分為數據層面的重采樣及模型 loss 方面的改進,如 focal loss, dice loss 等。最后說一下實踐下來的經驗,由于不同數據集的數據分布特點各有不同,dice loss 以及 GHM loss 會出現些抖動、不穩定的情況。當不想挨個實踐的時候,首推 focal loss,dice loss。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7002

    瀏覽量

    88943
  • 代碼
    +關注

    關注

    30

    文章

    4779

    瀏覽量

    68525
  • nlp
    nlp
    +關注

    關注

    1

    文章

    488

    瀏覽量

    22033
收藏 人收藏

    評論

    相關推薦

    詳細介紹數據均衡的方法以及運用的不同場景

    對于整個數據建模來看,數據均衡算法屬于數據預處理一環。當整個數據集從調出數據庫到拿到手的時候,對于分類數據集來說類別一般都是不均衡的,整個數據集合也是較為離散的。因此不可能一拿到數據集就可進行建模,
    的頭像 發表于 07-20 09:44 ?5898次閱讀

    NLP的tfidf作詞向量

    NLPtfidf作詞向量
    發表于 06-01 17:28

    Return Loss Headromm

    Return Loss Headromm return loss is related to the impedance of a cable.To understand return loss we must first d
    發表于 03-31 09:57 ?15次下載

    調音臺信號處理設備均衡器和激勵器詳解

    調音臺信號處理設備均衡器和激勵器詳解 均衡器和
    發表于 04-19 15:07 ?4975次閱讀

    基于差異度的不均衡電信客戶數據分類方法

    針對傳統分類技術對不均衡電信客戶數據集中流失客戶識別能力不足的問題,提出一種基于差異度的改進型不均衡數據分類(IDBC)算法。該算法在基于差異度分類(DBC)算法的基礎上改進了原型選擇策略。在原型
    發表于 12-04 16:36 ?0次下載

    不均衡數據集上基于子域學習的復合分類模型

    為進一步弱化數據不均衡對分類算法的束縛,從數據集區域分布特性著手,提出了不均衡數據集上基于子域學習的復合分類模型。子域劃分階段,擴展支持向量數據描述( SVDD)算法給出類的最小界定域,劃分
    發表于 12-12 15:28 ?0次下載

    基于不均衡的加權在線貫序極限學習機

    針對現有學習算法難以有效提高不均衡在線貫序數據中少類樣本分類精度的問題,提出一種基于不均衡樣本重構的加權在線貫序極限學習機。該算法從提取在線貫序數據的分布特性入手,主要包括離線和在線兩個階段:離線
    發表于 01-09 16:44 ?0次下載

    比亞迪在新能源市場不斷領先,但不同能源車型發展不均衡問題不可忽視

    毋庸置疑,目前比亞迪在新能源市場獲得領先以及突破,但是如何改變新能源產銷的過度依賴,解決不同能源車型不均衡性的發展也考驗著比亞迪。
    發表于 09-02 09:33 ?1555次閱讀

    基于目前TDD網絡高負荷及FD不均衡現狀分析

    FD功率功率設置不一致,導致不同小區覆蓋差異,功率大,覆蓋遠的小區吸收用戶多,導致FD同覆蓋小去不均衡。在處理這類問題中首要是功率拉齊。一般同覆蓋情況下要求D比F功率可適當高1-3DB。同時對新擴容共設備小區需功率拉齊。
    發表于 12-25 10:13 ?4166次閱讀
    基于目前TDD網絡高負荷及FD<b class='flag-5'>不均衡</b>現狀分析

    基于不均衡醫學數據集的疾病預測模型

    基于不均衡醫學數據集的疾病預測模型
    發表于 06-15 14:15 ?9次下載

    一種新的不均衡關聯分類算法ACI

    基于規則的分類算法具有分類性能妤、可解釋性強的優點,得到了廣泛的應用。然而已有的基于規則的分類算法沒有考慮不均衡數據的情況,從而影響了其對不均衡數據的分類效果。文中提出了一種新的不均衡關聯分類算法
    發表于 06-17 15:27 ?16次下載

    數據類別不均衡問題的分類及解決方式

      數據類別不均衡問題應該是一個極常見又頭疼的的問題了。最近在工作中也是碰到這個問題,花了些時間梳理并實踐了類別不均衡問題的解決方式,主要實踐了“魔改”
    的頭像 發表于 07-08 14:51 ?3689次閱讀

    Loss計算詳細解析

    分類損失(cls_loss):該損失用于判斷模型是否能夠準確地識別出圖像中的對象,并將其分類到正確的類別中。
    的頭像 發表于 01-13 14:38 ?3420次閱讀
    <b class='flag-5'>Loss</b>計算詳細解析

    NLP類別不均衡問題loss大集合

      NLP 任務中,數據類別不均衡問題應該是一個極常見又頭疼的的問題了。最近在工作中也是碰到這個問題,花了些時間梳理并實踐了下類別不均衡問題
    的頭像 發表于 01-31 16:52 ?823次閱讀

    讓充電更高效:便攜式鋰電池均衡維護儀的智能

    隨著電動汽車和可穿戴設備的普及,鋰電池成為了現代生活的重要組成部分。但隨之而來的問題是,鋰電池在使用過程中會出現充放電不均衡的現象,影響其性能和使用壽命。要解決這個問題,便攜式鋰電池均衡維護儀
    的頭像 發表于 07-06 09:58 ?8027次閱讀
    讓充電更高效:便攜式鋰電池<b class='flag-5'>均衡</b>維護儀的智能<b class='flag-5'>之</b>選
    主站蜘蛛池模板: 高hbl双性浪荡古代| 朝鲜美女bbwbbw撒尿| 亚洲AV天堂无码麻豆电影| 性美国人xxxxx18| 女教师二十三歳| 久久er国产精品免费观看2| 俄罗斯摘花| 97人人超碰国产精品最新蜜芽| 亚洲免费视频观看| xxxx69日本| 曰产无码久久久久久精品| 久久成人免费观看草草影院| 国产精品久久久久久久伊一 | 欧美性色生活片天天看99顶级| 国内精品久久久久久久999下| 成人国内精品久久久久影院| 亚洲热在线视频| 甜性涩爱下载| 欧美乱码伦视频免费66网 | 亚洲1卡二卡3卡4卡新区在线| 邻家美姨在线观看全集免费| 精品日韩视频| 国产免费网站看v片在线| 99精品免费久久久久久久久日本 | 我要搞av| 无码专区aaaaaa免费视频| 人妻中文字幕无码久久AV爆| 暖暖视频免费观看高清完整版 | 久久伊人青青| 欧美国产在线一区| 色欲AV人妻精品麻豆AV| 先锋影音av最新资源| 伊人久久影院| 扒开黑女人p大荫蒂老女人 | 久久久久久久久性潮| 前后灌满白浆护士| 亚洲 综合 自拍 精品 在线| 中国午夜伦理片| 国产99对白在线播放| 精品综合久久久久久8888| 免费观看的毛片|