女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

跨語言命名實體識別:無監督多任務多教師蒸餾模型

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2022-07-21 11:12 ? 次閱讀

前言 這是一篇來自于 ACL 2022 的關于跨語言的 NER 蒸餾模型。主要的過程還是兩大塊:1)Teacher Model 的訓練;2)從 Teacher Model 蒸餾到 Student Model。采用了類似傳統的 Soft 蒸餾方式,其中利用了多任務的方式對 Teacher Model 進行訓練,一個任務是 NER 訓練的任務,另一個是計算句對的相似性任務。整體思路還是采用了序列標注的方法,也是一個不錯的 IDEA。

bbd5155e-0818-11ed-ba43-dac502259ad0.png

論文標題:

An Unsupervised Multiple-Task and Multiple-Teacher Model for Cross-lingual Named Entity Recognition

論文鏈接:

https://aclanthology.org/2022.acl-long.14.pdf

模型架構

2.1 Teacher Model

bc228672-0818-11ed-ba43-dac502259ad0.png

圖1.Teacher Model訓練架構 從上圖可以明顯的看出,Teacher Model 在進行訓練時,采用了兩種不同的 Labeled Data,一種是傳統的單文本序列標注數據;另一種是句對類型的序列標注數據,然后通過三個獨立的 Encoder 編碼器進行特征抽取,一個任務就是我們常用的 NER 訓練任務,也就是將 Encoder 編碼器的輸出經過一個線性層映射為標簽數的特征矩陣,對映射的特征矩陣進行 softmax 歸一化(這里筆者理解就是 NER 任務中的 BERT+Softmax 模型),利用歸一化后的特征矩陣與輸入的 labels 進行 loss 計算,這里采用的是 CrossEntropyLoss。需要明確具體的是作者采用了 Multilingual BERT(也就是 mBert)作為編碼器,計算公式如下:

bc4ad780-0818-11ed-ba43-dac502259ad0.png

首先利用 mBERT 提取輸入文本序列的特征 ,這里的 表示的是:

bc5d9802-0818-11ed-ba43-dac502259ad0.png

將計算得到的文本序列隱藏向量經過一個線性變換后進行 softmax 歸一化,計算如下:

bc79c93c-0818-11ed-ba43-dac502259ad0.png

以上就是 Teacher Model 的第一個任務,直接對標注序列進行 NER,并且采用交叉熵損失函數作為 loss_function,計算如下:

bc86e306-0818-11ed-ba43-dac502259ad0.png

另外一個任務輸入的為序列標注的句對數據,分別采用兩個獨立的Encoder編碼器進行編碼,得到的對應的 last_hidden_state,然后計算這兩個輸出的 cosine_similar,并且將其使用 進行激活,得到兩個序列的相似度向量,計算如下:

bc983bf6-0818-11ed-ba43-dac502259ad0.png

bca8edac-0818-11ed-ba43-dac502259ad0.png

這里也就是一個類似于 senetnce_similar 的操作,不同點在于這里計算的是序列中每個 Token 的相似度。通過對比句對序列標簽得到一個 ,這里 時表示 (預測正確),反正的話,。到了計算相似度時,損失函數的設計就是基于 的,計算公式如下:

bcb888b6-0818-11ed-ba43-dac502259ad0.png

這里的 是 BinaryCrossEntropy。這里的 是句對序列所對應的標簽通過比對得到的對比標簽序列,也就是對于兩個句子序列標簽

bcc89224-0818-11ed-ba43-dac502259ad0.png

來說,其生成的 ,通過這樣的損失設計就可以很直觀的理解 sim_loss 的計算了。 Tips:對于式(6)這里采用二元交叉熵(BCE)來計算 loss,筆者的理解是對輸入句對中的每個 Token 的相似度進行一個二分類,其最終目標是使得具有相同標簽的句對更加的靠近,也就是相似度更高。BCE 是用來評判一個二分類模型預測結果 的好壞程度的,通俗的講,即對于標簽 y 為 1 的情況,如果預測值 p(y) 趨近于 1,那么損失函數的值應當趨近于 0。反之,如果此時預測值 p(y) 趨近于 0,那么損失函數的值應當非常大,這非常符合 log 函數的性質。 Teacher Model 的設計總體上就是這樣的,通過兩個任務來增加 Teacher Model 的準確性和泛化性,對于實體識別來說,使用句對相似度的思想來拉近具有相同標簽的 Token,并且結合傳統的 NER 模型(mBERT+softmax)可以使得模型的學習更加有指向性,不單單靠一個序列標簽來指導模型學習,筆者任務這是一個不錯的思路。

2.2 Student Model Distilled

bce14f62-0818-11ed-ba43-dac502259ad0.png

圖2.Teacher Model--Student Model Distilled 上面筆者分析了 Teacher Model 的訓練,但這不是重點,筆者認為本篇文章在于作者在進行蒸餾時的想法是有亮點的。從蒸餾流程圖可以看出來,作者使用的 Student Model 也是一個雙塔 mBERT 模型作為編碼器,輸入的就是 Unlabeled Pairwise Data,其操作就是把 Teacher Model 的多任務直接進行統一,模型架構變化不大。蒸餾過程也是通用的蒸餾模式,Teacher Model 預測,Student Model 學習。 2.2.1 Teacher Model Inference Teacher Model 預測這一部分沒啥可說的,就是把無標簽的數據輸入到模型中,得到輸出的 ner_logits 和 similar_logits。這也是蒸餾模型的常規操作了,這里需要注意的是在使用 Teacher Model 進行預測時,輸入的數據是有講究的,筆者對于這里的理解有兩個:一個是是模型輸入的是句對數據,只不過從這個句對數據中抽取一條輸入到 Recognizer_teacher 中進行識別;另一個是作者采用了 BERT 模型的句對輸入方式,輸入的就是一個句對,只不過使用了 [SEP] 標簽進行分隔,具體是哪一種筆者也不知道,理解了的讀者可以告訴筆者一下。而且在 Teacher Model 訓練時,筆者也不知道采用哪種數據輸入方式。 2.2.2 Student Model Learning Student Model 這一部分輸入的就是 target 文本序列對,Student Model 的編碼器也是一個雙塔的 mBert 模型,分別對輸入的 target 序列進行進行編碼,這里也是進行一個 BERT+Softmax 的基本操作,在此期間也使用了序列 Token 相似度計算的操作,具體的計算如下所示:

bd015afa-0818-11ed-ba43-dac502259ad0.png

bd12941e-0818-11ed-ba43-dac502259ad0.png

獲得兩個序列的hidden_state后進行一個線性計算,然后利用softmax進行歸一化,得到每個Token預測的標簽,計算如下:

bd219aae-0818-11ed-ba43-dac502259ad0.png

bd336f22-0818-11ed-ba43-dac502259ad0.png

這里也類似 Teacher Model 的計算方式,計算 target 序列間的Token相似度,計算如下所示:

bd461eb0-0818-11ed-ba43-dac502259ad0.png

當然,這里做的是蒸餾模型,所以對于輸入到 Student Model 的序列對,也是Teacher Model Inference 預測模型的輸入,通過 Teacher Model 的預測計算得到一個 teacher_ner_logits 和 teacher_similar_logits,將 teacher_ner_logits 分別與 通過 CrossEntropyLoss 來計算 TS_ _Loss 和 TS_ _Loss,teacher_similar_logits 與 通過 計算 Similar_Loss,最終將幾個 loss 進行相加作為 DistilldeLoss。

這里作者還對每個 TS_ _Loss,TS_ _Loss 分別賦予了權重 ,對 Similar_Loss 賦予了權重 ,對最終的 DistilldeLoss 賦予權重 ,這樣的權重賦予能夠使得 Student Model 從 Teacher Model 學習到的噪聲減少。最終的 Loss 計算如下所示:

bd6865ec-0818-11ed-ba43-dac502259ad0.png

bd79f62c-0818-11ed-ba43-dac502259ad0.png

bd8fac4c-0818-11ed-ba43-dac502259ad0.png

bda48b62-0818-11ed-ba43-dac502259ad0.png

這里的權重 筆者認為是用來控制 Student Model 學習傾向的參數,首先對于 來說,由于 Student Model 輸入的是 Unlabeled 數據,所以在進行蒸餾學習時,需要盡可能使得 Student Model 的輸出的 student_ner_logits 來對齊 Teacher Model 預測輸出的 teacher_ner_logits,由于不知道輸入的無標簽數據的數據分布,所以設置一個權重參數來對整個 Teacher Model 的預測標簽進行加權,將各個無標簽的輸入序列看作一個數據量較少的類別。這里可以參考 在進行數據標簽不平衡時使用權重系數對各個標簽進行加權的操作。而且作者也分析了, 參數是一個隨著 Teacher Model 輸出而遞增的一個參數。如下圖所示:

bdbd9706-0818-11ed-ba43-dac502259ad0.png

圖3.α參數與Weight和F1 作者在文章中也給出了參數 的計算方式,具體而言就是跟 Student Model 的序列編碼有關,計算如下所示:

bdd398c6-0818-11ed-ba43-dac502259ad0.png

對于 參數而言,其加權的對象是 Similar_Loss,也就是對 Teacher Model 的相似度矩陣和Student Model 的相似度矩陣的交叉熵損失進行加權,參數的設置思路大致是當 Teacher Model 的 Similar_logits 接近 0 或 1 時, 參數就較大,接近 0.5 時就較小,其目的也是讓 Student Model 學習更有用的信息,而不是一些似是而非的東西。其計算方式如下所示:

bde85e6e-0818-11ed-ba43-dac502259ad0.png

最后對于參數 來說,其作用是用來調整 NER 任務和 Similarity 任務一致性的參數,對于兩個輸入的 Token,希望 Student Model 從 Teacher Model 的兩個任務中學習 Teacher Model 的 NER 任務的高預測準確率和 Similarity 任務遠離 0.5 相似度的 Token 信息,反之亦然。其計算方式如下 所示:

bdfe1646-0818-11ed-ba43-dac502259ad0.png

實驗結果

作者分別在 CoNLL 和 WiKiAnn 數據集上進行了實驗,數據使用量如下圖所示:

be1de02a-0818-11ed-ba43-dac502259ad0.png

圖4.CoNLL and WiKiAnn數據 作者還與現有的一些 SOTA 模型進行了對比,實驗對比結果如下所示:

be68ca86-0818-11ed-ba43-dac502259ad0.png

圖5.實驗對比結果 從實驗對比結果圖可以看出,MTMT 模型在各方面都有不錯的表現,對于中文上的表現稍微不如 BERT-f 模型,其他部分語言上有著大幅度的領先。

簡單代碼實現

#!/usr/bin/envpython
#-*-coding:utf-8-*-
#@Time:2022/5/3013:59
#@Author:SinGaln

"""
AnUnsupervisedMultiple-TaskandMultiple-TeacherModelforCross-lingualNamedEntityRecognition
"""

importtorch
importtorch.nnasnn
importtorch.nn.functionalasF
fromtransformersimportBertModel,BertPreTrainedModel,logging

logging.set_verbosity_error()


classTeacherNER(BertPreTrainedModel):
def__init__(self,config,num_labels):
"""
teacher模型是在標簽數據上訓練得到的,
主要分為三個encoder.
:paramconfig:
:paramnum_labels:
"""
super(TeacherNER,self).__init__(config)
self.config=config
self.num_labels=num_labels
self.mbert=BertModel(config=config)
self.fc=nn.Linear(config.hidden_size,num_labels)

defforward(self,batch_token_input_ids,batch_attention_mask,batch_token_type_ids,batch_labels,training=True,
batch_pair_input_ids=None,batch_pair_attention_mask=None,batch_pair_token_type_ids=None,
batch_t=None):
"""
:parambatch_token_input_ids:單句子token序列
:parambatch_attention_mask:單句子attention_mask
:parambatch_token_type_ids:單句子token_type_ids
:parambatch_pair_input_ids:句對token序列
:parambatch_pair_attention_mask:句對attention_mask
:parambatch_pair_token_type_ids:句對token_type_ids

"""
#RecognizerTeacher
single_output=self.mbert(input_ids=batch_token_input_ids,attention_mask=batch_attention_mask,
token_type_ids=batch_token_type_ids).last_hidden_state
single_output=F.softmax(self.fc(single_output),dim=-1)
#EvaluatorTeacher(類似雙塔模型)
pair_output1=self.mbert(input_ids=batch_pair_input_ids[0],attention_mask=batch_pair_attention_mask[0],
token_type_ids=batch_pair_token_type_ids[0]).last_hidden_state
pair_output2=self.mbert(input_ids=batch_pair_input_ids[1],attention_mask=batch_pair_attention_mask[1],
token_type_ids=batch_pair_token_type_ids[1]).last_hidden_state
pair_output=torch.sigmoid(torch.cosine_similarity(pair_output1,pair_output2,dim=-1))#計算兩個輸出的cosine相似度
iftraining:
#計算loss,訓練時采用平均loss作為模型最終的loss
loss1=F.cross_entropy(single_output.view(-1,self.num_labels),batch_labels.view(-1))
loss2=F.binary_cross_entropy(pair_output,batch_t.type(torch.float))
loss=loss1+loss2
returnsingle_output,loss
else:
returnsingle_output,pair_output


classStudentNER(BertPreTrainedModel):
def__init__(self,config,num_labels):
"""
student模型采用的也是一個雙塔結構
:paramconfig:mBert的配置文件
:paramnum_labels:標簽數量
"""
super(StudentNER,self).__init__(config)
self.config=config
self.num_labels=num_labels
self.mbert=BertModel(config=config)
self.fc1=nn.Linear(config.hidden_size,num_labels)
self.fc2=nn.Linear(config.hidden_size,num_labels)

defforward(self,batch_pair_input_ids,batch_pair_attention_mask,batch_pair_token_type_ids,batch_pair_labels,
teacher_logits,teacher_similar):
"""
:parambatch_pair_input_ids:句對token序列
:parambatch_pair_attention_mask:句對attention_mask
:parambatch_pair_token_type_ids:句對token_type_ids

"""
output1=self.mbert(input_ids=batch_pair_input_ids[0],attention_mask=batch_pair_attention_mask[0],
token_type_ids=batch_pair_token_type_ids[0]).last_hidden_state
output2=self.mbert(input_ids=batch_pair_input_ids[1],attention_mask=batch_pair_attention_mask[1],
token_type_ids=batch_pair_token_type_ids[1]).last_hidden_state
soft_output1,soft_output2=self.fc1(output1),self.fc2(output2)
soft_logits1,soft_logits2=F.softmax(soft_output1,dim=-1),F.softmax(soft_output2,dim=-1)
alpha1,alpha2=torch.square(torch.max(input=soft_logits1,dim=-1)[0]).mean(),torch.square(
torch.max(soft_logits2,dim=-1)[0]).mean()
output_similar=torch.sigmoid(torch.cosine_similarity(soft_output1,soft_output2,dim=-1))
soft_similar=torch.sigmoid(torch.cosine_similarity(soft_logits1,soft_logits2,dim=-1))
beta=torch.square(2*output_similar-1).mean()
gamma=1-torch.abs(soft_similar-output_similar).mean()
#計算蒸餾的loss
#teacherlogits與studentlogits1的loss
loss1=alpha1*(F.cross_entropy(soft_logits1,teacher_logits))
#teachersimilar與studentsimilar的loss
loss2=beta*(F.binary_cross_entropy(soft_similar,teacher_similar))
#teacherlogits與studentlogits2的loss
loss3=alpha2*(F.cross_entropy(soft_logits2,teacher_logits))
#finalloss
loss=gamma*(loss1+loss2+loss3).mean()
returnloss


if__name__=="__main__":
fromtransformersimportBertConfig

pretarin_path="./pytorch_mbert_model"

batch_pair1_input_ids=torch.randint(1,100,(2,128))
batch_pair1_attention_mask=torch.ones_like(batch_pair1_input_ids)
batch_pair1_token_type_ids=torch.zeros_like(batch_pair1_input_ids)
batch_labels1=torch.randint(1,10,(2,128))
batch_labels2=torch.randint(1,10,(2,128))
#t(對比兩個序列標簽,相同為1,不同為0)
batch_t=torch.as_tensor(batch_labels1.numpy()==batch_labels2.numpy()).float()

batch_pair2_input_ids=torch.randint(1,100,(2,128))
batch_pair2_attention_mask=torch.ones_like(batch_pair2_input_ids)
batch_pair2_token_type_ids=torch.zeros_like(batch_pair2_input_ids)

batch_all_input_ids,batch_all_attention_mask,batch_all_token_type_ids,batch_all_labels=[],[],[],[]
batch_all_labels.append(batch_labels1)
batch_all_labels.append(batch_labels2)
batch_all_input_ids.append(batch_pair1_input_ids)
batch_all_input_ids.append(batch_pair2_input_ids)
batch_all_attention_mask.append(batch_pair1_attention_mask)
batch_all_attention_mask.append(batch_pair2_attention_mask)
batch_all_token_type_ids.append(batch_pair1_token_type_ids)
batch_all_token_type_ids.append(batch_pair2_token_type_ids)

config=BertConfig.from_pretrained(pretarin_path)
#teacher模型訓練
teacher_model=TeacherNER.from_pretrained(pretarin_path,config=config,num_labels=10)
outputs,loss=teacher_model(batch_token_input_ids=batch_pair1_input_ids,
batch_attention_mask=batch_pair1_attention_mask,
batch_token_type_ids=batch_pair1_token_type_ids,batch_labels=batch_labels1,
batch_pair_input_ids=batch_all_input_ids,
batch_pair_attention_mask=batch_all_attention_mask,
batch_pair_token_type_ids=batch_all_token_type_ids,
training=True,batch_t=batch_t)
#student模型蒸餾
teacher_logits,teacher_similar=teacher_model(batch_token_input_ids=batch_pair1_input_ids,
batch_attention_mask=batch_pair1_attention_mask,
batch_token_type_ids=batch_pair1_token_type_ids,
batch_labels=batch_labels1,
batch_pair_input_ids=batch_all_input_ids,
batch_pair_attention_mask=batch_all_attention_mask,
batch_pair_token_type_ids=batch_all_token_type_ids,
training=False)

student_model=StudentNER.from_pretrained(pretarin_path,config=config,num_labels=10)
loss_all=student_model(batch_pair_input_ids=batch_all_input_ids,
batch_pair_attention_mask=batch_all_attention_mask,
batch_pair_token_type_ids=batch_all_token_type_ids,
batch_pair_labels=batch_all_labels,teacher_logits=teacher_logits,
teacher_similar=teacher_similar)
print(loss_all)

筆者自己實現的一部分代碼,可能不是原論文作者想表達的意思,讀者有疑問的話可以一起討論一下^~^。


審核編輯 :李倩


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3785

    瀏覽量

    137512
  • 模型
    +關注

    關注

    1

    文章

    3501

    瀏覽量

    50161
  • 標簽
    +關注

    關注

    0

    文章

    146

    瀏覽量

    18207

原文標題:ACL2022 | 跨語言命名實體識別:無監督多任務多教師蒸餾模型

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    自然語言基礎技術之命名實體識別相對全面的介紹

    早期的命名實體識別方法基本都是基于規則的。之后由于基于大規模的語料庫的統計方法在自然語言處理各個方面取得不錯的效果之后,一大批機器學習的方法也出現在命名實體
    的頭像 發表于 04-17 10:12 ?5182次閱讀
    自然<b class='flag-5'>語言</b>基礎技術之<b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>相對全面的介紹

    HanLP分詞命名實體提取詳解

    可能詞) 5.極速詞典分詞(速度快,精度一般) 6.用戶自定義詞典 7.標準分詞(HMM-Viterbi) 命名實體識別 1.實體機構名識別(層疊HMM-Viterbi) 2.中國人名
    發表于 01-11 14:32

    基于結構化感知機的詞性標注與命名實體識別框架

    `上周就關于《結構化感知機標注框架的內容》已經分享了一篇《分詞工具Hanlp基于感知機的中文分詞框架》,本篇接上一篇內容,繼續分享詞性標注與命名實體識別框架的內容。詞性標注訓練詞性標注是分詞后緊接著
    發表于 04-08 14:57

    HanLP-命名實體識別總結

    的中國人名自動識別研究》,大家可以百度一下看看 地名識別 理論指導文章為:《基于層疊隱馬爾可夫模型的中文命名實體識別》 機構名
    發表于 07-31 13:11

    基于神經網絡結構在命名實體識別中應用的分析與總結

    近年來,基于神經網絡的深度學習方法在自然語言處理領域已經取得了不少進展。作為NLP領域的基礎任務命名實體識別(Named Entity Recognition,NER)也不例外,神經
    的頭像 發表于 01-18 09:24 ?4837次閱讀
    基于神經網絡結構在<b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>中應用的分析與總結

    深度學習:四種利用少量標注數據進行命名實體識別的方法

    整理介紹四種利用少量標注數據進行命名實體識別的方法。 面向少量標注數據的NER方法分類 基于規則、統計機器學習和深度學習的方法在通用語料上能取得良好的效果,但在特定領域、小語種等缺乏標注資源的情況下,NER 任務往往得
    的頭像 發表于 01-03 09:35 ?1.1w次閱讀
    深度學習:四種利用少量標注數據進行<b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>的方法

    思必馳中文命名實體識別任務助力AI落地應用

    驗階段走向實用化。近期,思必馳語言與知識團隊對中文細粒度命名實體識別任務進行探索,并取得階段性進展:在CLUE數據集Fine-Grain NER評測
    的頭像 發表于 02-22 18:27 ?2131次閱讀

    新型中文旅游文本命名實體識別設計方案

    傳統基于詞向量表示的命名實體識別方法通常忽略了字符語義信息、字符間的位置信息,以及字符和單詞的關聯關系。提出一種基于單詞字符引導注意力網絡( WCGAN)的中文旅游命名實體識別方法,利
    發表于 03-11 11:26 ?24次下載
    新型中文旅游文本<b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>設計方案

    知識圖譜與訓練模型相結合和命名實體識別的研究工作

    本次將分享ICLR2021中的三篇投遞文章,涉及知識圖譜與訓練模型相結合和命名實體識別(NER)的研究工作。 文章概覽 知識圖譜和語言理解的聯合預訓練(JAKET: Joint
    的頭像 發表于 03-29 17:06 ?4708次閱讀
    知識圖譜與訓練<b class='flag-5'>模型</b>相結合和<b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>的研究工作

    命名實體識別的遷移學習相關研究分析

    命名實體識別(NER)是自然語言處理的核心應用任務之一。傳統和深度命名實體識別方法嚴重依賴于大量
    發表于 04-02 15:15 ?8次下載
    <b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>的遷移學習相關研究分析

    基于字語言模型的中文命名實體識別系統

    造成的數據稀缺問題,以及傳統字向量不能解決的一字多義問題,文中使用在大規模監督數據上預訓練的基于上下文相關的字向量,即利用語言模型生成上下文相關字向量以改進中文NER
    發表于 04-08 14:36 ?14次下載
    基于字<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的中文<b class='flag-5'>命名實體</b><b class='flag-5'>識別</b>系統

    基于神經網絡的中文命名實體識別方法

    在基于神經網絡的中文命名實體識別過程中,字的向量化表示是重要步驟,而傳統的詞向量表示方法只是將字映射為單一向量,無法表征字的多義性。針對該問題,通過嵌入BERT預訓練語言模型,構建BE
    發表于 06-03 11:30 ?3次下載

    關于邊界檢測增強的中文命名實體識別

    引言 命名實體識別(Named Entity Recognition,NER)是自然語言處理領域的一個基礎任務,是信息抽取等許多任務的子
    的頭像 發表于 09-22 16:05 ?3433次閱讀

    基于序列標注的實體識別所存在的問題

    實體識別通常被當作序列標注任務來做,序列標注模型需要對實體邊界和實體類別進行預測,從而
    的頭像 發表于 07-28 11:08 ?2108次閱讀

    什么是嵌套實體識別

    嵌套命名實體識別命名實體識別中的一個頗具挑戰的子問題。我們在《實體識別LEAR論文閱讀筆記》與
    的頭像 發表于 09-30 15:19 ?2173次閱讀
    主站蜘蛛池模板: 手游| 渭源县| 原平市| 文登市| 虎林市| 巴林左旗| 贡嘎县| 郑州市| 汉中市| 习水县| 临夏县| 龙川县| 湘潭市| 湖口县| 霍山县| 岳阳县| 闽侯县| 南皮县| 广东省| 栖霞市| 巴彦县| 门源| 桐庐县| 阿拉善盟| 定兴县| 墨脱县| 伊宁市| 泾阳县| 赤壁市| 大洼县| 玛沁县| 河源市| 敦化市| 延寿县| 息烽县| 蚌埠市| 扬中市| 甘泉县| 晋城| 乡城县| 新巴尔虎左旗|