女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何顯著提升Vision Transformer的訓(xùn)練效率

深度學(xué)習(xí)自然語言處理 ? 來源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-05-24 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期MetaAI發(fā)布了一篇博客,關(guān)于如何顯著提升Vision Transformer的訓(xùn)練效率。

原文:[Significantly faster Vision Transformer training]

鏈接:https://ai.facebook.com/blog/significantly-faster-vision-transformer-training

What the research is

Vision Transformer模型幾乎火遍計(jì)算機(jī)視覺各個(gè)領(lǐng)域,其性能隨著參數(shù)增加和更久的訓(xùn)練過程而得到提升。隨著模型越來越大,超過了萬億次浮點(diǎn)運(yùn)算的規(guī)模,該領(lǐng)域達(dá)到了瓶頸:訓(xùn)練一個(gè)模型往往要一個(gè)月,需要幾百上千個(gè)GPU,導(dǎo)致大部分人無法接觸到大規(guī)模ViT模型,并進(jìn)而增加了對(duì)加速器的需求。

為了降低門檻,讓更多人能夠應(yīng)用ViT,我們開發(fā)一系列方法來加速整個(gè)訓(xùn)練。我們基于MetaAI的圖像分類模型庫PyCls實(shí)現(xiàn)了一系列優(yōu)化,這些優(yōu)化極大的提升了模型訓(xùn)練過程的吞吐量:

d3d58a30-da96-11ec-ba43-dac502259ad0.png

How it works ?

我們首先對(duì)代碼庫進(jìn)行分析,以定位訓(xùn)練效率低下的原因,最后關(guān)注點(diǎn)落在計(jì)算類型上:大部分模型都是用FP32進(jìn)行訓(xùn)練,如果使用FP16訓(xùn)練的話,可以降低顯存占用,并提高模型訓(xùn)練速度,但這一做法經(jīng)常會(huì)導(dǎo)致準(zhǔn)確率下降

所以我們選了一個(gè)折中的方法:自動(dòng)混合精度。在該方法下,我們用half類型進(jìn)行計(jì)算,以加快訓(xùn)練,減少顯存使用。并以fp32類型存儲(chǔ)參數(shù),以保證模型準(zhǔn)確率。其中我們沒有手動(dòng)將網(wǎng)絡(luò)各部分轉(zhuǎn)換成half類型,而是應(yīng)用AMP各種模式(如O1, O2, O3),以尋找一個(gè)既能提升速度又不影響精度的平衡點(diǎn)。

FSDP

為了讓訓(xùn)練更加高效,我們應(yīng)用了FSDP訓(xùn)練策略,他能夠?qū)?shù),梯度,優(yōu)化器狀態(tài)分片到各GPU上。在FSDP的幫助下,我們可以用更少的GPU資源構(gòu)建更大的模型。

FSDP策略可以參考 [數(shù)據(jù)并行Deep-dive: 從DP 到 Fully Sharded Data Parallel (FSDP)完全分片數(shù)據(jù)并行] 鏈接:https://zhuanlan.zhihu.com/p/485208899

MTA Optimizer

前向計(jì)算完畢后,優(yōu)化器需要對(duì)各個(gè)參數(shù)進(jìn)行修改。而當(dāng)參數(shù)比較多的情況下,對(duì)應(yīng)啟動(dòng)的Optimizer Kernel就會(huì)變得很多,通常這些Kernel都比較小,計(jì)算負(fù)擔(dān)不大,啟動(dòng)Kernel的開銷反而占了大頭。

ContiguousParams中,它將模型參數(shù)放置到一塊連續(xù)的顯存中進(jìn)行計(jì)算,這樣就能減少優(yōu)化器這部分的時(shí)間。下圖是Resnet50+SGD是否應(yīng)用ContiguousParams的比較,可以看到OptimizerStep這部分時(shí)間顯著減少了。

d4089a74-da96-11ec-ba43-dac502259ad0.png

而NVIDIA的Apex庫的做法則是在底層重新實(shí)現(xiàn)了一系列MultiTensorOptimizer,如Adam, Adagrad等等。

Apex這種方法比較硬核,普通用戶如果想要自己自定義優(yōu)化器并應(yīng)用Multi Tensor的優(yōu)化,就必須改動(dòng)底層CUDA代碼。而最近PyTorch也在計(jì)劃提供了一系列foreach接口[Replace optimizers in torch.optim with the ones from torch.optim._multi_tensor] 鏈接:https://github.com/pytorch/pytorch/pull/49039,讓用戶只需要在Python層即可享受到優(yōu)化,對(duì)應(yīng)的MultiTensor版Momentum優(yōu)化器代碼如下所示:

torch._foreach_mul_(bufs,momentum)
torch._foreach_add_(bufs,grads,alpha=1-dampening)

Pooled Classifier

原版的ViT是額外加了一個(gè)分類token,來輸出最后的分類結(jié)果。而這里采用平均池化 如:https://github.com/facebookresearch/pycls/blob/main/pycls/core/config.py#L205 處理最后的分類

Batch Second Input Tensor Layout

這里的數(shù)據(jù)格式與以往不同,將batch維度放在第二維,并在調(diào)用nn.MultiheadAttention的時(shí)候,設(shè)置batch_first=False,以減少不必要的轉(zhuǎn)置

ifself.batch_firstandis_batched:
returnattn_output.transpose(1,0),attn_output_weights
else:
returnattn_output,attn_output_weights

總感覺這個(gè)實(shí)現(xiàn)怪怪的

其他優(yōu)化

我們?cè)诓扇?60大小的batchsize下,達(dá)到了1.51倍的加速比,進(jìn)一步的我們將batchsize設(shè)置為384,并將圖片大小增大到256,達(dá)到了1.86倍加速比。在全FP16運(yùn)算下,能夠達(dá)到2.18倍加速比,盡管這偶爾會(huì)降低準(zhǔn)確率(在實(shí)驗(yàn)中,準(zhǔn)確率降低不到10%)。

d451532c-da96-11ec-ba43-dac502259ad0.png

使用上述優(yōu)化,我們將Imagenet1K數(shù)據(jù)集每epoch訓(xùn)練時(shí)間從0.65小時(shí)降低到0.43小時(shí)

d4786106-da96-11ec-ba43-dac502259ad0.png

我們還研究了不同GPU配置對(duì)訓(xùn)練速度的影響,在不同配置下我們都實(shí)現(xiàn)了比DDP baseline更高的吞吐量。隨著GPU增加,吞吐量會(huì)因?yàn)樵O(shè)備之間的通信開銷略微下降。然而即使在64塊GPU下,我們?nèi)匀槐菵DP基線快1.83倍

d4c4af7a-da96-11ec-ba43-dac502259ad0.png

文中鏈接

PyCls :https://github.com/facebookresearch/pycls

ContiguousParams:https://github.com/PhilJd/contiguous_pytorch_params

Adam:https://github.com/NVIDIA/apex/blob/master/csrc/multi_tensor_adam.cu

審核編輯 :李倩



聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    826

    瀏覽量

    39014
  • Vision
    +關(guān)注

    關(guān)注

    1

    文章

    201

    瀏覽量

    18710

原文標(biāo)題:如何更快地訓(xùn)練Vision Transformer

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    快手上線鴻蒙應(yīng)用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    “class-transformer”的使用代碼即可實(shí)現(xiàn)性能優(yōu)化,既保持了對(duì)原有開發(fā)模式的兼容性,又大幅提升了運(yùn)行效率,整體改造過程無侵入、低成本、低風(fēng)險(xiǎn),適用于已有項(xiàng)目的快速集成與上線。 在實(shí)際應(yīng)用中
    發(fā)表于 05-15 10:01

    優(yōu)化汽車點(diǎn)焊生產(chǎn)線,提升制造效率與質(zhì)量

    在當(dāng)前的制造業(yè)環(huán)境中,提高生產(chǎn)效率和產(chǎn)品質(zhì)量是企業(yè)追求的核心目標(biāo)之一。汽車點(diǎn)焊作為汽車制造過程中的關(guān)鍵環(huán)節(jié),其效率和質(zhì)量直接影響到整車的性能和安全。因此,優(yōu)化汽車點(diǎn)焊生產(chǎn)線,不僅能夠顯著提升
    的頭像 發(fā)表于 02-23 11:14 ?365次閱讀

    回饋式交流電子負(fù)載:測(cè)試效率與節(jié)能效果的雙重提升

    ,通過創(chuàng)新的能量回饋機(jī)制,實(shí)現(xiàn)了測(cè)試效率與節(jié)能效果的雙重提升,為電力電子測(cè)試領(lǐng)域帶來了革命性變革。 一、傳統(tǒng)測(cè)試方法的局限性 傳統(tǒng)電阻負(fù)載測(cè)試方法采用耗能式工作原理,將電能轉(zhuǎn)化為熱能消耗。這種測(cè)試方式
    發(fā)表于 02-07 11:13

    地平線ViG基于視覺Mamba的通用視覺主干網(wǎng)絡(luò)

    Vision Mamba的成功預(yù)示著將視覺表征學(xué)習(xí)轉(zhuǎn)換為線性復(fù)雜度視覺序列表征學(xué)習(xí)具有巨大的潛力。盡管以Vision Mamba為代表的線性視覺序列表征學(xué)習(xí)結(jié)構(gòu)在高清圖像上展示了顯著效率
    的頭像 發(fā)表于 01-08 09:33 ?579次閱讀
    地平線ViG基于視覺Mamba的通用視覺主干網(wǎng)絡(luò)

    港大提出SparX:強(qiáng)化Vision Mamba和Transformer的稀疏跳躍連接機(jī)制

    本文分享香港大學(xué)計(jì)算和數(shù)據(jù)科學(xué)學(xué)院俞益洲教授及其研究團(tuán)隊(duì)發(fā)表于 AAAI 2025 的論文——SparX,一種強(qiáng)化 Vision Mamba 和 Transformer 的稀疏跳躍連接機(jī)制,性能強(qiáng)大
    的頭像 發(fā)表于 01-03 09:28 ?643次閱讀
    港大提出SparX:強(qiáng)化<b class='flag-5'>Vision</b> Mamba和<b class='flag-5'>Transformer</b>的稀疏跳躍連接機(jī)制

    RFID技術(shù)賦能民兵裝備管理,倉儲(chǔ)效率顯著提升

    民兵裝備倉儲(chǔ)管理平臺(tái)的三層架構(gòu)通過緊密合作,實(shí)現(xiàn)了裝備物資的高效管理和安全儲(chǔ)存。這一架構(gòu)不僅顯著提高了管理效率,還有效降低了運(yùn)營(yíng)成本,為我國民兵部隊(duì)提供了堅(jiān)強(qiáng)可靠的后勤保障。
    的頭像 發(fā)表于 12-23 14:29 ?485次閱讀
    RFID技術(shù)賦能民兵裝備管理,倉儲(chǔ)<b class='flag-5'>效率</b><b class='flag-5'>顯著</b><b class='flag-5'>提升</b>

    微軟預(yù)覽版Copilot Vision AI功能上線

    微軟公司近日宣布,將面向美國地區(qū)的Copilot Pro用戶推出預(yù)覽版的Copilot Vision AI功能。這一創(chuàng)新功能旨在通過人工智能技術(shù),進(jìn)一步提升用戶的網(wǎng)頁瀏覽體驗(yàn)。 Copilot
    的頭像 發(fā)表于 12-09 14:38 ?611次閱讀

    Transformer是機(jī)器人技術(shù)的基礎(chǔ)嗎

    生成式預(yù)訓(xùn)練Transformer(GPT)被吹捧為將徹底改變機(jī)器人技術(shù)。但實(shí)際應(yīng)用中,GPT需要龐大且昂貴的計(jì)算資源、冗長(zhǎng)的訓(xùn)練時(shí)間以及(通常)非機(jī)載無線控制,諸多限制之下,GPT技術(shù)真的
    的頭像 發(fā)表于 12-05 10:54 ?639次閱讀
    <b class='flag-5'>Transformer</b>是機(jī)器人技術(shù)的基礎(chǔ)嗎

    自動(dòng)駕駛中一直說的BEV+Transformer到底是個(gè)啥?

    感知、理解和預(yù)測(cè)方面表現(xiàn)得更為強(qiáng)大,徹底終結(jié)了2D直視圖+CNN時(shí)代。BEV+Transformer通過鳥瞰視角與Transformer模型的結(jié)合,顯著提升了自動(dòng)駕駛
    的頭像 發(fā)表于 11-07 11:19 ?1298次閱讀
    自動(dòng)駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個(gè)啥?

    提升效率:RTC時(shí)鐘實(shí)用設(shè)置

    今天來給大家講解的是RTC時(shí)鐘實(shí)用性,提升絕對(duì)的效率
    的頭像 發(fā)表于 11-04 16:35 ?1289次閱讀
    <b class='flag-5'>提升</b><b class='flag-5'>效率</b>:RTC時(shí)鐘實(shí)用設(shè)置

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺(tái)集成 NVIDIA AI Enterprise,為企業(yè)和科研機(jī)構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無論是在復(fù)雜的 AI 開發(fā)任務(wù)中,還是在高并發(fā)推理場(chǎng)景下,都能夠確保項(xiàng)目的順利進(jìn)行,并顯著
    的頭像 發(fā)表于 10-27 10:03 ?745次閱讀
    NVIDIA助力麗蟾科技打造AI<b class='flag-5'>訓(xùn)練</b>與推理加速解決方案

    英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

    了新的突破。 相較于傳統(tǒng)的Transformer架構(gòu),nGPT在保持原有精度的同時(shí),直接將大型語言模型(LLM)的訓(xùn)練速度提升了高達(dá)20倍。這一顯著的性能
    的頭像 發(fā)表于 10-23 11:30 ?841次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    、機(jī)器翻譯、文本生成等領(lǐng)域具有廣泛應(yīng)用。它們能夠基于用戶的提問或描述生成相關(guān)的答案或執(zhí)行指令,極大地提升了信息檢索和利用的效率。 2. 局限性 盡管大語言模型在自然語言理解方面取得了顯著進(jìn)展,但它們?nèi)匀淮嬖?/div>
    發(fā)表于 08-02 11:03

    Transformer能代替圖神經(jīng)網(wǎng)絡(luò)嗎

    Transformer作為一種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學(xué)習(xí)模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時(shí)間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替圖神經(jīng)網(wǎng)絡(luò)(GNN)的問題,需
    的頭像 發(fā)表于 07-12 14:07 ?852次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結(jié)構(gòu)、訓(xùn)練
    的頭像 發(fā)表于 07-02 11:41 ?2521次閱讀
    主站蜘蛛池模板: 福贡县| 吉隆县| 炎陵县| 醴陵市| 清丰县| 札达县| 屯留县| 杭锦后旗| 曲水县| 陆河县| 松江区| 巴青县| 白银市| 麻江县| 乌兰察布市| 四平市| 揭东县| 麻阳| 仙桃市| 两当县| 芜湖市| 佛山市| 古浪县| 盈江县| 桐庐县| 慈利县| 富平县| 崇文区| 阿城市| 民县| 安岳县| 于田县| 台北市| 安平县| 建德市| 鞍山市| 余姚市| 呼和浩特市| 台北市| 台江县| 即墨市|