女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

?使用AWS Graviton降低Amazon SageMaker推理成本

jf_9aVl32Dp ? 來源:Arm軟件開發(fā)者 ? 作者:Arm軟件開發(fā)者 ? 2023-05-28 09:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Sunita Nadampalli

Amazon SageMaker(https://aws.amazon.com/sagemaker/)提供了多種機(jī)器學(xué)習(xí)(ML)基礎(chǔ)設(shè)施和模型部署選項(xiàng),以幫助滿足您的ML推理需求。它是一個(gè)完全托管的服務(wù),并與MLOps工具集成,因此您可以努力擴(kuò)展模型部署,降低推理成本,在生產(chǎn)中更有效地管理模型,并減輕操作負(fù)擔(dān)。SageMaker提供多個(gè)推理選項(xiàng)(https://docs.aws.amazon.com/sagemaker/latest/dg/deploy-model.html#deploy-model-options),因此您可以選擇最適合您工作負(fù)載的選項(xiàng)。

新一代CPU由于內(nèi)置的專用指令在ML推理方面提供了顯著的性能提升。在本文中,我們重點(diǎn)介紹如何利用基于AWS Graviton3(https://aws.amazon.com/ec2/graviton/)的Amazon Elastic Compute Cloud(EC2)C7g實(shí)例(https://aws.amazon.com/blogs/aws/new-amazon-ec2-c7g-instances-powered-by-aws-graviton3-processors/),以幫助在Amazon SageMaker上進(jìn)行實(shí)時(shí)推理(https://docs.aws.amazon.com/sagemaker/latest/dg/realtime-endpoints.html)時(shí)將推理成本降低高達(dá)50%,相對(duì)于可比較的EC2實(shí)例。我們展示了如何評(píng)估推理性能并在幾個(gè)步驟中將您的ML工作負(fù)載切換到AWS Graviton實(shí)例。

為了涵蓋廣泛的客戶應(yīng)用程序,本文討論了PyTorch、TensorFlow、XGBoost和scikit-learn框架的推理性能。我們涵蓋了計(jì)算機(jī)視覺(CV)、自然語言處理(NLP)、分類和排名場(chǎng)景,以及用于基準(zhǔn)測(cè)試的ml.c6g、ml.c7g、ml.c5和ml.c6i SageMaker實(shí)例。

基準(zhǔn)測(cè)試結(jié)果

AWS Graviton3基于EC2 C7g實(shí)例相對(duì)于Amazon SageMaker上的可比EC2實(shí)例,可以為PyTorch、TensorFlow、XGBoost和scikit-learn模型推理帶來高達(dá)50%的成本節(jié)省,同時(shí)推理的延遲也得到了降低 。

為了進(jìn)行比較,我們使用了四種不同的實(shí)例類型:

? c7g.4xlarge(https://aws.amazon.com/ec2/instance-types/c7g/)

? c6g.4xlarge(https://aws.amazon.com/ec2/instance-types/c6g/)

? c6i.4xlarge(https://aws.amazon.com/ec2/instance-types/c6i/)

? c5.4xlarge(https://aws.amazon.com/ec2/instance-types/c5/)

這四個(gè)實(shí)例都有16個(gè)vCPU和32 GiB內(nèi)存。

在下面的圖表中,我們測(cè)量了四種實(shí)例類型每百萬推理的成本。我們進(jìn)一步將每百萬推理成本結(jié)果歸一化為c5.4xlarge實(shí)例,該實(shí)例在圖表的Y軸上測(cè)量為1。您可以看到,對(duì)于XGBoost模型,c7g.4xlarge(AWS Graviton3)的每百萬推理成本約為c5.4xlarge的50%,約為c6i.4xlarge的40%;對(duì)于PyTorch NLP模型,與c5和c6i.4xlarge實(shí)例相比,成本節(jié)省約30-50%。對(duì)于其他模型和框架,與c5和c6i.4xlarge實(shí)例相比,我們測(cè)得至少30%的成本節(jié)省。

0ff646be-fccc-11ed-90ce-dac502259ad0.jpg

與前面的推理成本比較圖類似,下圖顯示了相同四種實(shí)例類型的模型p90延遲。我們進(jìn)一步將延遲結(jié)果標(biāo)準(zhǔn)化為c5.4xlarge實(shí)例,在圖表的Y軸中測(cè)量為1。c7g.4xlarge(AWS Graviton3)模型推理延遲比在c5.4xlage和c6i.4xla格上測(cè)量的延遲高出50%。

10273f94-fccc-11ed-90ce-dac502259ad0.jpg

遷移到AWS Graviton實(shí)例

要將模型部署到AWS Graviton實(shí)例,可以使用AWS深度學(xué)習(xí)容器(DLC)(https://github.com/aws/deep-learning-containers/blob/master/available_images.md#sagemaker-framework-graviton-containers-sm-support-only),也可以自帶與ARMv8.2體系結(jié)構(gòu)兼容的容器(https://github.com/aws/deep-learning-containers#building-your-image)。

將模型遷移(或新部署)到AWS Graviton實(shí)例很簡(jiǎn)單,因?yàn)锳WS不僅為使用PyTorch、TensorFlow、scikit-learn和XGBoost托管模型提供容器,而且模型在架構(gòu)上也是不可知的。您也可以帶上自己的庫,但請(qǐng)確保您的容器是用支持ARMv8.2體系結(jié)構(gòu)的環(huán)境構(gòu)建的。有關(guān)更多信息,請(qǐng)參閱構(gòu)建自己的算法容器(https://sagemaker-examples.readthedocs.io/en/latest/advanced_functionality/scikit_bring_your_own/scikit_bring_your_own.html)。

您需要完成三個(gè)步驟才能部署模型:

1.創(chuàng)建SageMaker模型。除其他參數(shù)外,它將包含有關(guān)模型文件位置、將用于部署的容器以及推理腳本的位置的信息。(如果已經(jīng)在計(jì)算優(yōu)化推理實(shí)例中部署了現(xiàn)有模型,則可以跳過此步驟。)

2.創(chuàng)建端點(diǎn)配置。這將包含有關(guān)端點(diǎn)所需的實(shí)例類型的信息(例如,對(duì)于AWS Graviton3,為ml.c7g.xlarge)、在上一步中創(chuàng)建的模型的名稱以及每個(gè)端點(diǎn)的實(shí)例數(shù)。

3.使用在上一步中創(chuàng)建的端點(diǎn)配置啟動(dòng)端點(diǎn)。

有關(guān)詳細(xì)說明,請(qǐng)參閱使用Amazon SageMaker在基于AWS Graviton的實(shí)例上運(yùn)行機(jī)器學(xué)習(xí)推理工作負(fù)載(https://aws.amazon.com/blogs/machine-learning/run-machine-learning-inference-workloads-on-aws-graviton-based-instances-with-amazon-sagemaker/)。

性能基準(zhǔn)管理方法

我們使用Amazon SageMaker Inference Recommender(https://docs.aws.amazon.com/sagemaker/latest/dg/inference-recommender.html)來自動(dòng)化不同實(shí)例的性能基準(zhǔn)測(cè)試。該服務(wù)根據(jù)不同實(shí)例的延遲和成本來比較ML模型的性能,并推薦以最低成本提供最佳性能的實(shí)例和配置。我們使用推理推薦器收集了上述性能數(shù)據(jù)。有關(guān)更多詳細(xì)信息,請(qǐng)參閱GitHub回購。


您可以使用示例筆記本(https://github.com/aws/amazon-sagemaker-examples/blob/main/sagemaker-inference-recommender/huggingface-inference-recommender/huggingface-inference-recommender.ipynb)來運(yùn)行基準(zhǔn)測(cè)試并再現(xiàn)結(jié)果。我們使用以下模型進(jìn)行基準(zhǔn)測(cè)試:

1.PyTorch–ResNet50圖像分類,DistilBERT情感分析,RoBERTa填充掩碼和RoBERTa情感分析
2.TensorFlow–TF Hub ResNet 50和ML Commons TensorFlow BERT。
3.XGBoost和scikit learn–我們測(cè)試了四個(gè)模型,以涵蓋分類器、排序器和線性回歸場(chǎng)景。



結(jié)論

相對(duì)于Amazon SageMaker上的可比EC2實(shí)例,AWS使用基于Graviton3的EC2 C7g實(shí)例測(cè)量了PyTorch,TensorFlow,XGBoost和scikit-learn模型推理高達(dá)50%的成本節(jié)省。您可以按照本文提供的步驟將現(xiàn)有推理用例遷移到AWS Graviton或部署新的ML模型。您還可以參考AWS Graviton技術(shù)指南(https://github.com/aws/aws-graviton-getting-started),該指南提供了優(yōu)化庫和最佳實(shí)踐列表,可幫助您在不同工作負(fù)載上使用AWS Graviton實(shí)例實(shí)現(xiàn)成本效益。

如果您發(fā)現(xiàn)使用情況,在AWS Graviton上沒有觀察到類似的性能提升,請(qǐng)與我們聯(lián)系。我們將繼續(xù)添加更多性能改進(jìn),使AWS Graviton成為最具成本效益和高效的通用ML推理處理器。”


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11069

    瀏覽量

    216712
  • Amazon
    +關(guān)注

    關(guān)注

    1

    文章

    125

    瀏覽量

    17622
  • AWS
    AWS
    +關(guān)注

    關(guān)注

    0

    文章

    435

    瀏覽量

    25207

原文標(biāo)題:?使用AWS Graviton降低Amazon SageMaker推理成本

文章出處:【微信號(hào):Arm軟件開發(fā)者,微信公眾號(hào):Arm軟件開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Arm Neoverse V1的AWS Graviton3在深度學(xué)習(xí)推理工作負(fù)載方面的作用

    機(jī)器學(xué)習(xí) (ML) 是云和邊緣基礎(chǔ)設(shè)施中增長(zhǎng)最快的部分之一。在 ML 中,深度學(xué)習(xí)推理預(yù)計(jì)會(huì)增長(zhǎng)得更快。在本博客中,我們比較了三種 Amazon Web Services (AWS) EC2 云實(shí)例
    發(fā)表于 08-31 15:03

    AWS云中使用Arm處理器設(shè)計(jì)Arm處理器

    1、在AWS云中使用Arm處理器設(shè)計(jì)Arm處理器  Amazon Web Services (AWS) 宣布推出基于 Arm 的全新 AWS Gra
    發(fā)表于 09-02 15:55

    使用Arm服務(wù)器減少基因組學(xué)的時(shí)間和成本

    1、使用Arm服務(wù)器減少基因組學(xué)的時(shí)間和成本  我們現(xiàn)在可以展示三種主要aligners在Arm架構(gòu)AWS Graviton3上的性能。AWS Gravaton3是
    發(fā)表于 10-09 16:32

    AWS機(jī)器學(xué)習(xí)服務(wù)GPU成本大幅度降低,高達(dá)18%

    近日,AWS表示,其Amazon SageMaker機(jī)器學(xué)習(xí)服務(wù)兩個(gè)云實(shí)例ml.p2和ml.p3 GPU成本大幅降低,高達(dá)18%。
    的頭像 發(fā)表于 10-10 09:35 ?2118次閱讀

    AWS發(fā)布新一代Amazon Aurora Serverless

    。同時(shí),AWS還發(fā)布了一個(gè)新的開源項(xiàng)目,幫助更多組織從傳統(tǒng)數(shù)據(jù)庫遷移到開源替代方案。對(duì)于不想處理自助數(shù)據(jù)庫繁雜工作的客戶,Amazon Aurora Serverless v2可在不到一秒的時(shí)間內(nèi)擴(kuò)展至支持?jǐn)?shù)十萬個(gè)事務(wù),與按業(yè)務(wù)高峰需求進(jìn)行資源配置的方式相比,可節(jié)省高達(dá)9
    的頭像 發(fā)表于 12-03 10:38 ?2124次閱讀

    AWS基于Arm架構(gòu)的Graviton 2處理器落地中國

    Graviton 2處理器提供支持的Amazon Elastic Compute Cloud(Amazon EC2)M6g、C6g和R6g實(shí)例已在由光環(huán)新網(wǎng)運(yùn)營(yíng)的AWS中國(北京)地
    的頭像 發(fā)表于 02-01 11:46 ?3279次閱讀

    中科創(chuàng)達(dá)成為Amazon SageMaker服務(wù)就緒計(jì)劃首批認(rèn)證合作伙伴

    近日,亞馬遜云科技于其年度盛會(huì)re:Invent上正式推出了Amazon SageMaker服務(wù)就緒計(jì)劃。中科創(chuàng)達(dá)作為亞馬遜云科技合作伙伴應(yīng)邀出席峰會(huì)并正式加入Amazon SageMaker
    的頭像 發(fā)表于 12-06 11:41 ?1431次閱讀

    使用AWS Graviton處理器優(yōu)化的PyTorch 2.0推理

    新一代的CPU因?yàn)閮?nèi)置了專門的指令,在機(jī)器學(xué)習(xí)(ML)推理方面提供了顯著的性能提升。結(jié)合它們的靈活性、高速開發(fā)和低運(yùn)營(yíng)成本,這些通用處理器為其他現(xiàn)有硬件解決方案提供了一種替代選擇。 AWS、Arm、Meta等公司幫助優(yōu)
    的頭像 發(fā)表于 05-28 09:35 ?962次閱讀
    使用<b class='flag-5'>AWS</b> <b class='flag-5'>Graviton</b>處理器優(yōu)化的PyTorch 2.0<b class='flag-5'>推理</b>

    2.0優(yōu)化PyTorch推理AWS引力子處理器

    2.0優(yōu)化PyTorch推理AWS引力子處理器
    的頭像 發(fā)表于 08-31 14:27 ?904次閱讀
    2.0優(yōu)化PyTorch<b class='flag-5'>推理</b>與<b class='flag-5'>AWS</b>引力子處理器

    Hugging Face LLM部署大語言模型到亞馬遜云科技Amazon SageMaker推理示例

    ?本篇文章主要介紹如何使用新的Hugging Face LLM推理容器將開源LLMs,比如BLOOM大型語言模型部署到亞馬遜云科技Amazon SageMaker進(jìn)行推理的示例。我們將
    的頭像 發(fā)表于 11-01 17:48 ?1270次閱讀
    Hugging Face LLM部署大語言模型到亞馬遜云科技<b class='flag-5'>Amazon</b> <b class='flag-5'>SageMaker</b><b class='flag-5'>推理</b>示例

    亞馬遜云科技推出五項(xiàng)Amazon SageMaker新功能

    Inference通過優(yōu)化加速器的使用,平均降低50%的基礎(chǔ)模型部署成本,并平均縮短了20%的延遲時(shí)間; Amazon SageMaker Clarify能夠讓客戶更輕松地根據(jù)支持負(fù)
    的頭像 發(fā)表于 12-06 14:04 ?991次閱讀

    亞馬遜云科技宣布基于自研Amazon Graviton4的Amazon EC2 R8g實(shí)例正式可用

    北京2024年7月15日?/美通社/ -- 亞馬遜云科技宣布基于自研芯片Amazon Graviton4處理器的Amazon Elastic Compute Cloud (Amazon
    的頭像 發(fā)表于 07-15 16:09 ?590次閱讀

    亞馬遜云科技推出新一代Amazon SageMaker

    為數(shù)據(jù)、分析和AI提供統(tǒng)一平臺(tái) 北京2024年12月10日?/美通社/ -- 亞馬遜云科技在2024 re:Invent全球大會(huì)上,宣布推出新一代Amazon SageMaker,將客戶所需的快速
    的頭像 發(fā)表于 12-10 15:53 ?392次閱讀

    Arm與AWS合作深化,AWS Graviton4展現(xiàn)顯著進(jìn)展

    :Invent 2024大會(huì)上,AWS進(jìn)一步展示了其基于Arm架構(gòu)的AWS Graviton4處理器的顯著進(jìn)展。AWS Graviton4作
    的頭像 發(fā)表于 12-18 14:17 ?534次閱讀

    亞馬遜云科技發(fā)布新一代Amazon SageMaker

    近期,亞馬遜云科技正式宣布推出新一代Amazon SageMaker平臺(tái)。這一創(chuàng)新舉措旨在將客戶在數(shù)據(jù)處理、分析、建模及生成式人工智能應(yīng)用方面的多樣化需求,統(tǒng)一整合到一個(gè)功能強(qiáng)大的集成平臺(tái)
    的頭像 發(fā)表于 12-24 16:57 ?613次閱讀
    主站蜘蛛池模板: 定兴县| 民和| 志丹县| 金寨县| 榆中县| 南汇区| 安顺市| 板桥市| 鄂伦春自治旗| 陆丰市| 乌拉特中旗| 莱州市| 江口县| 天等县| 呼伦贝尔市| 衡阳县| 三穗县| 静宁县| 宁蒗| 清徐县| 钟山县| 乌拉特后旗| 含山县| 嘉禾县| 自治县| 泾川县| 松滋市| 虞城县| 连城县| 鹰潭市| 通榆县| 涿州市| 奎屯市| 威远县| 洪湖市| 繁峙县| 东乡族自治县| 景东| 广安市| 汉寿县| 金湖县|