女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SC22 | 解析基因組的“語(yǔ)言”:戈登貝爾獎(jiǎng)決賽選手使用大型語(yǔ)言模型來(lái)預(yù)測(cè)新冠病毒變異株

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2022-11-16 21:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來(lái)自美國(guó)阿貢國(guó)家實(shí)驗(yàn)室、NVIDIA、芝加哥大學(xué)等組織機(jī)構(gòu)的研究員開(kāi)發(fā)了一個(gè)處理基因組規(guī)模數(shù)據(jù)的先進(jìn)模型,并入圍戈登貝爾 COVID-19 研究特別獎(jiǎng)決賽

這一戈登貝爾特別獎(jiǎng)旨在表彰基于高性能計(jì)算的 COVID-19 研究。一位決賽入圍選手教會(huì)了大型語(yǔ)言模型(LLMs)一種新的語(yǔ)言——基因序列,使這些模型能夠提供基因組學(xué)、流行病學(xué)和蛋白質(zhì)工程方面的洞察。

這項(xiàng)開(kāi)創(chuàng)性的成果發(fā)表于 10 月,是由來(lái)自美國(guó)阿貢國(guó)家實(shí)驗(yàn)室、NVIDIA、芝加哥大學(xué)等組織機(jī)構(gòu)的二十多名學(xué)術(shù)和商業(yè)研究員合作完成。

該研究團(tuán)隊(duì)訓(xùn)練了一個(gè) LLM 來(lái)追蹤基因突變,并預(yù)測(cè)需要關(guān)注的 SARS-CoV-2(導(dǎo)致 COVID-19 的病毒)變異株。雖然迄今為止大多數(shù)應(yīng)用于生物學(xué)的 LLM 都是在小分子或蛋白質(zhì)的數(shù)據(jù)集上訓(xùn)練的,但這一項(xiàng)目是在原始核苷酸序列(DNA 和 RNA 的最小單位)上訓(xùn)練的首批模型之一。

負(fù)責(zé)帶領(lǐng)該項(xiàng)目的阿貢國(guó)家實(shí)驗(yàn)室計(jì)算生物學(xué)家 Arvind Ramanathan 表示:“我們假設(shè)從蛋白質(zhì)水平到基因水平的數(shù)據(jù)有助于我們構(gòu)建出更易于理解新冠病毒變異株的模型。通過(guò)訓(xùn)練模型去追蹤整個(gè)基因組及其進(jìn)化過(guò)程中的所有變化,我們不僅能夠更好地預(yù)測(cè) COVID,還能預(yù)測(cè)已掌握足夠基因組數(shù)據(jù)的任何疾病。”

戈登貝爾獎(jiǎng)被譽(yù)為 HPC 領(lǐng)域的諾貝爾獎(jiǎng)。今年的戈登貝爾獎(jiǎng)將在本周的 SC22 上由美國(guó)計(jì)算機(jī)協(xié)會(huì)頒發(fā)。該協(xié)會(huì)代表著全球約 10 萬(wàn)名計(jì)算領(lǐng)域的專(zhuān)家,自2020年開(kāi)始向使用 HPC 推進(jìn) COVID-19 研究的杰出研究員頒發(fā)特別獎(jiǎng)。

在一種只有四個(gè)字母的語(yǔ)言上

訓(xùn)練大型語(yǔ)言模型

長(zhǎng)期以來(lái),LLM 一直在接受人類(lèi)語(yǔ)言的訓(xùn)練,這些語(yǔ)言通常由幾十個(gè)字母組成,可以排列組合成數(shù)萬(wàn)個(gè)單詞,并連接成長(zhǎng)句和段落。而生物學(xué)語(yǔ)言只有四個(gè)代表核苷酸的字母,即 DNA 中的 A、T、G 和 C,或 RNA 中的 A、U、G 和 C。這些字母按不同順序排列成基因。

雖然較少的字母看似會(huì)降低 AI 學(xué)習(xí)的難度,但實(shí)際上生物學(xué)語(yǔ)言模型要復(fù)雜得多。這是因?yàn)槿祟?lèi)的基因組由超過(guò) 30 億個(gè)核苷酸組成,而冠狀病毒的基因組由大約 3 萬(wàn)個(gè)核苷酸組成,因此很難將基因組分解成不同、有意義的單位。

Ramanathan 表示:“在理解基因組這一生命代碼的過(guò)程中,我們所面對(duì)的一個(gè)主要挑戰(zhàn)是基因組中的龐大測(cè)序信息。核苷酸序列的意義可能會(huì)受另一序列的影響,以人類(lèi)的文本做類(lèi)比,這種影響的范圍不僅僅是文本中的下一句話或下一段話,而是相當(dāng)于一本書(shū)中的整個(gè)章節(jié)。”

參與該項(xiàng)目協(xié)作的 NVIDIA 研究員設(shè)計(jì)了一種分層擴(kuò)散方法,使 LLM 能夠?qū)⒓s 1500 個(gè)核苷酸的長(zhǎng)字符串當(dāng)作句子來(lái)處理。

論文共同作者、NVIDIA AI 研究高級(jí)總監(jiān)、加州理工學(xué)院計(jì)算+數(shù)學(xué)科學(xué)系布倫講席教授 Anima Anandkumar 表示:“標(biāo)準(zhǔn)語(yǔ)言模型難以生成連貫的長(zhǎng)序列,也難以學(xué)習(xí)不同變異株的基本分布。我們開(kāi)發(fā)了一個(gè)在更高細(xì)節(jié)水平上運(yùn)作的擴(kuò)散模型,該模型使我們能夠生成現(xiàn)實(shí)中的變異株,并采集到更完善的統(tǒng)計(jì)數(shù)據(jù)。”

預(yù)測(cè)需要關(guān)注的新冠病毒變異株

該團(tuán)隊(duì)首先使用細(xì)菌和病毒生物信息學(xué)資源中心的開(kāi)源數(shù)據(jù),對(duì)來(lái)自原核生物(像細(xì)菌一樣的單細(xì)胞生物)超過(guò) 1.1 億個(gè)基因序列進(jìn)行了 LLM 預(yù)訓(xùn)練,然后使用 150 萬(wàn)個(gè)高質(zhì)量的新冠病毒基因組序列,對(duì)該模型進(jìn)行微調(diào)。

研究員還通過(guò)在更廣泛的數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,確保其模型能夠在未來(lái)的項(xiàng)目中推廣到其他預(yù)測(cè)任務(wù),使其成為首批具備此能力的全基因組規(guī)模的模型之一。

在對(duì) COVID 數(shù)據(jù)進(jìn)行了微調(diào)后,LLM 就能夠區(qū)分病毒變異株的基因組序列。它還能夠生成自己的核苷酸序列,預(yù)測(cè) COVID 基因組的潛在突變,這可以幫助科學(xué)家預(yù)測(cè)未來(lái)需要關(guān)注的變異株。

f7239024-65b3-11ed-8abf-dac502259ad0.png

在長(zhǎng)達(dá)一年時(shí)間內(nèi)積累的 SARS-CoV-2 基因組數(shù)據(jù)的訓(xùn)練下,該模型可以推斷出各種病毒株之間的區(qū)別。左邊的每個(gè)點(diǎn)對(duì)應(yīng)一個(gè)已測(cè)序的 SARS-CoV-2 病毒株,并按變異株顏色編碼。右圖放大了該病毒的一個(gè)特定毒株,它捕捉到了該毒株特有的病毒蛋白進(jìn)化耦合關(guān)系。圖片由美國(guó)阿貢國(guó)家實(shí)驗(yàn)室的 Bharat Kale、Max Zvyagin 和 Michael E. Papka 提供。

Ramanathan 表示:“大多數(shù)研究員一直在追蹤新冠病毒突刺蛋白的突變,尤其是與人類(lèi)細(xì)胞結(jié)合的域。但病毒基因組中還有其他蛋白質(zhì)也會(huì)經(jīng)歷頻繁的突變,所以了解這些蛋白質(zhì)十分重要。”

論文中提到,該模型還可以與 AlphaFold、OpenFold 等常見(jiàn)的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)模型整合,幫助研究員模擬病毒結(jié)構(gòu),研究基因突變?nèi)绾斡绊懖《靖腥酒渌拗鞯哪芰ΑpenFold 是 NVIDIA BioNeMo LLM 服務(wù)中包含的預(yù)訓(xùn)練語(yǔ)言模型之一。NVIDIA BioNeMo LLM 服務(wù)面向的是致力于將 LLM 應(yīng)用于數(shù)字生物學(xué)和化學(xué)應(yīng)用的開(kāi)發(fā)者

利用 GPU 加速超級(jí)計(jì)算機(jī)

大幅加快 AI 訓(xùn)練速度

該團(tuán)隊(duì)在由 NVIDIA A100 Tensor Core GPU 驅(qū)動(dòng)的超級(jí)計(jì)算機(jī)上開(kāi)發(fā) AI 模型,包括阿貢國(guó)家實(shí)驗(yàn)室的 Polaris、美國(guó)能源部的 Perlmutter 以及 NVIDIA 的 Selene 系統(tǒng)。通過(guò)擴(kuò)展到這些強(qiáng)大的系統(tǒng),他們?cè)谟?xùn)練中實(shí)現(xiàn)了超過(guò) 1500 exaflops 的性能,創(chuàng)建了迄今為止最大的生物語(yǔ)言模型。

Ramanathan 表示:“我們?nèi)缃裉幚淼哪P陀卸噙_(dá) 250 億個(gè)參數(shù),預(yù)計(jì)這一數(shù)量未來(lái)還會(huì)大幅增加。模型的尺寸、基因序列的長(zhǎng)度、以及所需的訓(xùn)練數(shù)據(jù)量,都意味著我們的確需要搭載數(shù)千顆 GPU 的超級(jí)計(jì)算機(jī)來(lái)完成復(fù)雜的計(jì)算。”

研究員估計(jì),訓(xùn)練一個(gè)具有 25 億參數(shù)的模型版本,需要約 4000 個(gè) GPU 耗時(shí)一個(gè)多月。該團(tuán)隊(duì)已經(jīng)在研究用于生物學(xué)的 LLM,在公布論文和代碼之前,他們?cè)谶@個(gè)項(xiàng)目上已耗時(shí)約四個(gè)月。GitHub 頁(yè)面上有供其他研究員在 Polaris 和 Perlmutter 上運(yùn)行該模型的說(shuō)明。

NVIDIA BioNeMo 框架可在 NVIDIA NGC 中心上的 GPU 優(yōu)化軟件中搶先體驗(yàn)。該框架將幫助研究員在多個(gè) GPU 上擴(kuò)展大型生物分子語(yǔ)言模型。作為 NVIDIA Clara Discovery 藥物研發(fā)工具集的一部分,該框架將支持化學(xué)、蛋白質(zhì)、DNA 和 RNA 數(shù)據(jù)格式。

即刻點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼收下這份 GTC22 精選演講合集清單,在NVIDIA on-Demand 上點(diǎn)播觀看主題演講精選、中國(guó)精選、元宇宙應(yīng)用領(lǐng)域與全球各行業(yè)及領(lǐng)域的最新成果!


原文標(biāo)題:SC22 | 解析基因組的“語(yǔ)言”:戈登貝爾獎(jiǎng)決賽選手使用大型語(yǔ)言模型來(lái)預(yù)測(cè)新冠病毒變異株

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3933

    瀏覽量

    93367

原文標(biāo)題:SC22 | 解析基因組的“語(yǔ)言”:戈登貝爾獎(jiǎng)決賽選手使用大型語(yǔ)言模型來(lái)預(yù)測(cè)新冠病毒變異株

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺(jué)編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺(jué)Transformer(ViT)。 語(yǔ)言模型 :處理文本輸入/輸出,如GPT、BERT等,部分
    的頭像 發(fā)表于 03-17 15:32 ?3504次閱讀
    ?VLM(視覺(jué)<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)<b class='flag-5'>解析</b>

    無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?

    無(wú)法在 OVMS 上運(yùn)行來(lái)自 Meta 的大型語(yǔ)言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫(kù)運(yùn)行 llama_chat Python* Demo 時(shí)遇到錯(cuò)誤。
    發(fā)表于 03-05 08:07

    小白學(xué)大模型:訓(xùn)練大語(yǔ)言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語(yǔ)言模型(LLMs)正以其強(qiáng)大的語(yǔ)言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾胃咝У赜?xùn)練
    的頭像 發(fā)表于 03-03 11:51 ?673次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:訓(xùn)練大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的深度指南

    語(yǔ)言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    本文系統(tǒng)性地闡述了大型語(yǔ)言模型(LargeLanguageModels,LLMs)中的解碼策略技術(shù)原理及其實(shí)踐應(yīng)用。通過(guò)深入分析各類(lèi)解碼算法的工作機(jī)制、性能特征和優(yōu)化方法,為研究者和工程師提供了全面
    的頭像 發(fā)表于 02-18 12:00 ?546次閱讀
    大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    語(yǔ)言模型管理的作用

    要充分發(fā)揮語(yǔ)言模型的潛力,有效的語(yǔ)言模型管理非常重要。以下,是對(duì)語(yǔ)言模型管理作用的分析,由AI部
    的頭像 發(fā)表于 01-02 11:06 ?363次閱讀

    語(yǔ)言模型開(kāi)發(fā)框架是什么

    語(yǔ)言模型開(kāi)發(fā)框架是指用于訓(xùn)練、推理和部署大型語(yǔ)言模型的軟件工具和庫(kù)。下面,AI部落小編為您介紹大語(yǔ)言
    的頭像 發(fā)表于 12-06 10:28 ?506次閱讀

    語(yǔ)言模型開(kāi)發(fā)語(yǔ)言是什么

    在人工智能領(lǐng)域,大語(yǔ)言模型(Large Language Models, LLMs)背后,離不開(kāi)高效的開(kāi)發(fā)語(yǔ)言和工具的支持。下面,AI部落小編為您介紹大語(yǔ)言
    的頭像 發(fā)表于 12-04 11:44 ?645次閱讀

    語(yǔ)言模型如何開(kāi)發(fā)

    語(yǔ)言模型的開(kāi)發(fā)是一個(gè)復(fù)雜且細(xì)致的過(guò)程,涵蓋了數(shù)據(jù)準(zhǔn)備、模型架構(gòu)設(shè)計(jì)、訓(xùn)練、微調(diào)和部署等多個(gè)階段。以下是對(duì)大語(yǔ)言模型開(kāi)發(fā)步驟的介紹,由AI部
    的頭像 發(fā)表于 11-04 10:14 ?582次閱讀

    如何利用大型語(yǔ)言模型驅(qū)動(dòng)的搜索為公司創(chuàng)造價(jià)值

    大型語(yǔ)言模型LLMs具有自動(dòng)化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過(guò)利用LLMs,企業(yè)能提升工作效率,降低運(yùn)營(yíng)成本,并獲得深入洞察。來(lái)自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?397次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>驅(qū)動(dòng)的搜索為公司創(chuàng)造價(jià)值

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    今天來(lái)學(xué)習(xí)大語(yǔ)言模型在自然語(yǔ)言理解方面的原理以及問(wèn)答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù)。 大
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    今天開(kāi)始學(xué)習(xí)《大語(yǔ)言模型應(yīng)用指南》第一篇——基礎(chǔ)篇,對(duì)于人工智能相關(guān)專(zhuān)業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對(duì)于我還是有許多的知識(shí)點(diǎn)、專(zhuān)業(yè)術(shù)語(yǔ)比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書(shū)中
    發(fā)表于 07-25 14:33

    基于CPU的大型語(yǔ)言模型推理實(shí)驗(yàn)

    隨著計(jì)算和數(shù)據(jù)處理變得越來(lái)越分散和復(fù)雜,AI 的重點(diǎn)正在從初始訓(xùn)練轉(zhuǎn)向更高效的AI 推理。Meta 的 Llama3 是功能強(qiáng)大的公開(kāi)可用的大型語(yǔ)言模型 (LLM)。本次測(cè)試采用開(kāi)源 LLM
    的頭像 發(fā)表于 07-18 14:28 ?976次閱讀
    基于CPU的<b class='flag-5'>大型</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>推理實(shí)驗(yàn)

    語(yǔ)言模型的預(yù)訓(xùn)練

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)作為人工智能領(lǐng)域的一個(gè)重要分支,取得了顯著的進(jìn)步。其中,大語(yǔ)言模型(Large Language Model, LLM)憑借其強(qiáng)大的語(yǔ)言
    的頭像 發(fā)表于 07-11 10:11 ?939次閱讀

    基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)言模型有哪些

    基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)言模型(Neural Language Models, NLMs)是現(xiàn)代自然語(yǔ)言處理(NLP)領(lǐng)域的一個(gè)重要組成部分,它們通過(guò)神經(jīng)網(wǎng)絡(luò)來(lái)捕捉
    的頭像 發(fā)表于 07-10 11:15 ?1396次閱讀

    如何加速大語(yǔ)言模型推理

    隨著人工智能技術(shù)的飛速發(fā)展,大語(yǔ)言模型(LLM)已成為自然語(yǔ)言處理領(lǐng)域的核心工具,廣泛應(yīng)用于智能客服、文本生成、機(jī)器翻譯等多個(gè)場(chǎng)景。然而,大語(yǔ)言模型
    的頭像 發(fā)表于 07-04 17:32 ?992次閱讀
    主站蜘蛛池模板: 涿鹿县| 浦江县| 南靖县| 永平县| 宣武区| 禹城市| 长宁区| 建始县| 西乌珠穆沁旗| 龙川县| 淳化县| 东方市| 青浦区| 民和| 武宁县| 福海县| 香格里拉县| 鄂温| 昌乐县| 桃园县| 绵竹市| 大同市| 大英县| 汝城县| 衡东县| 洛宁县| 姜堰市| 清水河县| 峡江县| 黄山市| 塔河县| 怀来县| 图们市| 遂川县| 偃师市| 探索| 楚雄市| 陵水| 大渡口区| 精河县| 罗甸县|