女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通用視覺GPT時刻來臨?智源推出通用分割模型SegGPT

3D視覺工坊 ? 來源:機(jī)器之心 ? 2023-04-09 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT 引發(fā)了語言大模型狂潮,AI 另一個重大領(lǐng)域 —— 視覺 —— 的 GPT 時刻何時到來?

前兩天,機(jī)器之心介紹了Meta 最新研究成果Segment Anything Model (SAM)。該研究引起了AI社區(qū)廣泛討論。

而據(jù)我們所知,幾乎同一時間,智源研究院視覺團(tuán)隊也推出通用分割模型 SegGPT(Segment Everything In Context)—— 利用視覺提示(prompt)完成任意分割任務(wù)的通用視覺模型。

a611a0e8-d63a-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/abs/2304.03284

代碼地址:https://github.com/baaivision/Painter

Demo:https://huggingface.co/spaces/BAAI/SegGPT

SegGPT 與 Meta AI 圖像分割基礎(chǔ)模型 SAM 同時發(fā)布,兩者的差異在于 :

SegGPT “一通百通”:給出一個或幾個示例圖像和意圖掩碼,模型就能 get 用戶意圖,“有樣學(xué)樣” 地完成類似分割任務(wù)。用戶在畫面上標(biāo)注識別一類物體,即可批量化識別分割同類物體,無論是在當(dāng)前畫面還是其他畫面或視頻環(huán)境中。

SAM “一觸即通”:通過一個點或邊界框,在待預(yù)測圖片上給出交互提示,識別分割畫面上的指定物體。

無論是 “一觸即通” 還是 “一通百通”,都意味著視覺模型已經(jīng) “理解” 了圖像結(jié)構(gòu)。SAM 精細(xì)標(biāo)注能力與 SegGPT 的通用分割標(biāo)注能力相結(jié)合,能把任意圖像從像素陣列解析為視覺結(jié)構(gòu)單元,像生物視覺那樣理解任意場景,通用視覺 GPT 曙光乍現(xiàn)。

SegGPT 是智源通用視覺模型 Painter(CVPR 2023)的衍生模型,針對分割一切物體的目標(biāo)做出優(yōu)化。SegGPT 訓(xùn)練完成后無需微調(diào),只需提供示例即可自動推理并完成對應(yīng)分割任務(wù),包括圖像和視頻中的實例、類別、零部件、輪廓、文本、人臉等等。

該模型具有以下優(yōu)勢能力:

1. 通用能力:SegGPT 具有上下文推理能力,模型能夠根據(jù)提供的分割示例(prompt),對預(yù)測進(jìn)行自適應(yīng)的調(diào)整,實現(xiàn)對 “everything” 的分割,包括實例、類別、零部件、輪廓、文本、人臉、醫(yī)學(xué)圖像、遙感圖像等。

2. 靈活推理能力:支持任意數(shù)量的 prompt;支持針對特定場景的 tuned prompt;可以用不同顏色的 mask 表示不同目標(biāo),實現(xiàn)并行分割推理。

3. 自動視頻分割和追蹤能力:以第一幀圖像和對應(yīng)的物體掩碼作為上下文示例,SegGPT 能夠自動對后續(xù)視頻幀進(jìn)行分割,并且可以用掩碼的顏色作為物體的 ID,實現(xiàn)自動追蹤。

案例展示

1. 作者在廣泛的任務(wù)上對 SegGPT 進(jìn)行了評估,包括少樣本語義分割、視頻對象分割、語義分割和全景分割。下圖中具體展示了 SegGPT 在實例、類別、零部件、輪廓、文本和任意形狀物體上的分割結(jié)果。

a633f49a-d63a-11ed-bfe3-dac502259ad0.png

a699ce8c-d63a-11ed-bfe3-dac502259ad0.png

2. 標(biāo)注出一個畫面中的彩虹(上圖),可批量化分割其他畫面中的彩虹(下圖)

a6c4b84a-d63a-11ed-bfe3-dac502259ad0.gif

3. 用畫筆大致圈出行星環(huán)帶(上圖),在預(yù)測圖中準(zhǔn)確輸出目標(biāo)圖像中的行星環(huán)帶(下圖)。

a70d0168-d63a-11ed-bfe3-dac502259ad0.png

a74d39f4-d63a-11ed-bfe3-dac502259ad0.png

4. SegGPT 能夠根據(jù)用戶提供的宇航員頭盔掩碼這一上下文(左圖),在新的圖片中預(yù)測出對應(yīng)的宇航員頭盔區(qū)域(右圖)。

a774d70c-d63a-11ed-bfe3-dac502259ad0.png

訓(xùn)練方法

SegGPT 將不同的分割任務(wù)統(tǒng)一到一個通用的上下文學(xué)習(xí)框架中,通過將各類分割數(shù)據(jù)轉(zhuǎn)換為相同格式的圖像來統(tǒng)一各式各樣的數(shù)據(jù)形式。

具體來說,SegGPT 的訓(xùn)練被定義為一個上下文著色問題,對于每個數(shù)據(jù)樣本都有隨機(jī)的顏色映射。目標(biāo)是根據(jù)上下文完成各種任務(wù),而不是依賴于特定的顏色。訓(xùn)練后,SegGPT 可以通過上下文推理在圖像或視頻中執(zhí)行任意分割任務(wù),例如實例、類別、零部件、輪廓、文本等。

a7ad7cce-d63a-11ed-bfe3-dac502259ad0.png

Test-time techniques

如何通過 test-time techniques 解鎖各種能力是通用模型的一大亮點。SegGPT 論文中提出了多個技術(shù)來解鎖和增強(qiáng)各類分割能力,比如下圖所示的不同的 context ensemble 方法。所提出的 Feature Ensemble 方法可以支持任意數(shù)量的 prompt 示例,實現(xiàn)豐儉由人的推理效果。

a7c3990a-d63a-11ed-bfe3-dac502259ad0.png

此外,SegGPT 還支持對特定場景優(yōu)化專用 prompt 提示。對于針對性的使用場景,SegGPT 可以通過 prompt tuning 得到對應(yīng) prompt,無需更新模型參數(shù)來適用于特定場景。比如,針對某一數(shù)據(jù)集自動構(gòu)建一個對應(yīng)的 prompt,或者針對一個房間來構(gòu)建專用 prompt。如下圖所示:

a7e70282-d63a-11ed-bfe3-dac502259ad0.png

結(jié)果展示

模型只需少數(shù) prompt 示例,在 COCO 和 PASCAL 數(shù)據(jù)集上取得最優(yōu)性能。SegGPT 顯示出強(qiáng)大的零樣本場景遷移能力,比如在少樣本語義分割測試集 FSS-1000 上,在無需訓(xùn)練的情況下取得 state-of-the-art 性能。

a813d762-d63a-11ed-bfe3-dac502259ad0.png

a82daffc-d63a-11ed-bfe3-dac502259ad0.png

無需視頻訓(xùn)練數(shù)據(jù),SegGPT 可直接進(jìn)行視頻物體分割,并取得和針對視頻物體分割專門優(yōu)化的模型相當(dāng)?shù)男阅堋?/p>

a8585856-d63a-11ed-bfe3-dac502259ad0.png

以下是基于 tuned prompt 在語義分割和實例分割任務(wù)上的效果展示:

a8836b54-d63a-11ed-bfe3-dac502259ad0.png

a8b520a4-d63a-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35040

    瀏覽量

    279016
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16068

原文標(biāo)題:通用視覺GPT時刻來臨?智源推出通用分割模型SegGPT

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于FMC接口的XCZU7EV?通用PCIe卡

    基于通用PCIe ,實現(xiàn)FMC的數(shù)據(jù)接口和主控計算,廣泛應(yīng)用于工業(yè)控制,檢測,視覺處理。支持工業(yè)級溫度工作。
    的頭像 發(fā)表于 05-07 09:10 ?201次閱讀
    基于FMC接口的XCZU7EV?<b class='flag-5'>通用</b>PCIe卡

    ?VLM(視覺語言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺Transformer(ViT)。 語言模型 :處理文本輸入/輸出,如GPT、BE
    的頭像 發(fā)表于 03-17 15:32 ?3973次閱讀
    ?VLM(<b class='flag-5'>視覺</b>語言<b class='flag-5'>模型</b>)?詳細(xì)解析

    BlackBerry QNX推出通用嵌入式開發(fā)平臺

    BlackBerry有限公司(紐交所代碼:BB;多倫多證券交易所代碼:BB)旗下部門QNX今日宣布推出QNX 通用嵌入式開發(fā)平臺(General Embedded Development
    的頭像 發(fā)表于 03-11 16:04 ?613次閱讀

    海康威視推出視覺模型系列攝像機(jī)

    依托海康觀瀾大模型技術(shù)體系,海康威視將大模型能力直接部署至端側(cè),推出一系列視覺模型攝像機(jī)。
    的頭像 發(fā)表于 03-05 14:06 ?705次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級,旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?640次閱讀

    今日看點丨OpenAI將發(fā)布新的GPT-4.5模型;三星西安工廠將升級286層NAND閃存工藝

    1. OpenAI 將發(fā)布新的GPT-4.5 模型 ? OpenAI首席執(zhí)行官阿爾特曼周三表示,該公司內(nèi)部稱為Orion的GPT-4.5模型將在“幾周內(nèi)”
    發(fā)表于 02-13 11:22 ?542次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布了一項重要消息:OpenAI將在今年未來幾個月內(nèi)推出全新的GPT-5模型。這一消息引起了業(yè)界的廣泛關(guān)注和期待。 據(jù)了解,GPT-5
    的頭像 發(fā)表于 02-13 11:21 ?584次閱讀

    通用模型在垂直行業(yè)的應(yīng)用

    隨著DeepSeek這類通用模型的普及,接下來會迎來更加精細(xì)化的垂直行業(yè)模型,那么哪些垂直行業(yè)會率先受益?以下是DeepSeek的整理預(yù)測,供大家參考。
    的頭像 發(fā)表于 02-10 15:44 ?783次閱讀

    用于任意排列多相機(jī)的通用視覺里程計系統(tǒng)

    如何讓多相機(jī)視覺SLAM系統(tǒng)更易于部署且對環(huán)境更具魯棒性?本文提出了一種適用于任意排列多相機(jī)的通用視覺里程計系統(tǒng)。在KITTI-360和MultiCamData數(shù)據(jù)集上驗證了該方法對于任意放置相機(jī)的魯棒性。與其他立體和多相機(jī)
    的頭像 發(fā)表于 12-13 11:22 ?752次閱讀
    用于任意排列多相機(jī)的<b class='flag-5'>通用</b><b class='flag-5'>視覺</b>里程計系統(tǒng)

    基于視覺語言模型的導(dǎo)航框架VLMnav

    本文提出了一種將視覺語言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在一步中直接選擇動作。驚訝的是,我們發(fā)現(xiàn)VLM可以作為一種無需任何微調(diào)或?qū)Ш綌?shù)據(jù)的端到端策略來使用。這使得該方法具有開放性和可適用于任何下游導(dǎo)航任務(wù)的
    的頭像 發(fā)表于 11-22 09:42 ?783次閱讀

    深信服發(fā)布安全GPT4.0數(shù)據(jù)安全大模型

    近日,深信服在數(shù)據(jù)安全領(lǐng)域邁出了重要一步,正式發(fā)布了安全GPT4.0數(shù)據(jù)安全大模型。這一創(chuàng)新的大模型技術(shù),旨在為用戶提供更高效、精準(zhǔn)的數(shù)據(jù)安全解決方案。
    的頭像 發(fā)表于 10-29 11:12 ?607次閱讀

    通用模型評測標(biāo)準(zhǔn)正式發(fā)布

    近日,在2024中國移動全球合作伙伴大會上,一項關(guān)于大模型評測體系建設(shè)的新成果——《通用模型評測標(biāo)準(zhǔn)》正式發(fā)布。這一標(biāo)準(zhǔn)由中國移動攜手工信部中國電子技術(shù)標(biāo)準(zhǔn)化研究院、中國電信、國家電網(wǎng)、中國石油以及科大訊飛等產(chǎn)業(yè)各方共同
    的頭像 發(fā)表于 10-14 15:52 ?1027次閱讀

    英偉達(dá)預(yù)測機(jī)器人領(lǐng)域或迎“GPT-3時刻

    未來2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來重大突破,這一時刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-20 17:05 ?1072次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該
    的頭像 發(fā)表于 07-21 10:20 ?1665次閱讀
    OpenAI <b class='flag-5'>推出</b> <b class='flag-5'>GPT</b>-4o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> 4 而且更快 API KEY更便宜

    阿丘科技成功入選“北京市通用人工智能產(chǎn)業(yè)創(chuàng)新伙伴計劃”,AI+工業(yè)視覺實力再獲肯定

    成式AI技術(shù)、垂直行業(yè)視覺模型等創(chuàng)新探索,成功入選“應(yīng)用伙伴”。聚焦AI+工業(yè)場景,入選應(yīng)用伙伴“北京市通用人工智能產(chǎn)業(yè)創(chuàng)新伙伴計劃”由北京市經(jīng)濟(jì)和信息化局、北京
    的頭像 發(fā)表于 07-16 08:25 ?824次閱讀
    阿丘科技成功入選“北京市<b class='flag-5'>通用</b>人工智能產(chǎn)業(yè)創(chuàng)新伙伴計劃”,AI+工業(yè)<b class='flag-5'>視覺</b>實力再獲肯定
    主站蜘蛛池模板: 饶阳县| 宜春市| 静宁县| 金平| 酒泉市| 辛集市| 孟州市| 廉江市| 杭锦旗| 娄烦县| 甘谷县| 瑞昌市| 石嘴山市| 嵊泗县| 萍乡市| 论坛| 漳平市| 临汾市| 萍乡市| 黄山市| 鄯善县| 云南省| 南充市| 宜城市| 恩平市| 霍邱县| 江孜县| 平罗县| 柘城县| 开鲁县| 澄江县| 伊春市| 屯留县| 清水县| 富裕县| 安丘市| 贵溪市| 巴彦县| 嘉义市| 凤庆县| 台州市|