報道

編輯部
來自微軟的研究者另辟蹊徑,提出了一種新的計算機視覺基礎模型 Florence。在廣泛的視覺和視覺 - 語言基準測試中,Florence 顯著優于之前的大規模預訓練方法,實現了新的 SOTA 結果。
 
面對多樣化和開放的現實世界,要實現 AI 的自動視覺理解,就要求計算機視覺模型能夠很好地泛化,最小化對特定任務所需的定制,最終實現類似于人類視覺的人工智能。計算機視覺基礎模型在多樣化的大規模數據集上進行訓練,可以適應各種下游任務,對于現實世界的計算機視覺應用至關重要。
 
現有的視覺基礎模型,如 CLIP (Radford et al., 2021)、ALIGN (Jia et al., 2021) 和悟道 2.0 等 ,主要側重于將圖像和文本表征映射為跨模態共享表征。近日來自微軟的研究另辟蹊徑提出了一種新的計算機視覺基礎模型 Florence,將表征從粗粒度(場景)擴展到細粒度(對象),從靜態(圖像)擴展到動態(視頻),從 RGB 擴展到多模態。
 
通過結合來自 Web 規模圖像 - 文本數據的通用視覺語言表征, Florence 模型可以輕松地適應各種計算機視覺任務,包括分類、檢索、目標檢測、視覺問答(VQA)、圖像描述、視頻檢索和動作識別。此外,Florence 在許多遷移學習中也表現出卓越的性能,例如全采樣(fully sampled)微調、線性探測(linear probing)、小樣本遷移和零樣本遷移,這些對于視覺基礎模型用于通用視覺任務至關重要。Florence 在 44 個表征基準測試中多數都取得了新的 SOTA 結果,例如 ImageNet-1K 零樣本分類任務,top-1 準確率為 83.74,top-5 準確率為 97.18;COCO 微調任務獲得  62.4 mAP,VQA 任務獲得 80.36 mAP。
 
 
 
論文地址:https://arxiv.org/pdf/2111.11432v1.pdf
 
 
Florence 模型在有噪聲的 Web 規模數據上以同一個目標進行端到端訓練,使模型能夠在廣泛的基準測試中實現同類最佳性能。在廣泛的視覺和視覺 - 語言基準測試中,Florence 顯著優于之前的大規模預訓練方法,實現了新的 SOTA 結果。
 
方法
 
構建 Florence 生態系統包括數據管護、模型預訓練、任務適配和訓練基礎設施,如圖 2 所示。
 
 
 
數據管護
 
由于大規模數據多樣化對基礎模型非常重要,因此該研究提出了一個包含 9 億個圖像 - 文本對的新數據集用于訓練。由于網絡爬取數據通常是具有噪音的自由格式文本(例如,單詞、短語或句子),為了獲得更有效的學習,該研究使用了 UniCL,這是 Yang 等人最近提出的「統一圖像文本對比學習對象」,這種方法已經被證明其比對比和監督學習方法更優越。
 
模型預訓練
 
為了從圖像 - 文本對中學習良好的表示,該研究使用了包括圖像編碼器和語言編碼器的兩塔式(two-tower)架構。對于圖像編碼器,該研究選擇了分層 Vision Transformer 。該研究所提架構在繼承了 Transformer self-attention 操作性能優勢的同時,這些分層架構對圖像的尺度不變性進行了建模,并且具有相對于圖像大小的線性計算復雜度,這是進行密集預測任務必不可少的屬性。
 
任務適配
 
該研究使用 dynamic head adapter(Dai et al., 2021a)、提出的 video CoSwin adapter 從靜態圖到視頻的時間、METER adapter 從圖像到語言的模態變化,通過以上該研究將學習到的特征表示沿空間(從場景到對象)進行擴展。Florence 旨在通過小樣本和零樣本遷移學習來有效適配開放世界,并通過很少的 epoch 訓練(例如在檢索中)進行有效部署。用戶可以根據自己的需求進行定制。
 
Dynamic Head (Dai et al., 2021a) adapter 用于對象級視覺表示學習。
 
圖 4. METER (Dou et al., 2021) 用作 Florence V+L 適配模型,使用圖像文本匹配 (ITM) 損失和掩碼語言建模 (MLM) 損失進行訓練。
 
訓練基礎設施
 
從能源和成本方面考慮,以盡可能低的成本構建基礎模型是至關重要的。該研究開發了可擴展的訓練基礎設施,以提高訓練效率。Florence 訓練基礎設施由 ZeRO 、激活檢查點、混合精度訓練、梯度緩存等多項關鍵技術組成,從而大大減少了內存消耗,提高了訓練吞吐量。
 
實驗結果
 
該研究進行了多項實驗,表明了 Florence 顯著優于之前的大規模預訓練方法。
 
分類中的零樣本遷移
 
 
該研究在 ImageNet-1K 數據集和 11 個下游數據集上評估了 Florence 模型。表 1 顯示了這 12 個數據集的結果,比較的模型包括 CLIP ResNet 、CLIP Vision Transformer 模型以及 FILIP-ViT,結果顯示 Florence 在其中 9 個數據集上表現出色。該研究在 ImageNet-1K 上的零樣本遷移方面取得了顯著的提高,即 top-1 準確率為 83.74%(比 SOTA 結果高 5.6%),top-5 準確率為 97.18%。
 
 
線性評估
 
 
線性評估考慮了 11 個分類基準,這些基準同樣也適用于零樣本分類遷移。該研究將 Florence 與具有 SOTA 性能的模型進行了比較,包括 SimCLRv2、ViT、Noisy Student 和 CLIP 。
 
結果表明,Florence 優于現有的 SOTA 結果,不過在 CIFAR10、CIFAR100 這兩個數據集上性能不如 EfficientNet-L2 。
 
 
 
ImageNet-1K 微調評估
 
該研究在 ImageNet ILSVRC-2012 基準(Deng et al., 2009)上評估了持續微調的性能,Florence 與幾種模型的比較結果如下表 3 所示。Florence 模型的 Top-1 和 Top-5 準確率均優于 BiT(Kolesnikov et al., 2020)和 ALIGN(Jia 等人,2021 年)。Florence 的結果比 SOTA 模型(Dai et al., 2021c)稍差,但其模型和數據規模都比 Florence 大了 3 倍。
 
 
 
小樣本跨域分類
 
下表 4 顯示了 Florence 模型適應 CDFSL 基準的結果。與采用集成學習(ensembes learning)和直推學習(transductive learning)的挑戰基準獲勝者(Liu et al., 2020,下表中用 CW 指代)相比,Florence 采用單一模型,沒有對測試數據進行轉換,但獲得了更優的結果。
 
 
圖像 - 文本檢索
 
表 5 展示了 Florence 在 Flickr30k 和 MSCOCO 數據集上在文本和圖像檢索任務上的零樣本遷移和微調性能。結果表明,在這兩個數據集上,Florence 優于之前所有的微調結果。此外,該方法對檢索微調更有效。
 
 
目標檢測和零樣本遷移
 
目標檢測是計算機視覺中最突出的應用之一。與現有的大規模預訓練模型(如 CLIP、ALIGN 和 Wu Dao 2.0)相比,Florence 更適用于目標檢測任務,因為它的適應性有助于學習對象級視覺表征。研究者通過微調目標檢測和零樣本遷移任務對來 Florence 的對象級視覺表征性能進行評估。
 
具體地,研究者在 3 個流行的目標檢測數據集上評估了微調性能,它們分別是 COCO(Lin et al., 2015)、Object365(Shao et al., 2019)和 Visual Genome(Krishna et al., 2016)。下表 6 展示了與 SOTA 結果的比較,可以看到,Florence 在這些目標檢測基準上取得了新的 SOTA 結果。
 
 
為了評估 Florence 對新的、多樣性和面向應用的任務的遷移性,研究者遵循 (Li et al., 2021b) 設計了一個「開放式目標檢測基準」,該基準聚合了來自 Roboflow2 的 11 個公共數據集,涵蓋了細粒度魚類 / 象棋檢測、無人機視野檢測和 thermal 目標檢測等多樣性場景。下表 7 表明,Florence 模型能夠有效地實現到這些任務的零樣本遷移。
 
 
視覺語言(V+L)表示學習
 
研究者在具有挑戰性的 VQA (Goyal et al., 2017) 任務上對預訓練模型進行了微調,該任務是根據圖像上下文來回答問題。下表 8 展示了與當前方法的比較,結果表明 Florence 實現的了新的 SOTA 性能。與使用了 1.8B 圖像到文本對的 SimVLM 模型(Wang et al., 2021)相比,Florence 僅使用 900M 數據即可以預訓練圖像編碼器,20M 數據即可以預訓練視覺語言預訓練(VLP),但取得的結果更好。這也證明了 Florence 的數據效率。
 
 
零樣本文本到視頻檢索
 
 
研究者在 MSR-VTT (Xu et al., 2016) 數據集上執行了零樣本文本到視頻評估,他們報告了在 1K-A test(Yu et al., 2018,包含 1k 個視頻和字幕對)上的結果, 并在下表 9 中與當前 SOTA 方法進行了比較。結果表明,CLIP6(Radford et al., 2021)和 Florence 這兩個圖像到文本預訓練模型在 R@1 指標上遠遠優于其他所有 SOTA 方法。
 
 
視頻動作識別
 
研究者在微調視頻動作識別任務上對 Florence 進行評估。下表 10 展示了 Florence 與當前 SOTA 方法的比較,結果表明在 Kinectics-400 和 Kinectics-600 兩個數據集上,分別比 SOTA 方法提升 1.1% 和 1.5%。
 
 
 

詳解NVIDIA TAO系列分享第2期:

基于Python的口罩檢測模塊代碼解析——快速搭建基于TensorRT和NVIDIA TAO Toolkit的深度學習訓練環境

 
第2期線上分享將介紹如何利用NVIDIA TAO Toolkit,在Python的環境下快速訓練并部署一個人臉口罩監測模型,同時會詳細介紹如何利用該工具對模型進行剪枝、評估并優化。
 
TAO Toolkit 內包含了150個預訓練模型,用戶不用從頭開始訓練,極大地減輕了準備樣本的工作量,讓開發者專注于模型的精度提升。本次分享摘要如下:
  • NVIDIA TAO Toolkit的獨到特性
  • TensorRT 8.0的最新特性
  • 利用TAO Toolkit快速訓練人臉口罩檢測模型
  • 利用TensorRT 快速部署人臉口罩檢測模型
 
點擊閱讀原文,報名直播吧。
 

 

 

轉載請聯系本公眾號獲得授權

投稿或尋求報道:content@jiqizhixin.com



【最新評論】 在南極洲的千米冰層之下【最新觀點】 陜西3大“無名”酒,遠超西鳳酒,可惜卻一直走不出陜西【最新研究】 這…輪到她翻車了?
arrow
arrow

    s7g22qtt 發表在 痞客邦 留言(0) 人氣()