使用者:Pdeantihuman/Video Multimethod Assessment Fusion
Video Multimethod Assessment Fusion ( VMAF ) 是Netflix與南加州大學IPI/LS2N 實驗室以及圖像和視頻工程實驗室 (LIVE) 合作開發的客觀的全參考視頻質量指標。它根據參考和失真的視頻序列預測主觀視頻質量。該指標可用於評估不同視頻編解碼器、編碼器、編碼設置或傳輸變體的質量。
歷史
該指標基於南加州大學 C.-C. Jay Kuo 教授小組的初步工作。 他們研究了使用 支持向量機 融合不同視頻質量指標的可實現性,從而產生了「FVQA(基於融合的視頻質量評估)指數」,該指標已被證明在主觀上優於現有的圖像質量指標視頻質量資料庫。
該方法已與 Netflix 合作進一步開發,使用不同的主觀視頻數據集,包括 Netflix 擁有的數據集(「NFLX」)。隨後更名為「視頻多方法評估融合」,它於 2016 年 6 月在 Netflix 技術博客上宣布,參考實現的 0.3.1 版在許可的開源許可下提供。
2017 年,該指標進行了更新,以支持自定義模型,其中包括對手機屏幕查看的調整,從而為相同的輸入材料生成更高的質量分數。 2018 年,發布了一個預測高達4K解析度內容質量的模型。訓練這些模型的數據集尚未向公眾提供。
2021 年,Beamr、Netflix、南加州大學德克薩斯大學奧斯汀分校、SSIMWAVE、迪士尼、谷歌、Brightcove 和 ATEME 因開發視頻的開放感知度量而獲得了技術與工程艾美獎編碼優化。這是大學 20 年來第二次獲得艾美獎。這也是法國大學第一次獲得一個。 [1] [2]
組件
VMAF 使用現有的圖像質量指標和其他功能來預測視頻質量:
- 視覺信息保真度(VIF):考慮四個不同空間尺度的信息保真度損失
- 細節損失指標 (DLM): 衡量細節損失和分散觀眾注意力的損傷
- Mean Co-Located Pixel Difference (MCPD):測量 亮度分量 上幀之間的時間差異
上述特徵使用基於 SVM 的回歸進行融合,以提供每個視頻幀0-100 範圍內的單個輸出分數,其中 100 的質量與參考視頻相同。然後使用算術平均值在整個視頻序列上臨時匯集這些分數,以提供整體差分平均意見分數(DMOS)。
由於訓練原始碼(「VMAF Development Kit」,VDK)的公開可用性,可以根據不同的視頻數據集和特徵對融合方法進行重新訓練和評估。
抗噪信噪比(AN-SNR) 在早期版本的 VMAF 中用作質量指標,但隨後被放棄。 [3]
表現
與主觀評分相比,早期版本的 VMAF 在四個數據集中的三個數據集上的預測準確性已被證明優於其他圖像和視頻質量指標,例如SSIM 、 PSNR -HVS 和 VQM-VFD。 在另一篇論文中也對其性能進行了分析,發現 VMAF 在視頻數據集上的性能並不優於 SSIM 和 MS-SSIM。 2017 年, RealNetworks 的工程師報告了 Netflix 性能發現的良好重現性。
軟體
用C語言和Python編寫的參考實現(「VMAF 開發工具包,VDK」)根據 BSD+專利許可條款作為自由軟體發布 。[4]其原始碼和其他材料可在GitHub上獲得。
參見
參考文獻
- ^ 72nd Annual Technology & Engineering Emmy® Awards Recipients – The Emmys. theemmys.tv. [2021-02-08] (美國英語).
- ^ PATRON, Julien. Technologie : l'Université de Nantes récompensée d'un Emmy Award !. UNNEWS. [2021-02-08] (fr-FR).
- ^ Zhili, Henry. Removal of AN-SNR. Github.
- ^ https://opensource.org/licenses/BSDplusPatent