奇正科技_ADOBE福建的唯一授權金牌經銷商_微軟公司的核心經銷商_autodesk的福建區核心經銷商_COREL福建省獨家經銷商_Unity福建授權技術服務商_金山公司(WPS)福建金牌經銷商_PTC核心經銷商_Altium福建核心經銷商

虛擬云網絡專輯|VMware SD-WAN:實驗驗證,實時語音及影像的質量優化

奇正資訊 > 奇正要聞 更新時間:2022/4/15
這個技術主要是針對語音及影像等 UDP 串流應用,在傳輸時如果碰到線路質量不佳,針對網絡流封包本身進行的優化。

在展示前,下圖可以給大家一個概念即 Velocloud 對于不同的應用網絡流型態,會進行哪些優化機制:

圖片

在上圖內,大家可以看到針對被定義為 Real-Time 且會是Multi-Path  (受 Tunnel 保護) 形態的應用。

除了在多線路上會采用 Per-Packet Steering 的方式去做線路的選徑與優化,同時也會對應用進行 FEC 與 Jitter Buffer 的優化 (Remediation)。

當然,通常我們對于重要的語音或影像,比如網絡電話、影像會議等等,都會列在這一類。

在這個的展示內,我們需要實驗組與對照組,因此與前幾篇不同,我們的網絡環境配置會變成下面這樣:

圖片

從 Branch-03-Linux (10.100.103.12) 往右上角的 Hub-01-Linux (10.100.101.12) 間,是有建立 Velocloud DMPO Tunnel(綠色虛線),受到保護與優化的線路。

但在左下角的 Branch-06,這個分點并沒有安裝 VCE,而是透過基本的路由與其他分點或資料中心連接。

因此由 Branch-03-Linux 到左下角的 Branch-06-Linux (10.100.106.12) 的網絡流(紅色虛線),就是一般未受優化、未受保護的線路。

在這個實驗內,我們利用廣域網路模擬器,限制 Branch-03這邊的 MPLS 線路頻寬上下行都是 1 Mbps,然后將Packet Loss調到3%。

大家可以看到,在VCO界面上,Branch 03 VCE 的線路狀態有反應出這個狀況:

圖片

接下來我們先看正常環境內,沒有受到 Velocloud 保護的線路(前面的紅色線),在這樣的對照組網絡狀況下會有什么情形。實驗的方法如下:

· 在 Branch-03 / Branch-06 的 Linux 機器上都安裝 iperf3 測試工具。


·將Branch-06-Linux 作為 iperf3 的 server 端:# iperf3 -s -V。


· 從 Branch-03-Linux 上啟動 iperf3 的 client 端發動測試,指令為 # iperf3 -c 10.100.106.12 -b 400k -t 300 -u 。


這個指令要求從 Branch-03-Linux 發動 UDP 的測試網絡流 (-u) 到目的地 100.106.12,測試頻寬為 400 kbps,然后持續 300 秒。

下面是測試結果的畫面:

圖片

上圖內,大家可以看到發動這個命令后,在 Server 端  (Branch-06-Linux-1) 總共于 300 秒內接收到 1831 個 UDP 的封包,平均頻寬為 400 Kbps,里面丟掉或錯誤了 287 個。

也就是說,雖然在線路的 Packet Loss 是 3%,但實際測試內,有造成接近 1/6 的封包出現問題。

大家可以猜想一下如果你們實際的語音或影片傳送時,有 1/6 的封包出錯了,這個電話還打得下去嗎?

而在上面這個測試內,從 VCO 可以看到 Branch-03 的VCE 線路狀態,MPLS 線路上有平均為 400K 的網絡流。

圖片

接著是真正的實驗組,也就是由 Branch-03 到 Hub-01間,受到保護的 Tunnel 線路(前面的綠色虛線)。

首先,在我們的 Business Policy 內,設定 UDP 的傳輸保護方式如下:

圖片
圖片

上面兩張圖內我們可以看到,對于 UDP 型態的封包,我們Business Policy 的要求為:

· 必須要走 Tunnel (Multi-Path)


· 強制走 MPLS 線路 (Transport Group: Private Wired, Available)


· 把這類封包定義為高優先權 (High) 的實時類應用 (Real-Time)。在這種交通型態內,等下我們要展示的 FEC 機制將會啟用。


做了這樣的設定后,我們在 Branch-03-Linux 內做與前面一模一樣的測試,只是目前的目標改成指向 Hub-01-Linux (10.100.101.12)。


結果如下:

圖片



一模一樣的頻寬與時間,大家可以看到在 Server 端 (Hub-01-Linux-1) 總共于 300 秒內接收到 1830 個 UDP 封包,平均頻寬為 400 Kbps,但里面丟掉或錯誤僅僅有 14 個,比率為 0.77%。

和前面同樣情況下有 16% 的封包錯誤,大幅優化了 95% 。

但是 FEC 的機制是怎么做的呢?發生了什么魔法讓封包丟失率大幅下降呢?

其實很簡單,看下圖就一目了然了:

圖片

雖然我們發送的是一個平均 400 Kbps 的串流,但 MPLS上 DMPO Tunnel 實際的傳輸量卻是超過 800 Kbps。

為什么?因為 FEC 的運作機制如下:

· 對于被設定為 High / Real-Time 形態的網絡流,如果偵測到線路掉包率過高,則啟用 FEC 機制。


· 此時在 DMPO Tunnel 的串流來源端,會直接把網絡封包多復制一份,每個封包在線路內都丟兩個出去。


· 這時候即使線路質量不好會丟包,可能運氣也沒有這么差,兩個封包都丟掉吧。


此時在 DMPO Tunnel 的串流目的端,如果收到兩個一模一樣的封包,就移除其中一個傳出。


如果同樣封包只有一個(表示一個遺失了),那就把這個留下來的繼續送出去。


運氣很糟的狀況下還是有少數兩個都丟包了,那在應用端才會感受到有掉包的狀況。


透過上述的機制,當 Velocloud 方案在實際客戶端用語音或影像串流驗證時,客戶能夠確實感受到重要的實時應用質量受到保障。

當然這個機制不應該套用在所有的 Application,因為頻寬會大幅上升,但對于高階長官或是業務重要的語音應用,有這樣的優化保護,網絡管理者的壓力會減輕不少。



本文章轉載自VMware公眾號

Copyright?2018-2022 www.dzjkkt.com All Rights Reserved 奇正科技(廈門)股份有限公司 版權所有
備案號:閩ICP備05021918號-1
服務熱線 0592-2208610
點擊QQ咨詢
微信客服掃一掃 微信客服
精品人妻无码专区在中文字幕