摘要:隨著網絡終端的不斷普及與互聯網應用的快速發展,當今網絡不僅要應對日益增長的傳輸流量,也要滿足用戶多樣化的需求指標。云計算在諸如服務延遲與傳輸開銷等方面難以適應趨勢,邊緣計算(Edge Computing)則將運算資源從云下移到了網絡邊緣,并通過就近處理數據的方式提升性能。作為人工智能的主要代表之一,深度學習一方面可以被集成到邊緣計算的框架中以構建智能邊緣,另一方面也能以服務的形式部署在邊緣上從而實現邊緣智能。本文從邊緣計算與深度學習融合的趨勢出發,介紹 “邊緣智能”與“智能邊緣”的概念與應用場景,并說明典型的使能技術及其相互聯系。
關鍵詞:邊緣計算;深度學習;使能技術
Abstract: Withthegradualpopularizationofnetworkterminals and the rapid development of Internet applications, network nowadays not only deals withever-increasing transmission traffic, but also needs to meet diversified requirements from users.Cloud computing is difficult on such aspects as service latency and transmission cost to adaptto the trend,whil eedge computing moves computing resources from the cloudto the edge of the network,which can improve performance through processing data at the place close to users.As the main representative of artificial intelligence,deep learning can be integrated into edge computing frameworks to build intelligent edge,on the other hand, it can be deployed as a service on the edge to realize edge intelligence. Based on the trend of the fusion between edge computing and deep learning, this paper introduces the concepts along with application scenarios of edge intelligence and intelligent edge, illustrates the typical enabling technologies and their interrelationships.
Key words:Edge computing;Deep learning;Enabling technologies
1 引言
隨著網絡終端的不斷普及與互聯網應用的發展創新,當今網絡不僅要承載日益增長的傳輸流量,也要滿足用戶多樣化的需求指標。為了改進云計算在業務延遲與傳輸代價等方面上的不足,邊緣計算(EdgeComputing)[1]將運算資源從云下推到網絡邊緣,并根據應用需求將數據就近處理。
在邊緣計算這一概念的發展歷程中,Cloudlet[2]、微數據中心(MDC)[3]、霧計算[4]等概念都致力于在網絡的邊緣處工作。而針對移動網絡中的邊緣計算,歐洲電信標準化協會(ETSI)于2014年將其定義為“移動邊緣計算”(MobileEdgeComputing,MEC),并在2016年又將其重新命名為“多接入邊緣計算”(Multi-access Edge Computing,MEC),以提高該概念在異構網絡中的適用性。
與此同時,作為風頭正盛的人工智能技術,深度學習(Deep Learning,DL)受到工業界與學術界的大量關注,并與邊緣計算結下了不解之緣。一方面,DL可被集成至邊緣計算的框架中,實現網絡邊緣的自適應管理。另一方面,邊緣計算也將大量的模型計算從云下推到邊緣端,達到低延遲、高可靠的智能業務。邊緣計算和深度學習相互促進,進而衍生出了“邊緣智能”與“智能邊緣”這兩個概念,如圖1所示。
圖1 邊緣智能與智能邊緣
2 邊緣智能與智能邊緣
依托邊緣算力的增長與計算范式的革新,邊緣計算將多種資源下沉至距終端更近的網絡邊緣處。這不僅使得更加智能的算法能夠從云端走近終端用戶,也能在網絡邊緣執行各類業務的處理過程。
邊緣智能的原理即是將DL的計算過程從云下放至邊緣,以支持低延遲、高可靠、分布式的智能服務,并具有以下優點:(1)由于DL服務被部署在更接近請求源的位置,而云僅僅在需要額外處理時才參與過程,因此會顯著地減少數據上傳的延遲與開銷;(2)DL服務涉及的原始數據被限制在了“端-邊”區域,因此增強了數據的隱私性;(3)分層體系結構提供了更可靠的DL計算;(4)依靠邊緣環境中豐富的數據流動與多樣的業務場景,邊緣計算能夠促進DL在各種環境下的普遍應用。(5)多樣化與有價值的DL服務能夠拓寬邊緣計算的商業價值,進而加速其部署與增長。
作為典型且熱門的AI技術之一,DL在計算機視覺(CV)和自然語言處理(NLP)領域展現出了強大的性能優勢[5],相應的智能服務與應用也在改變著人們的生活[6]。
智能邊緣的目的即是將DL融入邊緣以支持動態的、自適應的資源分配與管理。這不僅有效整合了終端設備、網絡邊緣與云數據中心的多種資源,也能支持更為復雜的業務優化與任務協作。以往求解該類復雜問題的傳統方法依賴于固定的數學模型,難以精確地模擬快速變化的邊緣環境。相對地,DL則可以利用其強大的學習與推理能力,從大量數據中提取有價值的信息,進而實現自適應的智能決策過程。
為了進一步敘述邊緣智能和智能邊緣之間的關系,基于已有的研究工作[7],本文歸納并簡要介紹了五種典型的使能技術:
(1)邊緣上的深度學習應用(DLonEdge);
(2)邊緣中的深度學習推理(DLinEdge);
(3)邊緣處的深度學習訓練(DLatEdge);
(4)適用于深度學習的邊緣計算(EdgeforDL);
(5)深度學習用于邊緣計算優化(DLforEdge)。
其中,“DL on Edge”和“DL for Edge”分別對應于邊緣智能和智能邊緣的理論目標,而“DL inEdge”、“Edge for DL”與“DL at Edge”則展示了邊緣計算與深度學習對于DL推理、邊緣計算架構與DL訓練的重要支持。邊緣智能與智能邊緣的概念關系如圖2所示。
圖2 邊緣智能與智能邊緣的概念關系
3 典型使能技術
3.1 邊緣上的深度學習應用(DL on Edge)
由于移動終端的計算資源較為有限,而DL又存在模型復雜與計算量大的特點,因此“端-云”架構被提出以實現模型的訓練與推理,即:端(邊緣設備)提供模型輸入,云(遠程數據中心)執行計算過程。然而,隨著求解問題復雜度的不斷增加,該架構逐漸難以滿足用戶對分析實時性的需求。因此,有研究提出在網絡邊緣分配運算資源來支持DL,從而降低傳輸時延、緩解帶寬壓力。
作為一種DL的典型業務,實時視頻分析廣泛應用于自動駕駛、虛擬現實、增強現實、智能監控等領域。具體地,一種有效的解決方案是將“端-云”架構擴展為“端-邊-云”架構:在終端層,智能手機和監控攝像機等視頻采集設備負責視頻采集、數據壓縮與圖像預處理[8];在邊緣層,眾多分布式的邊緣節點相互協作,向終端節點提供視頻處理與分析服務[9];在云的層面上,由云負責多個邊緣層之間的DL模型集成,實現全局層面的知識匯聚,并在邊緣能力不足時提供支持與協作[10]。
3.2 邊緣中的深度學習推理(DL in Edge)
前文已經說明將邊緣計算引入DL業務中可以降低網絡時延。然而,由于邊緣節點無法提供與云數據中心相當的計算能力,如果在邊緣設備中實現DL的推理過程,就需要達到推理準確率和網絡時延之間的有效權衡。具體地,可以根據邊緣節點的資源是否豐富將模型優化方法分為兩類。
在邊緣節點計算能力足夠的情況下,可以采取一般性的優化方法改進推斷過程,即在不改變模型本身結構的情況下采用控制模型深度、實現參數共享等通用性的手段實現優化[11~12];反之,則要采取細粒度的優化方法,即從模型的輸入、結構與框架等方面深入優化,并根據特定硬件設備與應用場景專門制定優化方案[13~14]。縮小搜索空間以實現模型優化的樣例如圖3所示。
圖3 縮小搜索空間以實現模型優化的樣例
其次,分割DL模型并執行分布式計算能夠實現更優的延遲表現與能量效率。具體地,DL模型可被切分為多個區塊,并分配給終端上的異構處理器或者其它的邊緣節點中。其中,沿“端-邊-云”層次區分的水平分割是最常用的分割方法[15],分為以下三個步驟:(1)對每個層的資源成本與層間的中間數據大小進行測量與建模;(2)根據層結構與網絡帶寬來預測總成本;(3)根據時延、能量等指標選擇劃分方案。與水平分割相比,垂直分割融合了多個不同的層,以網格的方式垂直劃分它們,從而形成可獨立分配的計算任務[16]。
此外,我們可以為每個DL服務維護多個具有不同模型性能和資源成本的模型,并通過智能地選擇最佳模型實現自適應推理。同時,也可以通過額外設置分支分類器實現提前退出的機制[17]。當樣本在分支處判斷并且結果符合場景的可信度要求時,就直接返回運算結果,從而節省大量的推理時間。
3.3 邊緣處的深度學習訓練(DL at Edge)
相對于推理過程而言,以往研究中的DL訓練主要是在云數據中心中進行,終端或邊緣只執行數據預處理的步驟[18]。然而,該種方式并不適用于所有的場景,特別是對于位置相關和需要持續訓練的DL模型。其中一個原因是,在該種情況下將會有大量的數據從終端或邊緣持續地傳輸到云端,并消耗無線與骨干網絡的帶寬。此外,數據合并的過程也往往會引發隱私相關的問題。
為了應對以上挑戰,已有研究提出基于邊緣計算對數據進行處理和訓練。具體地,研究者將以邊緣作為訓練核心的架構稱為“邊緣處的深度學習訓練”,并針對分布式訓練中的數據摘要與模型更新的過程展開了研究。在邊緣處的分布式訓練避免了海量的訓練數據直接在網絡中傳輸,卻也引入了邊緣設備之間模型交互的通信過程,并同樣受到網絡狀態的影響。
對此,已有研究指出大部分的梯度交換是冗余的,因此在保持訓練精度的前提下,更新后的梯度數據可以被壓縮以降低通信成本[19]。降低分布式訓練中同步頻率也是可行的方法之一,例如:已有工作結合了兩種優化機制[20]:其一是考慮到訓練梯度稀疏這一特點,訓練過程僅僅傳輸較為重要的梯度;其二是累積較小的梯度值,并采用動量校正的方法優化運算過程,改進了忽略細微梯度導致算法難以收斂的狀況。
綜合考慮非獨立同分布(Non-IID)的訓練數據、有限的通信資源、不均衡的訓練貢獻、訓練數據的隱私性等諸多分布式訓練中的關鍵挑戰,聯邦學習[21](FederatedLearning)實現了一種“端-邊-云”之間實用的DL訓練機制,并在邊緣計算中得到了廣泛的應用與拓展[22~23]。
3.4 適用于深度學習的邊緣計算(Edge for DL)
DL服務的大規模部署需要邊緣計算的支持,特別是對于移動DL來說。這種支持不僅在于網絡架構級別,邊緣軟硬件的設計、改進與優化也同樣重要。從整體來看,邊緣計算的體系結構能夠卸載DL的計算負擔;作為其中的基礎,面向邊緣定制的軟硬件能夠更有效地執行DL;在此之上,精心設計的邊緣計算系統能夠更好地運維在邊緣的DL服務;此外,用于公平地評估DL性能的測試平臺有助于進一步地改進以上工作。
根據分流程度與協作方式,可以將適用于深度學習的邊緣計算分為四種:第一種是整體卸載[24],即將整個任務在“端-邊-云”三個層次中的任意一層中執行完成,但這需要提前準備好具有不同精確度的多種模型,再根據需求和條件執行計算任務。第二種是動態地拆分計算任務至上述三個層次(部分卸載[25]),而這需要進一步地考慮任務切分與執行順序等問題。第三種是采用垂直協作的模式[26],三個層次均可以執行推理過程,其中層次越高,問題求解的精確度也就越高。在這種方式中可以將低層次的輸出作為高層次的輸入,從而降低計算過程中的運算與傳輸開銷。第四種是采用水平協作的模式[27],這種協作通過并行的、分布式地執行計算任務,并可以有效降低單點的計算壓力,節省系統中計算時間的開銷。DL計算的邊緣計算模式如圖4所示。
圖4 DL計算的邊緣計算模式
3.5 深度學習用于邊緣計算優化(DL for Edge)
深度學習也能優化邊緣計算這一模式中的各類決策問題,進而實現邊緣的智慧管理。例如:自適應的邊緣緩存策略、計算任務的分流優化、邊緣節點的資源分配。其中,通用的DL模型可以提取潛在的數據特征,而DRL則能夠通過與環境的交互來學習并制定決策。接下來就以自適應的邊緣緩存策略為例展示具體應用。
以內容分發網絡(Content Delivery Network,CDN)為典型的緩存技術,是傳統網絡中一種應對流量增長的有效方法,多年來一直受到大量關注。而在移動網絡中,邊緣緩存(Edge caching)被認為是減少冗余數據傳輸、緩解云數據中心壓力與提高QoE的有效解決方案,然而也存在著一些挑戰與機遇。例如,由于傳輸內容多種多樣并隨著時-空屬性改變而變化,邊緣覆蓋范圍內的內容流行度實際上難以估計。此外,只有在已知內容流行度分布的情況下,最優的邊緣緩存策略才能被求解得到。進一步地,又考慮到用戶諸如移動性、連接性與個人偏好等屬性隨時間的變化而變化,用戶對于內容的實際選擇是較難預測的,因此,傳統的求解方法需要通過大量的在線計算來確定具體實例的放置與交付,因此通常具有相當高的計算復雜度。與之對應,通用的DL模型能夠利用離線訓練-在線預測的方式,降低在線過程的繁重計算[28]。進一步地,相比于通用的DL方法從原始數據中學習關鍵特征,將RL和DL相結合的DRL方法能夠借助高維觀測數據直接優化邊緣計算網絡中的緩存管理策略[29]。
4 總結
作為當今人工智能領域最為火熱的概念之一,深度學習在解決復雜問題上展現出了強大的實力,并催生出了多種多樣的應用場景。然而,隨著求解問題的逐漸復雜,深度學習對計算能力與數據傳輸的要求不斷提高,傳統的“端-云”計算架構逐漸難以滿足業務需求。
作為一種新型的計算模式,邊緣計算為深度學習開辟了另一片廣闊的天地。一方面,邊緣計算能夠優化配置網絡中的各類資源,從而改進深度學習的性能表現;另一方面,深度學習也能夠反向促進邊緣計算的發展,體現出超越傳統方法的性能表現與應用前景。因此,本文介紹了邊緣計算與深度學習之間的關系與使能技術,說明了邊緣智能與智能邊緣中的典型應用。總的來說,深度學習與邊緣計算的相互融合與彼此促進將會不斷地、廣泛地、更加深刻地改變人類的日常生活。
參考文獻:
[1] W.Shi,J.Cao et al.Edge Computing:Vision and Challenges[J].IEEE Internet Things J,2016,3(5):637-646.
[2] M.Satyanarayanan,P.Bahl,R.Cceres,N.Davies.The case for vm-based cloudlets in mobile computing[J].IEEE Pervasive Comput,2009,8(4):14-23.
[3] M.Aazam,E.Huh.Fog computing micro datacenter based dynamic resource estimation and pricing model for iot[C].IEEE 29th International Conference on Advanced Information Networking and Applications(AINA 2019),2015:687-694.
[4] F.Bonomi,R.Milito,J.Zhu,S.Addepalli.Fog computing and its rolein the internet of things[C].The first edition of the MCC workshop on Mobile cloud computing,2012:13-16.
[5] J.Schmidhuber.Deep learning in neural networks:An overview[J].Neural Networks,2015,61,85-117.
[6] J.Redmon,S.Divvalaetal.You Only Look Once:Unified,RealTime Object Detection[C].2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2016).2016:779-788.
[7] Yiwen Han,Xiaofei Wang,Victor C.M.Leung,et al.Convergence of Edge Computing and Deep Learning:A Comprehensive Survey[M].
[8] C.Liu,Y.Cao,Y.Luo et al.A New Deep Learning-Based Food Recognition System for Dietary Assessment on An Edge Computing Service Infrastructure[J].IEEE Trans.Serv.Comput,2018,11(2):249-261.
[9] S.Yi,Z.Hao,Q.Zhang et al.LAVEA:Latency-aware Video Analytics on Edge Computing Platform[C].in Proc.the Second ACM/IEEE Symposium on Edge Computing(SEC 2017),2017:1-13.
[10] J.Ren,Y.Guo,D.Zhang et al.Distributed and Efficient Object Detection in Edge Computing: Challenges and Solutions[J].IEEE Network,2018,32(6):137-143.
[11] C.Szegedy,WeiLiu,Yangqing Jia et al.Going deeper with convolutions[C].2015 IEEE Conference on Computer Visionand Pattern Recognition(CVPR 2015),2015:1-9.
[12] K.He,X.Zhang,S.Ren,and J.Sun.Deep Residual Learning for Image Recognition[C].2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2016),2016:770-778.
[13] X.Zhang,X.Zhou,M.Lin,and J.Sun.Shufflenet:An extremely efficient convolutional neural network for mobile devices[C].2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR 2018),2018:6848-6856.
[14] L.Lai and N.Suda.Enabling deep learning at the IoT edge[C].The International Conference on Computer-Aided Design(ICCAD 2018),2018:1-6.
[15] Z.Zhao,Z.Jiang,N.Ling et al.ECRT:An Edge Computing System for Real-Time Image-based Object Tracking[C].The 16th ACM Conference on Embedded Networked Sensor Systems(SenSys 2018).2018:394-395.
[16] Z.Zhao,K.M.Barijough,and A.Gerstlauer.DeepThings:Distributed Adaptive Deep Learning Inference on Resource-Constrained IoT Edge Clusters[J].IEEE Trans.Comput.Aided Des.Integr.Circuits Syst.2018,37(11):2348-2359.
[17] S.Teerapittayanon et al.BranchyNet:Fast inference via early exiting from deep neural networks[C].The 23rd International Conference on Pattern Recognition(ICPR 2016),2016:2464-2469.
[18] Y.Huang,Y.Zhu,X.Fan et al.Task Scheduling with Optimized Transmission Time in Collaborative Cloud-Edge Learning[C].27th International Conference on Computer Communication and Networks(ICCCN 2018),2018:1-9.
[19] Y.Lin,S.Han,H.Mao et al.Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training[Z].eprint arXiv:1712.01887,2017.
[20] Z.TaoandC.William.eSGD:Communication Efficient Distributed Deep Learning on the Edge[C]. USENIX Works hop on Hot Topics in Edge Computing (HotEdge 18),2018:1-6.
[21] H.B.McMahan,E.Moore,D.Ramage et al.Communication efficient learning of deep networks from decentralized data[C].The 20th International Conference on Artificial Intelligence and Statistics (AISTATS 2017).2017:1273-1282.
[22] S.Samarakoon,M.Bennis,W.Saad,andM.Debbah.Distributed Federated Learning for Ultra-Reliable Low-Latency Vehicular Communications.arXiv preprint arXiv:1807.08127,2018.
[23] C.Xie,S.Koyejo,andI.Gupta.Practical Distributed Learning: Secure Machine Learning with Communication-Efficient Local Updates. arXiv preprint arXiv:1903.06996, 2019.
[24] X.Ran,H.Chen,Z.Liu et al.Delivering Deep Learning to Mobile Devices via Offloading[C].The Workshop on Virtual Reality and Augmented Reality Network(VR/AR Network 2017),2017:42-47.
[25] E.Cuervo,A.Balasubramanian,D.-k.Choetal.MAUI:Making Smartphones Last Longer with Code Offload[C].The 8th international conference on Mobile systems,applications, and services(MobiSys 2010),2010,49-62.
[26] Y.Huang,X.Ma,X.Fan et al.When deep learning meets edge computing[C].IEEE 25th International Conference on Network Protocols(ICNP 2017),2017,1-2.
[27] J.Mao,X.Chen,K.W.Nixonetal.MoDNN:Local distributed mobile computing systemfor Deep Neural Network[C].Design, Automation&Test in Europe Conference & Exhibition(DATE 2017),2017, 1396-1401.
[28] A.Ndikumana,N.H.Tran,and C.S.Hong.Deep Learning Based Caching for Self-Driving Car in Multi-access Edge Computing.arXiv preprint arXiv:1810.01548,2018.
[29] D.AdelmanandA.J.Mersereau.Relaxations of weakly coupled stochastic dynamic programs[J].Operations Research,2008,56(3):712-727.
作者簡介:
劉志成,天津大學智能與計算學部計算機科學與技術學院博士研究生在讀。
韓溢文,天津大學智能與計算學部計算機科學與技術學院博士研究生在讀。
沈仕浩,天津大學智能與計算學部計算機科學與技術學院碩士研究生在讀。
宋金鐸,天津大學智能與計算學部計算機科學與技術學院本科生在讀。
王曉飛,天津大學智能與計算學部計算機科學與技術學院教授、博士生導師,擔任天津大學-天津電信聯合研究中心主任,入選青年海外高層次人才引進計劃。迄今在 IEEE JSAC,IEEE Trans.on Wireless Comm.,IEEE WirelessComm.,IEEE Trans.on Multimedia,IEEE INFOCOM等國際高水平會議與權威期刊發表論文100余篇。獲得IEEE通訊協會“年度最佳雜志論文獎(Fred W.EllersickPrize)”,獲得CCF-Intel青年學者提升計劃、ACM ChinaRising Star、天津大學“北洋青年學者”等科研獎勵。
摘自《自動化博覽》2020年2月刊