边缘云计算可以实现5g网络哪些功能,云 边缘计算
chanong
|本文首次发表于《物联网学报》,第5 卷,第1 期,2021 年3 月。边缘计算社区在《物联网杂志》的许可下发表了这篇文章。本文受国家自然科学基金项目(No. 61772480、No. 61972171)、之江研究所开放项目(No. 2021KE0AB02)资助。本文作者:曾德泽、陈鲁浩、顾琳、李跃鹏。以下为正文,共14600余字。预计阅读时间为36 分钟。我们建议您保存它。摘要:基于低开销容器化的云原生计算操作模式非常适合边缘计算,可以最大限度地发挥云原生的优势,并提高资源管理和应用程序开发和部署的透明控制。考虑到边缘计算与云计算相比具有资源分布广泛、异构性高、多碎片化的特点,可以通过协同计算、网络协同来提高资源利用率,迫切需要进行管理和控制。基于当前云原生相关技术的发展现状,我们提出了融合软件定义网络、网络功能虚拟化等未来网络技术的全栈云原生边缘计算架构。基于此,我们考虑容器的分层特性,提出一种适合有限边缘计算资源的低开销容器部署方法,并对云原生边缘计算面临的挑战进行分析和讨论。关键词:云原生、边缘计算、容器、微服务
边缘计算的资源特性适合于轻量级、低硬件耦合的云原生支撑技术(如容器),而容器(如Docker)提供多个用户之间的轻量级隔离,可以减少资源占用,并可以实现灵活的可扩展性管理的应用程序注册。发现、整理、发布,提高应用开发和运营的效率。另外,边缘计算比云计算难度更大、效率更低,因为资源形态、网络接入、接入特性多样,应用开发、运维人员直接管理物理资源,是边缘计算的一个目标。因此,通过容器对资源进行抽象,使资源管控对应用开发、运维人员透明,是云原生应用向边缘计算平台延伸的关键,得到了学术界和工业界的认可。针对边缘环境已经有多种解决方案,包括K3s(Kubernetes的简化版)等框架,以及华为技术有限公司于2018年发布的Kubernetes原生边缘计算平台KubeEdge等框架,很快得到了广泛认可。行业。云原生边缘计算通过容器等支撑技术,对底层物理计算资源进行抽象和软化,将软件开发、运维与底层资源的管控分离。事实上,在边缘计算中,除了计算资源之外,网络资源的管理和控制也是需要考虑的重要方面。与云计算相比,边缘计算网络更加异构,体现在接入方式不同(有线无线并存)、带宽不同、可靠性不同。同时,边缘计算具有不规则的网络拓扑。边缘计算是移动互联网的重要支撑,移动互联网的快速发展进一步提高了对边缘计算资源管控的要求。从网络角度来看,学者吴江兴指出:随着互联网的多元化发展,在当前严格的网络运行机制下,传输控制、资源管理、配置和维护的复杂性成倍增加,导致网络效率降低、用户质量差。经验[13]。针对这一挑战,软件定义网络、网络功能虚拟化等未来网络技术以开放网络为目标,支持网络多元化、个性化服务和创新应用的发展,突破传统刚性网络架构的束缚,基线技术。软件定义网络和网络功能虚拟化,真正让网络层变得灵活,通过灵活实现开放,支持定制化创新,被云计算广泛认可和应用。基于当前边缘计算的发展困境以及云计算的前沿发展趋势,本文认为软化是推动边缘计算发展的潜在思路。在本文中,我们提出了一种全栈云原生边缘计算架构,将云原生技术与未来网络技术相结合,并提供对资源管理和计算网络集成的控制。考虑到边缘资源有限的特点,通过研究容器层次结构的特点,研究了一种低开销边缘服务部署的优化方法。最后,我们预测了云原生边缘计算将面临的发展挑战。
Docker 资源占用较少且部署速度快,允许您将每个应用程序打包到Docker 映像中。 Docker容器内的每个应用程序不需要与其他应用程序组合,也不依赖生产基础设施,为应用程序在开发、测试和生产过程中提供一致的环境。 Docker采用客户端/服务器模型,并使用远程应用程序编程接口(API,应用程序编程接口)来管理和创建Docker容器。 Docker 容器是通过Docker 镜像创建的。图像就像容器的模板。每次创建容器时,它都依赖于现有的镜像。 2)容器管理者仅仅依靠容器无法满足开发者的需求。现在一个集群中拥有上万个容器镜像已经是很常见的事情了,你可以对这些容器进行管理,包括控制容器的生命周期、迁移容器、调度容器之间的流量等,对于需要完整治理框架的开发者来说,Kubernetes就是最好的选择。目前使用最广泛的治理框架。 Kubernetes,称为K8s,是一个可移植且可扩展的开源平台,用于管理基于容器的微服务集群。 Kubernetes 允许您创建多个pod(Kubernetes 的基本单元),为每个pod 部署多个容器,为每个容器部署服务。然后,您可以实施一组内置或定制的服务。负载均衡策略微服务管理、注册和访问。开发者可以使用Kubernetes的kubectl组件来管理和控制其下的各个服务。 3)服务网格虽然Kubernetes通常可以完成微服务治理功能,但开发人员仍然会遇到其他问题。在实际生产环境中,微服务的实现方式各不相同,因此微服务之间进行通信时,开发人员需要提前调整通信接口和通信方式。此外,开发过程并不简单,因为交通控制和调度需要考虑环境中的各种因素。因此,服务网格出现了[19]。 Kubernetes 和服务网格的比较如图1 所示。 Service Mesh是服务之间通信的基础设施层,具有服务注册与发现、负载均衡、熔断降级、流量管理、监控等功能,极大地弥补了Kubernetes使用中的一些不足。
在服务网格中,每个微服务通过sidecar 代理服务间通信,因此大量的微服务及其对应的sidecar 以网格的形式出现,这就是名称服务网格的由来。服务网格可以部署在多种环境中,但最常用的是Kubernetes。服务网格(例如Istio 框架)与Kubernetes 高度兼容,Kubernetes 管理应用程序生命周期,服务网格提供应用程序间流量、安全管理和可观察性。 Kubernetes 的Kube-proxy 组件提供Kubernetes 服务中多个Pod 实例之间的流量负载均衡,但配置Kube-proxy 是全局性的,无法单独执行。豆荚,精细管理。服务网格将此功能隔离在Kubernetes 中并将其部署在sidecar 中。通过靠近微服务应用层的部署,不再需要支持Kubernetes 的Kube-proxy 组件来管理服务之间的通信和流量管理。负载平衡和可观察性。总的来说,Kubernetes使用Docker容器技术来部署和管理微服务,并实现自动部署、自动重启、自动复制、自动扩展等微服务功能。服务网格可以部署在Kubernetes 之上,并用于提高应用程序之间的灵活性。流量控制、安全管理和可观察性。
4)UnikernelUnikernel是一种特殊的单地址空间机器映像,允许直接访问底层硬件资源并消除不必要的硬件抽象。 Docker是一种有效的应用程序管理容器技术,解决了应用程序的可移植性问题。与虚拟机相比,Docker 镜像要小得多,但大小仍然只有几百兆字节。 Unikernel 进一步减小了大小,只需要几十兆甚至几兆字节。 Unikernel 将操作系统从架构中移除,应用程序直接在虚拟机管理程序或硬件上运行。您的应用程序不包含许多不必要的包和依赖项,这有效地提高了资源利用率。 Unikernel具有以下优点:
由于Unikernel体积小,只需包含应用程序所需的依赖和包,大大减小了体积; 速度快。 Unikernel内没有其他不必要的程序,有效减少了多个进程之间的任务切换和启动,旨在帮助中央处理器(CPU,中央处理单元)高效运行,它们还具有非常快的启动速度,通常只有20毫米,有时需要几毫秒,以便它们能够在用户需要时唤醒并做出响应。因此,unikernel被认为是实现云原生的重要支撑技术之一。
通常,单个容器无法满足微服务的所有需求,因此主流容器管理器(例如Kubernetes)将多个容器整合在一起,并将它们称为pod,这是最基本的处理单元,即将其用作服务。另外,在边缘计算场景中,由于资源限制,并非所有计算设备都适合部署虚拟机进行物理资源共享。因此,您还可以将Pod 及其包含的各种容器直接部署到物理服务器。无论Pod 部署在虚拟机还是物理服务器上,应用程序的开发、运维和维护都是透明的。也就是说,负责边缘应用开发、运维的人员关注的是Pod以及Pod提供的基础服务,而不需要关注物理资源的管控,由设施提供商负责。特别值得注意的是,本文提出的全栈架构引入了服务网格来实现异构服务之间标准化的流量通信管理。前面提到,每个服务对应一个sidecar,它与软件定义网络的数据平面集成,构成本文框架的数据层部分。该集成允许根据业务属性信息(业务名称、端口号等)定制网络层软件定义交换机中的流表,例如基于P4的网络数据面编程。除了遵循传统的软件定义网络之外,网络流管理和控制使用指定的属性信息来增加网络管理的深度和集成度,使网络流开放、灵活,通过全栈可定制化提供管理服务。方法。 4)控制层控制层集成了各层管理组件,如容器编排管理模块、服务网格控制器、软件定义网络控制器、虚拟网络功能编排管理模块MANO等。控制层和服务层分离,提供方便灵活的全栈边缘应用编排管理。容器编排管理模块根据应用需求、访问需求以及服务注册、部署、扩展、销毁等物理资源的动态变化,根据配置的规则,提供对容器完整的生命周期管理,可以实现。您可以使用Kubernetes 主节点组件来实现此功能。与之配合的是服务网格管理器(如Istio 控制器),它管理每个服务对应的sidecar 内的网络流量,以提供面向服务的负载均衡、安全监控、断路器和其他运行时操作。软件定义控制器通过南向接口(如Openflow)向软件定义交换机插入流表条目,以控制网络层数据流行为。服务网格控制器和软件定义控制器可以协同工作,从不同级别管理网络流。前者主要从服务角度对服务之间的流量进行逻辑控制,后者物理上实现前者的逻辑控制。网络功能管理模块与容器管理模块类似,但对各个虚拟网络功能的生命周期的管理有所不同。控制层各模块相互配合,实现计算网络一体化的高效调度,符合当前分布式计算的发展趋势。
04 边缘计算低开销微服务部署与资源相对丰富的云计算数据中心不同,边缘计算资源容量稀缺。将云原生技术应用于边缘计算时,资源开销是需要考虑的一个重要方面。部署微服务是云原生应用的关键基础,微服务的高效部署对于云原生边缘计算至关重要。 ——容器作为云原生支撑技术,也为低开销的微服务部署提供了新的优化点。尽管边缘计算中优化微服务部署的研究受到了广泛关注[20-21],但现有研究普遍考虑的是容器。这是因为轻量级虚拟机常常忽略分层属性。因此,在本节中,我们将探讨如何利用容器的分层属性来实现低开销的微服务部署优化。 4.1 容器层次结构和问题陈述容器不是作为一个整体来实现的,而是按照层次结构进行组织的。例如添加容器是基于Ubuntu系统,需要MySQL数据库支持。你会看到容器的底层是一个Ubuntu镜像,上面一层是MySQL层,再一层是必要的操作,形成一个完整的服务功能。显然,当多个容器部署在同一台物理机上时,如果容器之间共享层,可以有效减少开销。一方面,层共享消除了拉取镜像时需要拉取冗余的层,不仅减少了网络开销,而且有利于服务的快速启动,但另一方面,在边缘服务器不需要冗余的存储容器层。有效降低存储资源开销。边缘计算环境中的分布式服务器资源有限,需要部署的容器具有不同的计算和存储资源需求。如何综合考虑容器的分层特性,实现边缘计算环境和云端的低开销容器部署——NativeEdge计算至关重要。首先,我们构建了一个层次敏感、低开销的容器扩展优化理论模型,为了方便读者理解,我们对模型中包含的数学符号和定义进行了总结,数学符号和定义如表1所示。
4.2 优化低开销容器部署并考虑层共享
图4 主要考虑了增加容器数量对部署开销(通过存储使用情况衡量)的影响。从图4可以看出,随着容器数量的增加,三种算法所需的总存储空间也逐渐增加。比较三种算法,我们发现考虑层共享的部署方案在存储资源使用方面优于不考虑层共享的方案。此外,本文提出的松弛算法可以获得接近最优解的结果。如图4所示,当容器数量较少时,可以共享的层数有限,这限制了规划空间,使得松弛算法获得与最优解几乎相同的结果。随着容器数量的增加,总消耗量往往会随着占用空间的增加而增加。然而,如图4所示,使用层共享方法进行存储可以显着降低开销,并且随着容器数量的增加,好处变得更加明显。这是因为随着容器数量的增加,可以共享更多的层,层共享的好处也越来越明显。图5 服务器资源配置
升对部署开销的影响,将资源大小随倍数增加,随着存储空间、计算资源和通信资源的增加,同一个服务器上可部署的容器数量也会逐渐增加,越来越多的容器可以被部署在同一个服务器上,潜在地能够共享更多的层,从而降低容器的总部署开销,而无层共享的方案则一直需要相同的部署开销。实验结果证明了层共享在部署开销上的优势,当存储空间、计算资源和通信资源增加到一定程度时,所有容器可以部署在一个或少数几个服务器上,此时松弛算法和最优解取得了相同结果。 05展望与挑战尽管云原生对推动边缘计算发展具有极大的 潜力,工业界也相继推出了相关解决方案,但仍处于该方向研究的初始阶段。由于边缘计算环境与云计算数据中心的本质区别,云原生边缘计算还存在诸多挑战。本节将展望并分析可能存在的挑战。1) 广分布高异构资源管理边缘计算资源分散在不同地理分布的地方,如用户终端设备、通信基站、智能路由器、边缘服务器等。而云计算中的资源都是集中式的管理,因此云计算的资源管理方式和框架(如OpenStack)不适用于管理边缘计算分散的资源,亟需发展新的适应广分布高异构边缘资源管理的解决方案。目前,关于边缘计算资源的管控研究大多集中在算法层面,容易忽略在具体部署实践中的某些细节。此外,CPU架构差异(如X86与ARM)、硬件加速器并存(如FPGA、GPU等)、有线与无线共在等特性, 均对边缘资源管理带来了极大的挑战。尽管云原生使应用开发运行维护人员能够远离这些细节,但对基础设施管理人员提出了要求,需要其能够设计出上层应用透明,但又对上层应用特征敏感(如本文所述容器的分层结构)的高效解决方案。2) 分布式服务状态管理云原生计算中的微服务或者函数功能自身均 不保留状态,但实际上并非所有服务或函数都没有状态,状态管理因此成为云原生必须讨论的一个问题。在云原生边缘计算中,这一问题变得更突出,主要由于前述边缘计算平台环境自身的特征所致。此外,边缘计算中的服务请求可能具有高度移动性,以及由此导致的时空异构性。这都对云原生边缘计算的状态管理带来了新的挑战。显然,集中式的状态管理不适用于云原生边缘计算,亟需发展分布式服务状态管理方法。由于边缘计算环境的高时空异构动态性,服务会高速动态部署、销毁、扩容, 相应的分布式服务状态的存储位置(一份或多份拷贝)、存储方式(如内存或硬盘)、同步方式(若存 在多份状态拷贝)、更新方式(增量更新或全覆盖 更新)等均需要与服务的生命周期管理耦合匹配,实现高效的服务状态管控。3) 边缘智能的应用边缘智能随着边缘计算的发展逐渐成为一个热点话题。尽管边缘智能主要指在边缘计算平台上部署的各类人工智能应用,本文认为边缘智能的一个重要应用对象就是边缘计算平台自身。云计算数据中心需要自动化、智能化运行维护方案,广分布高异构且资源供需动态性高的边缘计算平台更需要智能化运行维护。然而,相较于云数据中心,基于边缘智能的边缘平台运行维护面临着环境复杂和算力有限两方面挑战。如海量的微服务需要在拓扑非规则、资源高异构的边缘平台上进行部署、扩容、缩容等操作,同时伴随着服务请求的高度时空动态性,需观测的数据不仅数量大而且维度大,并且对数据处理的时效性要求高。这都与算力有限的边缘服务器构成矛盾,通过云边端融合构建分布式的边缘智能环境,通过智能体协作共同完成云原生边缘计算运行时的智能管控是潜在的发展途径。强化学**(包括深度强化学**)、联邦学**、迁移学**等都是潜在的支撑技术。4) 云原生边缘应用安全与隐私云原生的核心支撑技术是容器。相较于虚拟机,容器的不足之处是其低隔离性。低隔离性导致部署在同一物理机或虚拟机上的不同容器不仅存在资源竞争,并且存在安全与隐私风险。然而,云原生难于摈弃低隔离性的容器在于其轻便性,两者很难兼得。因此,在可能有多边缘计算设施提供商以及多边缘服务提供商共存的云原生边缘计算环境中,保障边缘应用的安全与隐私势在必行。本文认为,利用可信执行环境(TEE,trust execution environment)是潜在的解决方案之一。当前各个主流的CPU厂商均推出了自己的TEE 产品,如Intel公司的SGX、ARM公司的TrustZone等。然而,TEE为了保障业务的安全保密执行,也引来了诸多 必须考虑的因素。如SGX的安全内存空间有限,而TrustZone 的CPU要求独占。容器(包括安全容器与非安全容器)的编排调度,如何与TEE的特征相适应,是亟待研究的一个方向。 06结 束 语云原生技术在云计算中的应用为边缘计算的发展指明了新的潜在发展方向。本文首先简要介绍了云原生的相关概念与关键技术。在此基础上,针对边缘计算的场景特征,融入软件定义网络与网络功能虚拟化,提出了全栈式的云原生边缘计算架构。该架构通过控制层面与服务层面的抽象剥离,能够实现高效的算网协同边缘资源管理与应用运行维护。进一步地,针对云原生的技术特征,本文研究了容器分层特性敏感的低开销容器部署优化方案。通过该实例研究表明,云原生边缘计算中的资源管控必须考虑云原生自身所引入的新特征。最后,展望了云原生边缘计算发展所面临的新挑战。总之,云原生非常契合边缘计算,尽管它是一个新兴的概念与技术,随着研究的不断深入,未来一定能够得到巨大的发展,期待这个领域内部的技术突破。参考文献 参考文献:[1] XU J, CHEN L X, ZHOU P. Joint service caching and task offloading for mobile edge computing in dense networks[C]//IEEE INFOCOM 2018 - IEEE Conference on Computer Communications. IEEE, 2018: 207-215.[2] CHEN X, JIAO L, LI W Z, et al. Efficient multi-user computation offloading for mobile-edge cloud computing[J]. IEEE/ACM Transactions on Networking, 2016, 24(5): 2795-2808.[3] DAI Y Y, XU D, MAHARJAN S, et al. Joint computation offloading and user association in multi-task mobile edge computing[J]. IEEE Transactions on Vehicular Technology, 2018, 67(12): 12313-12325.[4] ZHOU Y Q, TIAN L, LIU L, et al. Fog computing enabled future mobile communication networks: a convergence of communication and computing[J]. IEEE Communications Magazine, 2019, 57(5): 20-27.[5] QI Y L, TIAN L, ZHOU Y Q, et al. Mobile edge computing-assisted admission control in vehicular networks: the convergence of communication and computation[J]. IEEE Vehicular Technology Magazine, 2019, 14(1): 37-44.[6] ZHOU Y Q, LIU L, WANG L, et al. Service-aware 6G: an intelligent and open network based on the convergence of communication, computing and caching[J]. Digital Communications and Networks, 2020, 6(3): 253-260.[7] KRóL M, MASTORAKIS S, ORAN D, et al. Compute first networking: distributed computing meets ICN[C]//The 6th ACM Conference on Information-Centric Networking. ACM, 2019: 67-77.[8] 刘泽宁, 李凯, 吴连涛, 等. 多层次算力网络中代价感知任务调度算法[J]. 计算机研究与发展, 2020, 57(9): 1810-1822.LIU Z N, LI K, WU L T, et al. CATS: cost aware task scheduling in multi-tier computing networks[J]. Journal of Computer Research and Development, 2020, 57(9): 1810-1822.[9] PORAMBAGE P, OKWUIBE J, LIYANAGE M, et al. Survey on multi-access edge computing for Internet of Things realization[J]. IEEE Communications Surveys & Tutorials, 2018, 20(4): 2961-2991.[10] TALEB T, SAMDANIS K, MADA B, et al. On multi-access edge computing: a survey of the emerging 5G network edge cloud architecture and orchestration[J]. IEEE Communications Surveys & Tutorials, 2017, 19(3): 1657-1681.[11] LEBRE A, PASTOR J, SIMONET A, et al. Revising OpenStack to operate fog/edge computing infrastructures[C]//2017 IEEE International Conference on Cloud Engineering (IC2E). IEEE, 2017: 138-148.[12] NIU Y P, LIU F M, LI Z P. Load balancing across microservices[C]//IEEE INFOCOM 2018 - IEEE Conference on Computer Communications. IEEE, 2018: 198-206.[13] 邬江兴. 新型网络技术发展思考[J]. 中国科学: 信息科学, 2018, 48(8): 1102-1111.WU J X. Thoughts of the development of novel network technology[J]. SCIENTIA SINICA Informationis, 2018, 48(8): 1102-1111.[14] 朱建军, 方琰崴. 面向服务的5G云原生核心网及关键技术研究[J]. 数字通信世界, 2018(2): 111.ZHU J J, FANG Y W. Research on service oriented 5g cloud native core network and its key technologies[J]. Digital Communication World, 2018(2): 111.[15] 王全. 云原生Cloud Native核心网方案及关键技术[J]. 中国新通信, 2018, 20(9): 61-62.WANG Q. Cloud native core network scheme and key technologies[J]. China New Telecommunications, 2018, 20(9): 61-62.[16] 胡聪丛. 无服务器计算的现状以及所面临的挑战[J].网络安全技术与应用,2019(12):84-85.HU C C. The current situation and challenges of serverless computing[J]. Network Security Technology & Application, 2019(12): 84-85.[17] HUNG Y H, WANG C Y. Fog micro service market: Promoting fog computing using free market mechanism[C]//2018 IEEE Wireless Communications and Networking Conference (WCNC). IEEE, 2018: 1-6.[18] YU R, KILARI V T, XUE G, et al. Load balancing for interdependent IoT microservices[C]//IEEE Conference on Computer Communications. IEEE, 2019.[19] LI W B, LEMIEUX Y, GAO J, et al. Service mesh: challenges, state of the art, and future research opportunities[C]//2019 IEEE International Conference on Service-Oriented System Engineering (SOSE). IEEE, 2019: 122-1225.[20] VILLARI M, CELESTI A, TRICOMI G, et al. Deployment orchestration of microservices with geographical constraints for Edge computing[C]//2017 IEEE Symposium on Computers and Communications (ISCC). IEEE, 2017: 633-638.[21] Wang Y, Zhao C, Yang S, et al. MPCSM: Microservice Placement for Edge-Cloud Collaborative Smart Manufacturing[J]. IEEE Transactions on Industrial Informatics, 2020. 作者简介曾德泽(1984?),男,中国地质大学(武汉)教授、博士生导师,主要研究方向为边缘计算、未来网络技术、物联网等。陈律昊(1996?),男,中国地质大学(武汉)硕士生,主要研究方向为边缘计算、微服务部署等。顾琳(1985?),女,华中科技大学副教授,主要研究方向为边缘计算、未来网络技术等。李跃鹏(1994?),男,中国地质大学(武汉)博士生,主要研究方向为边缘计算、任务调度、可信执行环境等。关于物联网学报《物联网学报》是由工业和信息化部主管,人民邮电出版社主办的中文学术期刊,办刊宗旨是“服务科学发展,传播科学知识,促进科技创新,培养科技人才”。







