关于边缘计算需要了解的4件事

千家网

    边缘计算已在今天技术时代思潮中占据一席之地,已经成为发掘新颖性和前沿思维的主题之一。近年来,人们一直认为这种计算方式是探索未来的重要方式。但是直到现在,关于边缘计算的很多讨论仍只是假设性的,因为支持边缘计算所需的基础设施尚未完善。
    
    现在,从微数据中心到专用处理器到必要的软件,再到进入应用开发人员、企业家以及大型企业手中,边缘计算的资源正发生巨大的改变。在回答有关边缘计算的有用性和含义的问题时,我们可以跳出理论。那么,现实世界的证据告诉我们关于这一趋势是什么?特别是,边缘计算的炒作是否值得,还是不合时宜?
    接下来,我们将简要探讨一下边缘计算市场的现状。归根结底,现实证据表明边缘计算是一种出于成本和性能考虑的去中心化应用的真实需求。边缘计算的某些方面被大肆宣传,而另一些方面却不为所动。以下四个方面的内容主要对边缘计算现在和将来的功能作简要探讨,让大家对边缘计算有一个更更加全面的了解。
    1、边缘计算不仅仅只是降低延迟
    边缘计算是一种使计算和数据存储更接近所需位置的范例。它与传统的云计算模型形成鲜明对比,传统的云计算模型中的计算集中在少数几个超大规模数据中心中。这里所说的边缘可以是比传统云数据中心更靠近最终用户或设备的任何地方。它可以是100公里或1公里之外,也可以是本地或终端设备上。
    无论采用哪种方法,传统的边缘计算描述介绍都强调边缘计算的核心功能是使延迟最小化,以改善用户体验或启用对延迟比较敏感的新应用。延时对很多应用确实不利,尽管缓解延迟是一个重要的应用,但它可能不是最有价值的应用。边缘计算的另一个应用是最大程度地减少往返于云端的网络流量或是人们常说的云卸载,这可能会带来与缓解延迟相同的经济价值。
    随着科技的快速发展,移动设备流量急剧增长。但是由于自身资源及计算性能有限,智能移动设备在处理计算密集型和时间敏感型应用时可能面临着能力不足的情况。边缘计算针对传统云计算能力不足,在移动用户附近的无线接入网络边缘提供云计算功能,满足快速交互响应的需求,提供普遍且灵活的计算服务。为使用边缘网络提供的服务,移动设备如何将所承担的任务卸载到边缘服务器,进行高效合理的卸载决策,已经成为目前边缘计算问题的主要研究方向。
    云卸载的主要驱动因素是用户、设备或传感器生成的数据量的爆发性增长。应对边缘计算中的数据挑战的初创公司Macrometa的首席执行官Chetan Venkatesh表示“从根本上讲,边缘是一个数据问题。”之所以出现云卸载,是因为迁移所有这些数据需要花费大量的金钱,许多人宁愿不将数据迁移到其他地方。边缘计算提供了一种从生成的数据中提取价值的方法,而且永远不会将其移出边缘。如有必要,可以将数据优化为更经济的子集,发送到云端进行存储或进一步分析。
    云卸载的一个非常典型的应用是处理视频或音频数据,这是最耗费带宽的两种数据类型。
    2、边缘是云的延伸
    尽管早期有炒作说明边缘计算会取代云,但其实说边缘扩展了云的范围更准确一些。它不会影响到越来越多的应用将迁移到云端的发展趋势。但是,去中心化的数据中心和按需设计和使用的微云将变得越来越多。这些边缘云中心同样使用从传统云中心演变而来的工具和方法进行管理,并且随着时间的流逝,云与边缘之间的界线将变得越来越模糊。
    
    例如,当前无论是AWS还是Microsoft Azure都会根据用户不同的应用需求,推荐不同的产品。如果用户是一家希望进行本地边缘计算的企业,那么亚马逊现在会向他发送一个AWS Outpost,这是一个完全组装好的计算和存储机架,可以模仿亚马逊自己的数据中心的硬件设计。它安装在客户自己的数据中心中,并由Amazon监视、维护和升级。重要的是,边缘运行AWS用户依赖的许多相同服务,例如EC2计算服务,从而使边缘在操作上类似于云。 Microsoft的Azure Stack Edge产品也有类似的目标。这些产品传递了一个明确的信号,即云提供商希望将云和边缘基础架构统一在一个保护伞下。
    3、边缘基础设施正在逐步完善
    尽管某些应用最好在本地运行,但在许多情况下,用户希望从边缘计算中受益,却不希望在本地投资过多。这就需要访问一种新型的基础架构,该基础架构看起来很像云,但是在地理上比如今构成云的几十个超大规模数据中心分布得更多。这种基础架构现在才刚起步,并且它可能会分三个阶段发展,每个阶段都通过越来越广泛的地理分布扩展边缘范围。
    阶段1:多区域和多云
    要实现快速的计算服务响应,就必须就近提供计算服务,那么覆盖多区域的边缘基础设施必不可少。例如,AWS在22个地理区域设有数据中心,另外还有四个已宣布建设。为北美和欧洲用户提供服务的AWS客户可以在北加利福尼亚州和法兰克福地区运行其应用。从一个区域到多个区域可以大大减少延迟,对于大量应用程序来说,这就是提供良好用户体验所需要的。
    阶段2:区域优势
    边缘演进的第二阶段将边缘扩展到更深一层,利用数百或数千个位置的基础架构,而不是仅在几十个城市中的超大规模数据中心。事实证明,有一些参与者已经拥有这样的基础架构足迹:内容交付网络。CDN作为边缘计算的先驱已有二十年了,它们将静态内容缓存到更接近最终用户的位置,以提高性能。 AWS有22个区域,而像Cloudflare这样的典型CDN有194个。
    
    现在不同的是,这些CDN已开始向通用工作负载开放其基础结构,而不仅仅是静态内容缓存。如今,诸如Cloudflare,Fastly,Limelight,StackPath和Zenlayer之类的CDN都提供了容器即服务,VM即服务、裸机即服务和无服务器功能的某种组合。换句话说,他们开始看起来更像云提供商。具有前瞻性的云提供商(例如Packet和Ridge)也提供了此类基础架构,而AWS又迈出了提供更多区域化基础架构的第一步,引入了第一个所谓的洛杉矶本地区域,并承诺将提供更多本地区域。
    阶段3:访问边缘
    边缘演进的第三阶段将边缘进一步向外扩展,以至与最终用户或设备仅相距一两个网络跃点。在传统的电信术语中,这称为网络的访问部分,因此这种类型的体系结构已被标记为访问边缘。Access Edge的典型外形是微型数据中心,甚至可以部署在路边或蜂窝网络塔楼的底部。
    Vapor IO、EdgeMicro和EdgePresence等新进入者已经开始在美国的少数城市中建立这些微型数据中心。2019年是第一个主要扩建年份,2020年至2021年将继续在这些扩建项目上投入大量资金。
    早期采用者已经以多种方式利用了区域边缘,包括用于各种云卸载应用以及减轻了用户体验非常关键的一些应用(如在线游戏,广告服务和电子商务)中的延迟。相比之下,自动驾驶汽车、无人机、AR/VR、智慧城市、远程医疗等对于边缘访问的要求更高。
    4、需要新软件来管理边缘
    上面概述了边缘计算的各种应用,边缘计算将可以出现在任何地方。但是,无论边缘位于何处,都可以使用相同的工具和流程来管理云和边缘。这将需要对用于在云中部署、扩展和管理应用程序的软件进行升级,而软件在设计时就需要考虑到单个数据中心。
    现在,支持边缘计算的资源不断涌现,不过边缘计算仍处于起步阶段,但已从理论转向实际应用。目前行业还在迅速发展过程中,云也只有14年的发展历史而已,因此,我们完全有理由相信边缘计算将给人类带来巨大的改变。