随着行业组织努力分析并从不断增长的数据中获取价值,云计算架构和基础设施将成为2021年IT组织的热门话题。
在云架构方面,有些组织可能会效仿超大规模公司采用多云。另一些组织采用他们的混合云或选择内部部署IT即服务,而对于另一些组织来说,采用多云更具意义。人工智能、容器和可组合的基础设施对许多组织来说可能很重要,因为他们试图更好地利用自己的数据资产。
以下是一些行业知名首席技术官和分析师在对企业基础设施和云计算架构发展进行预测时提到的技术和方法。首席技术官们分享了他们对行业可能产生重大影响的趋势或2021年及以后的技术路线图的不同看法,分析师为组织采取的下一步行动提供了方向。
对云计算架构的预测
希捷技术公司首席技术官John Morris表示,越来越多的组织将采用超大规模云计算架构,以实现规模和效率方面的改进,这是传统企业架构中不存在的。公共云不适用于所有用例。隐私和法规可能影响使用公共云的决策。随着时间的推移,将会看到数据和基础设施从云平台遣返回到内部部署设施或私有基础设施中。通过云遣返,组织将希望获得与云平台类似的规模和效率。
超大规模架构的三个关键要素是使用对象存储、采用分解和可组合的基础设施,以及利用分层来获得正确的存储类型和比率。
HPE公司存储业务部门高级副总裁兼总经理Tom Black表示,在2021年,越来越多的组织将迁移到云平台。像AWS公司这样的超大规模企业的服务正在向内部部署迁移,并为其客户提供本地计算和存储服务。HPE GreenLake的业务不断增长,目前已经签订了超过40亿美元的合同,这表明客户对云服务的更多需求。
他认为,现在很多组织处在多云和混合IT环境中。随着用户致力于寻求避免云计算锁定,多云世界正日益成为现实。采用的云平台并非一刀切,不同的领域采用不同的云平台。例如,谷歌云平台以提供人工智能/数据分析著称,组织可以通过采用内部部署设施用于任务关键型应用程序;AWS云平台可以用于DevOps。
Pure Storage公司首席技术官Alex McMullan认为有些组织并不用部署多云。采用多云可能成本高昂,可以采用混合云降低成本,从业务角度来看,有些组织采用多云并没有太大意义。
IBM公司闪存存储业务首席技术官兼研究员Andy Walls表示,2020年发生的冠状病毒疫情将加速组织构建混合云的需求和愿望,并且其数据可以轻松地往返于云平台。
一些组织在2020年确实推动了某些部门将物联网迁移到云平台中的工作,而在另一些部门中,实际上还有更多的外部存储支持。很多人担心冠状病毒疫情会导致向云平台的大规模迁移,而外部存储应用量将会下降,但并不会发生这种事。人们将会看到更多的要求,即内部基础设施的设置必须能够实现自动化,更加灵活,,并且重要的应用程序可以迁移到云平台中或从云平台中遣返。
Evaluator Group公司高级策略师兼分析师Randy Kerns表示,今年将更加专注于针对容器的私有云或混合云基础设施的部署。大多数组织已经在虚拟机环境中进行了大量投资,主要是使用VMware。而现在,许多开发人员都在交付基于容器的云原生应用程序。
组织的运营人员通常会为容器设置单独的环境。现在将看到的是更加协同的工作,需要IT组织确定战略方向。此外,还发现很多组织对支持容器的基础设施非常感兴趣,例如OpenShift或Rancher。这些组织希望部署某种预先打包并提供支持的服务,并且可以更快地投入使用。
企业基础设施的发展趋势
戴尔技术公司存储部门高级副总裁兼首席技术官Sudhir Srinivasan表示,2021年将是传统供应商提供IT即服务的元年。很多组织一直在使用云计算IT即服务,但是现在他们希望在内部部署数据中心使用,这导致了诸如Amazon Outposts等产品的推出。去年下半年,戴尔技术公司推出了Project Apex。它使其客户摆脱了IT的业务管理工作,通过供应商进行管理。客户可以决定何时需要更多服务,如果不需要,可以停止使用不再支付费用。
NetApp公司混合云工程高级副总裁Octavian Tanase表示,很多组织希望采用使用人工智能技术的基础设施将数据存储在正确的存储层上,从传统的近线SAS HDD到第二代存储类内存。存储操作系统将根据应用程序签名使用人工智能,并根据服务等级协议(SLA)决定在成本更低的设施中存储数据。
Dragon Slayer咨询公司创始人兼总裁Marc Staimer表示,到今年年底,大多数追求高性能的存储系统将从每端口100Gb提高到200Gb,甚至将达到400Gbps。
一些处于行业前沿的IT组织已经要求2021年的项目必须以每个端口200Gbps或更快的速度进行,因为需要分析的数据量增长的速度超过了带宽所能处理的速度。他们必须拥有更新、更好、更快、更大、更广泛的服务和产品。通常情况下,在人工智能/分析中,这是吞吐量问题,而不是IOPS问题。组织需要在最短的时间内获取尽可能多的数据进行分析。到今年年底,200Gbps将成为主流标准。但是关注带宽和吞吐量的组织可以选择更高的带宽,这其中包括大型制药、能源、媒体和娱乐等行业组织。
IDC公司研究副总裁Eric Burgener表示,越来越多的组织购买人工智能/机器学习驱动的下一代工作负载存储平台,这将加速新型横向扩展非结构化存储系统的增长,从而在2021年产生显著影响。
客户正在为部署人工智能/机器学习驱动的大数据分析工作负载的合适平台类型而陷入困境,这些工作负载必须同时处理低延迟、随机、小文件I/O和高吞吐量、连续的大文件I/O。而处理数据超过20PB的环境是一个挑战,很多的组织在现有的并行文件系统中遇到了这些限制。这为新的设计提供了机会。将会看到初创公司拥有真正的并行文件系统,实现分布式元数据、跨文件和对象的统一全局命名空间,以及专门重写以在PB级以上规模运行的数据保护和数据缩减算法。
新的CXL互连
美光公司新兴产品和企业战略高级副总裁Raj Hazra表示,CXL这个主要互连技术将在未来18至24个月内为前所未有的系统架构创新打开大门。CXL更改了将内存和存储连接到计算的方式。
如今,内存通过内存总线连接到CPU。内存的类型和生成(例如DDR4或DDR5)由供应商的CPU决定。同样,用户不能轻松地混合使用不同类型的设备、内存、加速器、FPGA和GPU,因为它们都使用由CPU特性决定的不同接口,并且对可连接设备的数量存在物理限制。CXL是一个开放接口,用于标准化所有类型设备的单个互连。它不是客户必须为特定CPU许可的专有接口。它提供了将CPU连接到任何东西的能力。CXL是朝着创建更多内存和存储层次结构迈进的必要步骤,从而允许系统满足不同的工作负载需求。
从数据中提取价值
英特尔公司Optane持久性内存产品高级总监Kristie Mann表示,冠状病毒疫情确实改变了现状,并开始加速人工智能的出现和向数字化的迁移。很多组织在原有的数据库基础设施的基础上构建分析的能力。越来越多的组织采用先进的零售和视频推荐引擎,进行更多的交互式多人游戏,并在边缘产生更多的内容。金融服务行业对使用分析进行信用卡欺诈检测很感兴趣。
希捷技术公司首席技术官John Morris表示,2020年的数据增长了30%,但是存储数据的百分比却逐年下降,在未来五年中可能从5%下降到不足3%。其中一部分的原因是数据的经济性,另一部分的原因是从数据中提取价值。因此,将会看到机器学习技术在数据创建的源头、端点和边缘计算得到更广泛的采用,以释放数据中的价值。目前,针对特定用例解决方案的更好示例之一是自动驾驶汽车,但随着时间的推移还会出现更多的例子。
Evaluator Group公司高级策略师兼分析师Randy Kerns表示,将看到更多的数据流加速器和处理器卸载,首先集中在机器学习和人工智能领域,然后转移到更传统的IT环境中。一旦采用了可以在存储和服务器之间利用固态设备和NVMe协议的环境,就可以在那里进行大量加速。
下一个瓶颈是处理数据的能力。中央处理器致力于完成越来越多的工作,以尝试更快地处理数据。有几种措施可以更快地提供数据以进行计算并释放处理器的能力。一种方法是将智能功能插入智能网卡等插件卡中。VMware公司使用Nvidia BlueField SmartNIC的VMware Project Monterey减轻了数据处理的负担。另一种方法是使用计算存储,将某些处理移至各个设备,因此不必传输太多数据。
IBM公司闪存存储业务首席技术官兼研究员Andy Walls指出,计算存储的兴起有两个原因,一是成立SNIA工作组,二是超大规模制造商不断增长的需求。为了执行人工智能和处理所需的所有数据,仅在执行“if”语句时就浪费了处理器的大量时间。如果可以让SSD硬盘查找这些数据并发送这些数据,则可以节省大量的处理时间。
应对安全挑战
希捷技术公司首席技术官John Morris指出,安全一直是一个充满挑战的领域,人们几乎每天都会听到有关安全问题的新闻。组织将更广泛地采用安全措施,以确保设备或数据不受损害。区块链将成为关键的驱动力,可以使多方参与交易并能够建立受信任的交易。目前有许多重要的开放项目。例如,微软公司的Project Cerberus和谷歌公司的OpenTitan试图围绕“信任根”的基础设施建立标准。但现在并没有一个简单的方法可以在众多组件之间建立信任根。
该标准的采用将使来自各种供应商的组件能够在整个基础设施中部署“信任根”。要广泛采用还需要数年的时间,但是其原型和概念证明已经出现。最早采用信任根的根源是在系统级别,然后再扩展到系统组件,其中包括HDD硬盘和SSD硬盘。