IT 现代化和创新新技术显着改变了医疗保健行业。本博客系列探讨了Apache Kafka 的数据流如何实现实时数据处理和业务流程自动化。真实世界的例子展示了传统企业和初创公司如何提高效率、降低成本并改善整个医疗保健价值链(包括制药、保险、供应商、零售和制造)的人类体验。这是第二部分:遗留现代化和混合多云。示例包括 Optum / UnitedHealth Group、Centene 和 Bayer。
博客系列 - 医疗保健中的 Kafka
如今,许多医疗保健公司都在利用 Kafka。用例存在于整个医疗保健价值链的每个领域。大多数公司在不同的业务领域部署数据流。用例经常重叠。我尝试将一些真实世界的部署归类为不同的技术场景,并添加了一些真实世界的示例:
- 概述-医疗保健数据流用例和架构(包括幻灯片)
- 这篇文章:遗留现代化和混合云 (Optum / UnitedHealth Group、Centene、Bayer)
- 流式 ETL(拜耳、巴比伦健康)
- 实时分析(Cerner、Celmatix、CDC/疾病控制和预防中心)
- 机器学习和数据科学(递归,Humana)
- 开放 API 和全渠道(Care.com、Invitae)
作为本博客系列的一部分,请继续关注针对每个主题的专门博客文章。一旦博客可用(在接下来的几周内),我将在此处链接这些博客。
使用 Kafka 进行遗留现代化和混合多云
应用程序现代化受益于混合集成方案的 Apache Kafka 生态系统。
大多数企业需要在IBM Mainframe、Oracle、SAP ERP 等遗留系统与Snowflake、MongoDB Atlas 或 AWS Lambda 等现代云原生应用程序之间进行可靠且可扩展的集成。
我之前已经探索过“分布式、混合、边缘和全球 Apache Kafka 部署的架构模式” :
TL;DR:存在多种跨数据中心、区域和大洲部署 Apache Kafka 的替代方案。没有单一的最佳架构。它始终取决于 RPO/RTO、SLA、延迟、吞吐量等特征。
一些部署侧重于本地到云的集成。其他人将 Kafka 集群连接到多个云提供商。Apache Kafka 的 MirrorMaker 2、Confluent Replicator、Confluent Multi-Region-Clusters 和 Confluent Cluster Linking 等技术有助于构建这样的基础设施。
让我们看一下医疗保健领域的一些实际部署。
Optum(United Health Group)——云原生 Kafka 即服务
Optum 是一家美国药房福利管理公司和医疗保健提供商。它是联合健康集团的子公司。Apache Kafka 基础架构作为内部服务提供,由 200 多个内部应用程序团队集中管理和使用。
Optum 构建了一种可重复、可扩展且经济高效的数据标准化方法。他们利用整个 Kafka 生态系统:
- 从多个资源中摄取数据(Kafka Connect)
- 数据丰富(表连接和流式 API)
- 聚合和指标计算(Kafka Streams API)
- 下沉数据到数据库(Kafka Connect)
用于提供数据的近实时 API
Optum 的 Kafka 峰会演讲探索了他们的数据流发展的历程和成熟度曲线。
如您所见,旅程始于本地的自我管理 Kafka 集群。随着时间的推移,他们迁移到云原生 Kubernetes 环境并构建了内部 Kafka-as-a-Service 产品。目前,Optum 致力于多云企业架构,以跨多个云服务提供商进行部署。
Centene - 跨基础设施并购的数据集成
Centene 是美国最大的 Medicaid 和 Medicare 管理式医疗服务提供商。医疗保险公司充当政府赞助和私人保险医疗计划的中介。Centene 的使命是“帮助人们过上更健康的生活,并帮助使卫生系统更好地为每个人服务”。
Centene 的关键挑战很有趣:增长!过去十年发生了许多并购:Envolve、HealthNet、Fidelis 和 Wellcare。
在各种系统、基础设施和云环境之间实时进行大规模数据集成和处理是一项相当大的挑战。正如他们在在线谈话中解释的那样,Kafka 为 Centene 提供了宝贵的功能:
- 高度可扩展
- 高度自治/解耦
- 高可用性和数据弹性
- 实时数据传输
- 复杂流处理
事件驱动的集成架构利用 Apache Kafka 和 MongoDB:
Bayer - 混合多云数据流
拜耳公司是世界上最大的制药公司之一,是一家德国跨国制药和生命科学公司。他们在各种用例和业务领域中利用 Kafka。以下场景来自孟山都公司。
拜耳采用了云优先战略,并开始了向云的多年过渡,以提供跨混合和多云基础设施的实时数据流。
基于Kafka的跨数据中心 DataHub促进了迁移和向实时流处理的转变。它提供强大的企业采用并支持无数用例。Apache Kafka 生态系统是在本地数据中心和多个云提供商之间构建双向流复制和集成架构的“中间件” :
拜耳的Kafka之旅是从AWS开始的。之后,一些项目团队在 GCP 上工作。与此同时,DevOps 和云原生技术实现了底层基础设施的现代化。如今,拜耳运营着一个多云基础设施,拥有成熟、可靠和可扩展的流处理用例:
了解拜耳的旅程以及他们如何使用 Apache Kafka 及其生态系统构建混合和多云企业数据中心:拜耳的 Kafka 峰会演讲。
使用 Kafka 跨混合云和多云基础设施进行数据流传输
想想物联网传感器分析、网络安全、患者沟通、保险、研究和许多其他领域。几乎所有地方的医疗保健供应链中,实时数据都胜过慢速数据。
这篇博文探讨了使用 Apache Kafka 进行数据流传输以实现 IT 基础架构现代化和构建混合多云架构的价值。Optum、Centene 和 Bayer 的实际部署展示了企业如何针对企业架构中的不同用例成功部署 Kafka。