在计算机发展的早期,负载均衡是一个手动过程。管理员手动配置 DNS 设置,在服务器之间分配流量。
专用负载均衡设备的概念出现于 20 世纪 90 年代。思科和 F5 Networks 等公司开始开发硬件负载均衡器,提供更复杂、更自动化的流量分配方法。
随着开源软件的兴起,HAProxy(2001 年发布)和 NGINX(2004 年发布)等基于软件的负载均衡器开始流行。与硬件负载均衡器相比,这些解决方案具有灵活性和成本效益。
云计算的出现为负载均衡带来了新的挑战和机遇。亚马逊网络服务(AWS)、微软 Azure 和谷歌 GCP 等云提供商推出了自己的负载平衡服务,这些服务与云基础设施无缝集成,为云原生应用提供了可扩展性和可靠性。
如今,负载均衡器已成为现代 IT 基础设施的重要组成部分。它们已经发展到可以支持复杂的微服务架构、Kubernetes 等容器编排平台以及混合云环境。
下图显示了使用负载均衡器的前 6 种情况。
1.流量分配
负载均衡器可在多台服务器之间均匀分配进入的流量,防止任何一台服务器不堪重负。这有助于保持应用程序或网站的最佳性能、可扩展性和可靠性。
2.高可用性
负载均衡器可将流量从故障或不健康的服务器重新路由到健康的服务器,从而提高系统可用性。即使某些服务器出现问题,也能确保服务不中断。
3.SSL 终止
负载均衡器可以卸载后端服务器的 SSL/TLS 加密和解密任务,从而减少其工作量并提高整体性能。
4.会话持久性
对于需要在特定服务器上保持用户会话的应用,负载均衡器可以确保用户的后续请求被发送到同一服务器。
5.可扩展性
负载均衡器可有效管理增加的流量,从而促进横向扩展。可以轻松地将更多服务器添加到池中,负载均衡器将在所有服务器之间分配流量。
6.健康监控
负载均衡器持续监控服务器的健康状况和性能,将故障或不健康的服务器从池中移除,以保持最佳性能。