跨本地、混合和多云环境,安全地交付 Kubernetes 应用和微服务,通过降低复杂性、增加正常运行时间和大规模的详细实时可见性,改善客户体验。
在本地、云环境和边缘扩展、观测、管理和保护 Kubernetes 应用。通过深化安全性、可用性和可观测性,增强云提供商和预封装 Kubernetes 产品的功能。
降低复杂性、缓解工具蔓延问题,更好地了解容器化工作负载的应用运行状况和性能。
避免在动态环境中产生应用连接问题,并在这些问题影响客户之前发现和解决问题。
在不影响安全性的前提下,在多租户开发团队中简化自助服务功能。
利用统一且集成的企业级工具集,支持包括 API 网关和负载均衡器在内的各种用例。在分布式环境中集成强大的安全控制,同时无损发布速度和性能。通过快速、动态的重新配置和自适应负载均衡功能,提供更好的客户体验。使用实时和历史数据,通过丰富且细化的指标和仪表板,快速解决应用问题。
在不增加复杂性和开销的情况下,确保 Kubernetes 应用从边缘到云的安全性。通过零信任、持续认证和授权 (AuthN/AuthZ)、访问控制、端到端加密、第 7 层 OWASP 和 DoS 防护以及切实可行的见解,在网络安全威胁对组长和客户造成损害之前即缓解此类威胁。
利用 200 多个细化的实时和历史指标及仪表板,在问题影响客户之前即发现问题,从而减少中断和避免停机时间,以及简化故障排除流程。通过使用常用生态系统工具(包括 OpenTelemetry、Prometheus 和 Grafana)预建集成,收集、监控和分析数据。
利用 NGINX Kubernetes 原生工具,在 Kubernetes 集群边缘实施 API 网关。为跨本地、混合和多云环境的 API 调用提供路由、安全保护和监控策略执行,从而降低复杂性、简化操作并提高应用发布速度。
利用跨 Kubernetes Pod 的高级第 7 层(HTTP、gRPC)和第 4 层(TCP、UDP)负载均衡功能,动态不间断地适应拓扑变化、会话持久性和主动运行状况检查,从而增加正常运行时间并提高性能,防止连接超时和错误。利用蓝色/绿色模式、金丝雀模式、速率限制模式和断路器连接管理模式,避免停机。
了解如何使用 NGINX 部署、配置、管理、保护和监控 Kubernetes 入口控制器,以便在本地和云中交付应用和 API。