通过本文中讨论的流量控制和流量精分(速率限制、断路、调试路由、A/B 测试、灰度部署和蓝绿色部署)来提高 Kubernetes 应用的弹性,并学习 NGINX 的产品如何使流量控制和流量精分更容易实现。
隆重推出 NGINX Instance Manager — 可大规模跟踪、配置和监控 NGINX 开源版和 NGINX Plus 实例的全新工具
The more ways you leverage the power of NGINX, the more of challenge it can be to track and manage the NGINX Open Source and NGINX Plus instances across your infrastructure. Introducing NGINX Instance Manager, one tool for tracking, configuring, and monitoring NGINX at scale.
生产级 Kubernetes 助您降低复杂性
我们解释了生产级 Kubernetes 如何解决部署基于容器化微服务的应用程序的挑战,包括文化、复杂性和安全性。 除了 Kubernetes 基础设施之外,您还需要一个可扩展的 Ingress 控制器、WAF 和服务网格。
借助 OpenID Connect 和 NGINX Ingress Controller 实现简单而强大的单点登录
NGINX Ingress Controller 现在支持使用 OpenID Connect (OIDC) 单点登录。版本 1.10.0 还引入了额外的配置队列指标、日志注释、改进的注释和 secret 验证、支持 NGINX App Protect 用户定义的签名等。
借助 NGINX 在 Let's Encrypt 中使用免费 SSL/TLS 证书
阅读本文了解如何使用 Let'sEncrypt 客户端生成 RSA 证书并使用最新颁发的证书来自动配置 NGINX。
将 NGINX 部署为 API 网关,第 3 部分:发布 gRPC 服务
此文为《将 NGINX 部署为 API 网关》系列博文的第三部分,主要关注于如何将 NGINX Plus 部署为 gRPC 服务的 API 网关,并介绍了其他相关的丰富功能。gRPC 是 REST API 的替代方案,尤其适用于建构以服务网格的形式实现的分布式应用。
将 NGINX 部署为 API 网关,第 2 部分:保护后端服务
在我们的 API 网关系列的第二篇文章中,Liam 向您展示了如何针对您的 API 服务可能出现的问题未雨绸缪并做好准备。您可以使用速率限制、访问限制、请求大小限制和请求正文验证来阻止非法或过于繁重的请求。缓冲区溢出
将 NGINX 部署为 API 网关,第 1 部分
NGINX 和 NGINX Plus 先进的 HTTP 处理能力,使其成为构建 API 网关的理想平台。我们将在本文介绍 API 用例,展示如何配置 NGINX 以高效、可扩展且易于维护的方式处理它们,并提供完整的 NGINX 配置。
借助自动化为云原生应用加速
Automation is essential to delivering modern digital experiences. We've created four video demos showing how to automate deployment of NGINX Plus and NGINX App Protect, NGINX Controller, an NGINX Plus data plane using Controller, and GSLB using F5 DNS Cloud Services.
NGINX 和 HAProxy:基于公有云标准环境的用户体验测试对比
我们比较了 HAProxy 和 NGINX 的反向代理性能。在请求率大到让 HAProxy 达到 100% 的 CPU 利用率前,两者的性能是相近的。但当 CPU 利用率达到 100% 时,HAProxy 的性能会出现显著下降,而 NGINX 则继续保持其性能,且几乎没有延迟。