NGINX.COM
Web Server Load Balancing with NGINX Plus

安全且高性能的 API 网关

NGINX Plus 专为分布式架构和 DevOps 实践而设计。NGINX Plus 作为反向代理,可安全地接受来自客户端的 API 调用,并将其路由到适当的后端服务。它提供了具有超低延迟的 API,并且可以轻松扩展到每秒处理 30000 多个请求。

为什么使用 NGINX Plus 作为 API 网关?

  • 灵活性
  • 可扩展性
  • 可观测性
  • 安全性

借助不受平台限制的 API 网关,横跨任何云平台、任何架构以及任何现代协议实现部署。

  • 现代协议 – 交付任何基于 HTTP 的 API,无论同步 API(REST、gRPC、GraphQL、SOAP 等)还是异步 API(WebSockets、webhook 等)。
  • 平台独立性 – 可在裸机、Kubernetes、本地、云环境中或边缘进行部署
  • 可扩展 – 借助 NGINX JavaScript 模块编写自定义的中间件或实现请求转换

借助以每秒可处理 30,000 多个请求且比竞争对手延迟低 1000 倍的 API 网关,实现快速且规模化交付 API。

  • 高可用性 – 借助双活或主备实现高可用性(HA)集群,避免单点故障
  • 服务发现 – 使用 DNS 为 API 运行时实现自动化的服务发现及负载均衡
  • 高级路由 – 借助 A/B 测试、灰度部署、蓝绿部署以及更多技术来优化交付

访问实时指标和历史数据,以实现对 API 流量的可视性以及洞察。

  • 主动健康检查 – 主动监控您的服务,在问题出现之前就将其解决
  • 实时监控 – 创建实时仪表板并访问超过 200 多项实时指标
  • 统一视图 – 将日志和指标导出到您首选的应用性能监测工具(APM)提供商

使用身份验证、授权、速率限制等策略,为 API 和后端服务提供安全防护。

  • 访问控制 – 使用 OpenID Connect(OIDC)等方式对 API 进行身份验证和授权,用于单点登录(SSO)、OAuth、JWT 等
  • 速率限制 – 通过根据请求的任意属性来应用速率限制,确保后端服务不会被错误代码或恶意 API 客户端所淹没
  • 强制执行请求方法 – 通过强制执行特定的请求方法(如 GET)来保护服务,以确保您的服务是只读的

了解更多

将 NGINX 部署为 API 网关

Ebooks

将 NGINX 部署为 API 网关

本电子书更新于 2022 年,其中解释了如何将 NGINX 用作 API 网关,并循序渐进地向您展示了如何设置、配置以及防护 API 网关(包括了针对基于 HTTP 的 API 和 gRPC API 的进行路由网关)。

 
选择合适的 API 网关模式,实现有效的 API 交付

Blog

选择合适的 API 网关模式,实现有效的 API 交付

API 对很多企业越来越重要,因此,为应用交付基础架构选择正确的 API 网关方式变的至关重要。在这里,我们探讨了五种模式:边缘网关、双层网关、微网关、per-pod 网关和 sidecar 网关。

 
将 NGINX 部署为 API 网关,第 1 部分

Blog

将 NGINX 部署为 API 网关,第 1 部分

NGINX 和 NGINX Plus 先进的 HTTP 处理能力,使其成为构建 API 网关的理想平台。我们将在本文介绍 API 用例,展示如何配置 NGINX 以高效、可扩展且易于维护的方式处理它们,并提供完整的 NGINX 配置。