MLOps 팀은 마이크로서비스 및 API(둘 다 AI 배포에 필수적)를 관리하는 팀이 NGINX를 채택한 것과 같은 이유로 NGINX 제품을 도입할 수 있습니다.
가볍고 모듈식이며 휴대가 가능하며 다양한 환경에서 많은 양의 토큰을 처리합니다. AI 개발자와 머신 러닝 엔지니어는 공통 AI 레시피를 구축하는 일환으로 NGINX를 배포하여 플랫폼 또는 MLOps 팀에서 구성한 컨테이너 이미지를 가져올 수 있습니다.
NGINX는 가장 일반적인 플랫폼 및 프로세서 아키텍처에서 하드웨어 가속과 통합됩니다.
NGINX를 기본 옵션으로 나열하는 AI 구성 요소는 낮은 수준의 GPU 스케줄링에서 높은 수준의 모델 제공, 배포 오케스트레이션 및 엔터프라이즈급 거버넌스에 이르기까지 AI 인프라의 전체 스펙트럼을 포괄합니다. 이 두 보고서는 NGINX가 추론 엔드포인트로 트래픽을 안전하게 라우팅하고, 확장 가능하고 효율적인 모델 제공을 지원하고, 멀티 테넌트 클러스터 액세스를 관리하고, 버전 제어, 감사 및 규정 준수에 대한 운영 정책을 시행하는 등 광범위한 사용 사례를 지원하는 방법을 보여줍니다.
- KServe: 배포 가이드는 라우팅 추론 서비스를 위해 기존 NGINX 수신 컨트롤러 도메인을 가정합니다.
- Ray Serve: 설명서에는 대시보드 및 모델 엔드포인트를 노출하도록 NGINX Ingress Controller를 구성하는 지침이 포함되어 있습니다.
- Seldon Core v2: 프로덕션 배포 장에서는 카나리아 및 섀도우 트래픽 시나리오를 포함하여 Helm을 통해 NGINX Ingress Controller 설정을 설명합니다.
- Run:ai: 사전 요구 사항은 NGINX를 다중 테넌트 GPU 공유 Kubernetes 클러스터에 대한 검증된 수신 컨트롤러로 나열합니다.
- AWS SageMaker: 설명서에서는 NGINX 및 Gunicorn을 사용하여 사용자 지정 추론 컨테이너를 전면에 배치하는 예제를 제공합니다.
- Azure AKS: Microsoft는 클러스터 내 수신 트래픽에 대한 기본 제공 기본 제공 옵션으로 관리형 NGINX 수신 컨트롤러를 제공합니다.
- DataRobot: 설치 지침에서는 EKS의 휴대용 예측 서버에 대한 경로 기반 라우팅을 위해 NGINX Ingress Controller(v4.0.0+)를 사용할 것을 권장합니다.
지난 10년 동안 NGINX 오픈 소스는 세계에서 가장 널리 사용되는 웹 서버 중 하나였으며 시장 점유율 기준 최고의 애플리케이션 제공 솔루션이었습니다. 소규모 스타트업 및 학술 연구 프로젝트부터 세계 최대 규모의 웹 애플리케이션에 이르기까지 모든 것을 로드 밸런싱하고 역 프록시하는 데 도움이 되었습니다.
애플리케이션 제공을 위한 기본 선택이 된 것처럼, NGINX는 조용히 AI 애플리케이션을 훈련하고 제공하는 데 중요한 핵심이 되었습니다. Intel OpenVINO Model Server, NVIDIA Morpheus, Meta의 vLLM, NVIDIA Triton 등과 같은 선도적인 AI 프레임워크, 툴킷, 라이브러리 및 플랫폼은 gRPC/HTTP 프록시, SSL/TLS 종료, 상태 확인 인식 로드 밸런싱 및 동적 재구성을 즉시 처리할 수 있는 F5 NGINX Plus(및 NGINX 오픈 소스)용 기본 구성과 함께 제공됩니다. Kubernetes 클러스터에서 실행되는 수많은 AI 서비스 및 솔루션은 모델 훈련 및 추론을 위해 AI 클러스터 안팎의 트래픽을 관리하기 위해 선호하는 옵션 중 하나로 F5 NGINX Ingress Controller를 나열 합니다. 커버를 벗기면 AI를 찾을 수 있는 거의 모든 곳에서 실행되는 것을 볼 수 있습니다.
AI를 찾을 수 있는 거의 모든 곳에서 실행되는 것을 볼 수 있습니다
다양한 AI 사용 사례에서 NGINX는 AI 스택의 핵심 조력자입니다. 파운데이션 모델을 미세 조정하든, LLM에서 토큰 출력을 스트리밍하든, 실시간 이상 탐지 엔드포인트로 요청을 라우팅하든, NGINX는 이미 경로에 있을 가능성이 높습니다.
AI 팀이 NGINX Plus를 선택하는 이유
주요 AI 프레임워크, 도구 및 관리형 서비스는 NGINX를 통합합니다.
NGINX는 많은 주요 AIOps 스택, 도구 및 관리형 서비스에 대한 기본 수신 Ingress 중 하나입니다.

MLOps 팀은 마이크로서비스 및 API(둘 다 AI 배포에 필수적)를 관리하는 팀이 NGINX를 채택한 것과 같은 이유로 NGINX 제품을 도입할 수 있습니다.
가볍고 모듈식이며 휴대가 가능하며 다양한 환경에서 많은 양의 토큰을 처리합니다. AI 개발자와 머신 러닝 엔지니어는 공통 AI 레시피를 구축하는 일환으로 NGINX를 배포하여 플랫폼 또는 MLOps 팀에서 구성한 컨테이너 이미지를 가져올 수 있습니다.
NGINX는 가장 일반적인 플랫폼 및 프로세서 아키텍처에서 하드웨어 가속과 통합됩니다.
NGINX를 기본 옵션으로 나열하는 AI 구성 요소는 낮은 수준의 GPU 스케줄링에서 높은 수준의 모델 제공, 배포 오케스트레이션 및 엔터프라이즈급 거버넌스에 이르기까지 AI 인프라의 전체 스펙트럼을 포괄합니다. 이 두 보고서는 NGINX가 추론 엔드포인트로 트래픽을 안전하게 라우팅하고, 확장 가능하고 효율적인 모델 제공을 지원하고, 멀티 테넌트 클러스터 액세스를 관리하고, 버전 제어, 감사 및 규정 준수에 대한 운영 정책을 시행하는 등 광범위한 사용 사례를 지원하는 방법을 보여줍니다.
NGINX는 MLOps에 대한 포장된 경로를 제공합니다.
전체적으로 이러한 플랫폼과 도구는 낮은 수준의 GPU 스케줄링부터 높은 수준의 모델 제공, 배포 오케스트레이션 및 엔터프라이즈급 거버넌스에 이르기까지 AI 인프라의 전체 스펙트럼에 걸쳐 있습니다. 이 두 보고서는 NGINX가 추론 엔드포인트로 트래픽을 안전하게 라우팅하고, 확장 가능하고 효율적인 모델 제공을 지원하고, 멀티 테넌트 클러스터 액세스를 관리하고, 버전 제어, 감사 및 규정 준수에 대한 운영 정책을 시행하는 등 광범위한 사용 사례를 지원하는 방법을 보여줍니다. 목록이 확장되고 있으며 차세대 AI 네이티브 기업이 NGINX를 사용하여 무엇을 구축할지 기대됩니다.
위 내용과 같이 NGINX Plus를 활용하여 Demo 가 필요하시면 하단의 전문가에게 상담받기 버튼을 클릭해주세요.
전문가에게 상담받기