Software 2.0
  • 首页
  • AI应用
  • AI开发包
  • AI数据集
  • AI模型库
  • AI工具箱
  • 在线课程
  • 自学指南
Subscribe
Tagged

TRITON INFERENCE SERVER

A collection of 2 posts

大模型推理加速与服务优化
DEVOPS

大模型推理加速与服务优化

使用 Triton Inference Server 部署 TensorRT-LLM 并设置与 OpenAI 兼容的 API 可实现高效、高性能的推理大型语言模型。

admin Nov 29, 2024 • 9 min read
Triton推理服务器YOLO部署教程
TOOL

Triton推理服务器YOLO部署教程

Triton Inference Server 由 NVIDIA 开发,是一个开源平台,旨在简化生产中 AI 和深度学习模型的部署、扩展和优化。

admin Nov 19, 2024 • 7 min read
Software 2.0 © 2026
Powered by Ghost