Skip to content

部署指南

部署 AI 应用比标准 Web 应用更难,因为长时间运行的请求 (流式传输)高计算需求 (如果托管模型)

部署选项

平台最适合优点缺点
VercelNext.js 应用最简单,边缘网络,AI SDK 集成。Hobby 计划的超时限制 (10s/60s)。
Cloudflare全球低延迟Workers AI (免费 Llama 3!), 最便宜。非 Node.js 运行时 (仅 Edge)。
AWS / GCP企业级无限扩展,自定义 VPC。设置复杂 (Terraform, IAM)。
Railway / RenderDocker 应用简单,允许长超时。默认没有边缘网络。

决策矩阵

超时问题

标准 Serverless 函数通常在 10-60 秒后超时。GPT-4 生成长报告可能需要 30 秒以上。

解决方案:

  1. 流式传输 (Streaming): 保持连接活跃 (Vercel 支持此功能)。
  2. 后台任务 (Background Jobs): 使用 Inngest or Trigger.dev 在后台运行 AI 任务,然后推送结果。
  3. 专用服务器 (Dedicated Servers): Docker 容器 (Railway) 没有硬性超时限制。

下一步