OpenAI API太贵!这款开源AI网关让你100+大模型随便调用,真心香

不知道你有没有遇到过这种痛点:

同时对接了OpenAI、Anthropic、Gemini、AWS Bedrock等多家大模型,每家都有不同的SDK、不同的认证方式、不同的调用格式,改来改去烦死了?

OpenAI API太贵!这款开源AI网关让你100+大模型随意调用,真心香

今天给大家推荐一款超级实用的开源神器——LiteLLM,它帮你统一了100+大模型的调用接口,不管你用哪家的模型,都能用完全一致的OpenAI格式调用,省心省力!

目前项目已经斩获 43.9k Star,是Y Combinator孵化项目,Stripe、Netflix都在用,绝对靠谱!

1️⃣ 什么是LiteLLM到底解决了什么问题

开发AI应用时,你是不是常常遇到这些麻烦:

  • 每家大模型都要单独集成SDK,代码改到你怀疑人生
  • 切换模型供应商,整个调用代码要重写一遍
  • 团队多人开发,每个人用不同模型,格式不统一很难维护
  • 想要做负载均衡、密钥管理、花费追踪,全都要自己写

LiteLLM就是来解决这些问题的!它是一个开源AI网关,给你提供:

  • 统一API接口:100+大模型,全部用OpenAI格式调用
  • 可本地部署:完全私有化,数据安全自己掌控
  • 企业级功能:虚拟密钥、花费追踪、防护栏、负载均衡开箱即用
  • 超低延迟:P95延迟仅8ms @ 1000 QPS,性能拉满

简单说就是:一次对接,全家通吃,所有大模型随意换!

OpenAI API太贵!这款开源AI网关让你100+大模型随意调用,真心香

2️⃣ 核心功能拆解

统一接口,开箱即用

LiteLLM支持100+ 大模型提供商,几乎涵盖了你能想到的所有主流模型:

厂商

支持情况

OpenAI

✅ 完整支持

Anthropic

✅ 完整支持

Google Gemini

✅ 完整支持

AWS Bedrock

✅ 完整支持

Azure OpenAI

✅ 完整支持

字节豆包

✅ 完整支持

通义千问

✅ 完整支持

文心一言

✅ 完整支持

DeepSeek

✅ 完整支持

Groq

✅ 完整支持

本地部署模型

✅ 支持VLLM/Ollama等

不止聊天补全、嵌入、图片生成、语音转录全都支持,统一接口格式完全和OpenAI一致!

OpenAI API太贵!这款开源AI网关让你100+大模型随意调用,真心香

两种使用方式,超级灵活

方式一:直接用Python SDK,快速集成

uv add litellm

代码超简单,不管你调用哪个模型,写法几乎一模一样:

from litellm import completion
import os

# 设置各厂商API Key
os.environ["OPENAI_API_KEY"] = "你的openai-key"
os.environ["ANTHROPIC_API_KEY"] = "你的anthropic-key"

# 调用OpenAI GPT-4o
response1 = completion(
    model="openai/gpt-4o", 
    messages=[{"role": "user", "content": "Hello!"}]
)

# 调用Anthropic Claude,只需要改model名字!
response2 = completion(
    model="anthropic/claude-sonnet-4-20250514", 
    messages=[{"role": "user", "content": "Hello!"}]
)

# 调用DeepSeek,还是一样的写法!
response3 = completion(
    model="deepseek/deepseek-chat",
    messages=[{"role": "user", "content": "Hello!"}]
)

看到没?**只需要改model名字,其他代码完全不用变!**这就是统一接口的魅力!

方式二:部署AI网关服务,团队共用

如果你想给整个团队统一管理所有大模型调用,LiteLLM提供了开箱即用的代理服务器:

uv tool install 'litellm[proxy]'
litellm --model gpt-4o

启动之后,它会在本地4000端口启动服务,你就可以像调用OpenAI一样调用它:

import openai
client = openai.OpenAI(
    api_key="任何字符串", 
    base_url="http://0.0.0.0:4000"
)
response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Hello!"}]
)

作为团队统一网关的好处太多了:

  • 虚拟密钥管理:给不同团队/项目分发不同密钥,方便管理
  • 花费追踪:谁用了多少钱,一目了然,控制成本
  • 负载均衡:多个API Key轮询,自动分摊压力
  • 内置管理面板:可视化查看用量、监控请求,超级方便
  • 防护栏:可以设置内容安全防护,防止违规内容

3️⃣ LiteLLM vs 直接调用,优势对比

我整理了一个简单的对比,看看LiteLLM到底好在哪里:

功能

直接各家SDK

LiteLLM统一网关

多模型统一接口

❌ 每家格式都不一样

✅ 全OpenAI格式

代码复用

❌ 切换模型要重写

✅ 只改model名

密钥统一管理

❌ 分散在各个项目

✅ 网关统一管控

花费统计追踪

❌ 需要自己做

✅ 开箱即用

负载均衡

❌ 需要自己做

✅ 开箱即用

本地私有化部署

❌ 不支持

✅ 完全支持

开源免费

✅ 部分收费

✅ 完全免费

看得出来,只要你对接超过1个大模型,LiteLLM绝对是刚需!

OpenAI API太贵!这款开源AI网关让你100+大模型随意调用,真心香

4️⃣ 5分钟快速部署教程

我这里说一下用Docker快速部署网关服务,这是最简单的方式:

第一步:创建配置文件

model_list:
  - model_name: gpt-4o
    litellm_params:
      model: openai/gpt-4o
      api_key: os.environ/OPENAI_API_KEY
  - model_name: claude-sonnet
    litellm_params:
      model: anthropic/claude-3-5-sonnet-20241022
      api_key: os.environ/ANTHROPIC_API_KEY
  - model_name: gemini-pro
    litellm_params:
      model: gemini/gemini-pro
      api_key: os.environ/GEMINI_API_KEY

把你的API Key配置到环境变量就好了。

第二步:启动Docker容器

docker run -p 4000:4000 
  -v $(pwd)/config.yaml:/app/config.yaml 
  -e OPENAI_API_KEY=your_key 
  -e ANTHROPIC_API_KEY=your_key 
  -e GEMINI_API_KEY=your_key 
  ghcr.io/berriai/litellm:main-latest

三分钟就启动好了!

第三步:测试调用

curl http://localhost:4000/v1/chat/completions 
  -H "Content-Type: application/json" 
  -H "Authorization: Bearer sk-1234" 
  -d '{
    "model": "gpt-4o",
    "messages": [
      {
        "role": "user",
        "content": "Hello!"
      }
    ]
  }'

就这么简单!返回格式跟OpenAI一模一样。

启动之后,你还可以访问 http://localhost:4000/ui 看到管理后台,查看所有模型的使用情况,超级方便。

OpenAI API太贵!这款开源AI网关让你100+大模型随意调用,真心香

5️⃣ 谁适合用LiteLLM?

推荐使用

  • 正在开发AI应用,需要对接多个大模型
  • 团队开发,需要统一管理API密钥和花费
  • 想自由切换不同厂商,避免被某一家绑死
  • 需要私有化部署,对数据安全有要求
  • 追求极简开发,不想重复写适配代码

不推荐使用

  • 只调用一个OpenAI模型,不需要对接多个,那的确 没必要
  • 完全不想自己维护服务,那直接调用官方API就行

6️⃣ 总结

LiteLLM真的是一款解决痛点的好工具,统一接口这个想法实则不难,但是做到这么成熟稳定真的不容易。

我觉得它最大的价值就是解耦:你的应用代码和具体的大模型厂商解耦了。今天你用OpenAI,明天想换成Anthropic,后天想换成国产模型,代码完全不用改,只需要改个配置就行。

对于企业团队来说,这个价值更大,统一入口,统一管理,成本可控,数据安全也有保障。

项目完全开源免费,Star增长超级快,社区超级活跃,最近一天一个版本,值得一试!

7️⃣ 互动环节

你目前项目里对接了几个大模型?有没有被不同API格式折磨过吗?欢迎在评论区留言交流!


喜爱这篇文章别忘了点个赞,关注我,持续分享国产开源替代好工具!

© 版权声明

相关文章

暂无评论

none
暂无评论...