大模型API接入指南
从零开始学习如何调用各大AI模型的API,包含完整代码示例
15分钟
2025-12-17
教程API开发代码
大模型API接入指南
一、概述
大模型API是开发者接入AI能力的主要方式。本教程将详细介绍如何调用主流大模型的API。
准备工作:
- Python 3.8+环境
- 安装openai库:
pip install openai - 获取对应平台的API Key
二、OpenAI API (GPT系列)
获取API Key
- 访问 platform.openai.com
- 注册/登录账号
- 进入 API Keys 页面创建密钥
基础调用
from openai import OpenAI
client = OpenAI(api_key="your-api-key")
response = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "你好,请介绍一下你自己"}
],
temperature=0.7,
max_tokens=1000
)
print(response.choices[0].message.content)
流式输出
stream = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "写一首关于春天的诗"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
价格参考
| 模型 | 输入价格 | 输出价格 |
|---|---|---|
| GPT-4o | $2.5/1M | $10/1M |
| GPT-4o-mini | $0.15/1M | $0.6/1M |
| GPT-4-turbo | $10/1M | $30/1M |
三、Anthropic API (Claude系列)
获取API Key
- 访问 console.anthropic.com
- 注册账号并创建API Key
基础调用
from openai import OpenAI
# Claude API兼容OpenAI格式
client = OpenAI(
api_key="your-anthropic-key",
base_url="https://api.anthropic.com/v1"
)
response = client.chat.completions.create(
model="claude-sonnet-4-20250514",
messages=[
{"role": "user", "content": "解释一下量子计算的基本原理"}
],
max_tokens=1000
)
print(response.choices[0].message.content)
使用官方SDK
import anthropic
client = anthropic.Anthropic(api_key="your-key")
message = client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
messages=[
{"role": "user", "content": "你好Claude!"}
]
)
print(message.content[0].text)
价格参考
| 模型 | 输入价格 | 输出价格 |
|---|---|---|
| Claude Opus 4.5 | $15/1M | $75/1M |
| Claude Sonnet 4 | $3/1M | $15/1M |
| Claude Haiku 3.5 | $0.25/1M | $1.25/1M |
四、DeepSeek API
获取API Key
- 访问 platform.deepseek.com
- 注册并创建API Key
基础调用
from openai import OpenAI
client = OpenAI(
api_key="your-deepseek-key",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "user", "content": "用Python实现快速排序"}
],
temperature=0.7
)
print(response.choices[0].message.content)
价格(超高性价比)
| 模型 | 输入价格 | 输出价格 |
|---|---|---|
| DeepSeek V3.2 | ¥1/1M | ¥2/1M |
| DeepSeek Coder | ¥1/1M | ¥2/1M |
五、API聚合平台
OpenRouter(推荐)
一个API Key访问200+模型:
from openai import OpenAI
client = OpenAI(
api_key="your-openrouter-key",
base_url="https://openrouter.ai/api/v1"
)
# 可以调用任意支持的模型
response = client.chat.completions.create(
model="anthropic/claude-sonnet-4", # 或 openai/gpt-4o
messages=[
{"role": "user", "content": "你好"}
]
)
print(response.choices[0].message.content)
优势:
- 统一API格式
- 支持200+模型
- 自动fallback
- 详细的使用统计
硅基流动(国内推荐)
from openai import OpenAI
client = OpenAI(
api_key="your-siliconflow-key",
base_url="https://api.siliconflow.cn/v1"
)
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V3",
messages=[
{"role": "user", "content": "你好"}
]
)
print(response.choices[0].message.content)
优势:
- 国内访问快
- 支持主流国产模型
- 价格优惠
六、最佳实践
1. 错误处理
from openai import OpenAI, APIError, RateLimitError
client = OpenAI(api_key="your-key")
try:
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好"}]
)
except RateLimitError:
print("请求太频繁,请稍后重试")
except APIError as e:
print(f"API错误: {e}")
2. 环境变量管理
import os
from dotenv import load_dotenv
load_dotenv()
client = OpenAI(
api_key=os.getenv("OPENAI_API_KEY")
)
3. 控制成本
- 使用
max_tokens限制输出长度 - 简单任务用小模型(mini/haiku)
- 开启缓存减少重复请求
- 监控API用量
七、常见问题
Q: API Key安全吗?
永远不要在前端代码中暴露API Key,应该通过后端代理调用。
Q: 如何选择模型?
- 简单对话:GPT-4o-mini / DeepSeek
- 复杂推理:GPT-4o / Claude Opus
- 代码生成:Claude / DeepSeek Coder
- 预算有限:DeepSeek(性价比最高)
Q: 国内如何访问?
推荐使用硅基流动、OpenRouter等聚合平台,或配置代理。