API Key 配置
配置 AI 模型 API Key,解锁本站代码运行、AI 代码助手和智能聊天功能。
🔒 隐私声明
所有 API Key 仅保存在您的浏览器本地存储(localStorage)中
本网站不会上传、收集或存储任何您的 API Key
配置通用模型
选择供应商后自动填充模型列表和 Base URL,也可手动修改。本站 AI 功能(代码助手、智能聊天、代码解释等)将使用您配置的模型。
⚠️ 尚未配置任何 API Key请先配置至少一个 API Key
支持的模型一览
| 供应商 | Base URL | 常用模型 |
|---|---|---|
| OpenAI | https://api.openai.com/v1 | gpt-4.1-nano · gpt-4.1-mini · gpt-4.1 · gpt-4o · o3-mini |
| DeepSeek | https://api.deepseek.com | deepseek-chat · deepseek-reasoner |
| Anthropic | https://api.anthropic.com | claude-sonnet-4-5 · claude-haiku-4-5 · claude-opus-4-5 |
| Kimi (Moonshot) | https://api.moonshot.ai/v1 | kimi-k2 · moonshot-v1-8k · moonshot-v1-128k |
| 通义千问 (Qwen) | https://dashscope.aliyuncs.com/compatible-mode/v1 | qwen-max · qwen-plus · qwen-turbo |
| 智谱 GLM | https://open.bigmodel.cn/api/paas/v4 | glm-4-plus · glm-4 · glm-4-flash |
| 硅基流动 | https://api.siliconflow.cn/v1 | DeepSeek-V3 · Qwen2.5-72B · DeepSeek-R1 |
如何获取 API Key
• OpenAI: 访问 platform.openai.com
• DeepSeek: 访问 platform.deepseek.com
• Anthropic: 访问 console.anthropic.com
• Kimi (Moonshot): 访问 platform.moonshot.cn
• 通义千问: 访问 dashscope.console.aliyun.com
• 智谱 GLM: 访问 open.bigmodel.cn
• 硅基流动: 访问 cloud.siliconflow.cn
• DeepSeek: 访问 platform.deepseek.com
• Anthropic: 访问 console.anthropic.com
• Kimi (Moonshot): 访问 platform.moonshot.cn
• 通义千问: 访问 dashscope.console.aliyun.com
• 智谱 GLM: 访问 open.bigmodel.cn
• 硅基流动: 访问 cloud.siliconflow.cn
验证 API Key
保存 API Key 后,运行以下示例验证配置是否成功。
示例 1:流式输出测试(OpenAI)
python
import os
from openai import OpenAI
client = OpenAI(api_key=os.environ.get("OPENAI_API_KEY"))
stream = client.chat.completions.create(
model="gpt-4.1-nano",
messages=[{"role": "user", "content": "用一句话介绍 Python 的优势"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
print()示例 2:使用 DeepSeek 模型
python
import os
from langchain_deepseek import ChatDeepSeek
llm = ChatDeepSeek(
model="deepseek-chat",
api_key=os.environ.get("DEEPSEEK_API_KEY")
)
response = llm.invoke("用一句话介绍什么是机器学习")
print(response.content)示例 3:使用 Anthropic Claude
python
import os
from langchain_anthropic import ChatAnthropic
llm = ChatAnthropic(
model="claude-sonnet-4-5-20250514",
api_key=os.environ.get("ANTHROPIC_API_KEY")
)
response = llm.invoke("用一句话介绍因果推断")
print(response.content)示例 4:LangGraph 简单图
创建一个最简单的 LangGraph 状态图,实现 AI 问答功能:
python
import os
from langgraph.graph import StateGraph, START, END
from langchain_openai import ChatOpenAI
from typing import TypedDict
class State(TypedDict):
question: str
answer: str
def answer_node(state: State):
llm = ChatOpenAI(
model="gpt-4.1-nano",
api_key=os.environ.get("OPENAI_API_KEY")
)
response = llm.invoke(state["question"])
return {"answer": response.content}
graph = StateGraph(State)
graph.add_node("answer_node", answer_node)
graph.add_edge(START, "answer_node")
graph.add_edge("answer_node", END)
app = graph.compile()
result = app.invoke({"question": "什么是 LangGraph?用中文简单介绍"})
print(result["answer"])切换模型提示
- 教程中的代码默认使用 OpenAI 模型
- 如需使用其他模型,请参考上述示例修改代码中的模型名称
- 系统会自动将您配置的 API Key 通过环境变量注入到代码运行环境中
开始学习
配置完成后,开始您的学习之旅:
- 社科与 Python 快速上手 — 从零基础到数据分析
- Python 与统计计量 — 统计推断与因果识别
- 大模型 AI 助力科研 — LLM、RAG、智能体
- 机器学习 & 因果推断 — 预测建模与因果效应