Skip to content

API Key 配置

配置 AI 模型 API Key,解锁本站代码运行AI 代码助手智能聊天功能。

🔒 隐私声明

所有 API Key 仅保存在您的浏览器本地存储(localStorage)中

本网站不会上传、收集或存储任何您的 API Key

配置通用模型

选择供应商后自动填充模型列表和 Base URL,也可手动修改。本站 AI 功能(代码助手、智能聊天、代码解释等)将使用您配置的模型。

⚠️ 尚未配置任何 API Key请先配置至少一个 API Key

支持的模型一览

供应商Base URL常用模型
OpenAIhttps://api.openai.com/v1gpt-4.1-nano · gpt-4.1-mini · gpt-4.1 · gpt-4o · o3-mini
DeepSeekhttps://api.deepseek.comdeepseek-chat · deepseek-reasoner
Anthropichttps://api.anthropic.comclaude-sonnet-4-5 · claude-haiku-4-5 · claude-opus-4-5
Kimi (Moonshot)https://api.moonshot.ai/v1kimi-k2 · moonshot-v1-8k · moonshot-v1-128k
通义千问 (Qwen)https://dashscope.aliyuncs.com/compatible-mode/v1qwen-max · qwen-plus · qwen-turbo
智谱 GLMhttps://open.bigmodel.cn/api/paas/v4glm-4-plus · glm-4 · glm-4-flash
硅基流动https://api.siliconflow.cn/v1DeepSeek-V3 · Qwen2.5-72B · DeepSeek-R1

如何获取 API Key

OpenAI: 访问 platform.openai.com
DeepSeek: 访问 platform.deepseek.com
Anthropic: 访问 console.anthropic.com
Kimi (Moonshot): 访问 platform.moonshot.cn
通义千问: 访问 dashscope.console.aliyun.com
智谱 GLM: 访问 open.bigmodel.cn
硅基流动: 访问 cloud.siliconflow.cn

验证 API Key

保存 API Key 后,运行以下示例验证配置是否成功。

示例 1:流式输出测试(OpenAI)

python
import os
from openai import OpenAI

client = OpenAI(api_key=os.environ.get("OPENAI_API_KEY"))

stream = client.chat.completions.create(
    model="gpt-4.1-nano",
    messages=[{"role": "user", "content": "用一句话介绍 Python 的优势"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
print()

示例 2:使用 DeepSeek 模型

python
import os
from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
    model="deepseek-chat",
    api_key=os.environ.get("DEEPSEEK_API_KEY")
)
response = llm.invoke("用一句话介绍什么是机器学习")
print(response.content)

示例 3:使用 Anthropic Claude

python
import os
from langchain_anthropic import ChatAnthropic

llm = ChatAnthropic(
    model="claude-sonnet-4-5-20250514",
    api_key=os.environ.get("ANTHROPIC_API_KEY")
)
response = llm.invoke("用一句话介绍因果推断")
print(response.content)

示例 4:LangGraph 简单图

创建一个最简单的 LangGraph 状态图,实现 AI 问答功能:

python
import os
from langgraph.graph import StateGraph, START, END
from langchain_openai import ChatOpenAI
from typing import TypedDict

class State(TypedDict):
    question: str
    answer: str

def answer_node(state: State):
    llm = ChatOpenAI(
        model="gpt-4.1-nano",
        api_key=os.environ.get("OPENAI_API_KEY")
    )
    response = llm.invoke(state["question"])
    return {"answer": response.content}

graph = StateGraph(State)
graph.add_node("answer_node", answer_node)
graph.add_edge(START, "answer_node")
graph.add_edge("answer_node", END)

app = graph.compile()
result = app.invoke({"question": "什么是 LangGraph?用中文简单介绍"})
print(result["answer"])

切换模型提示

  • 教程中的代码默认使用 OpenAI 模型
  • 如需使用其他模型,请参考上述示例修改代码中的模型名称
  • 系统会自动将您配置的 API Key 通过环境变量注入到代码运行环境中

开始学习

配置完成后,开始您的学习之旅:

基于 MIT 许可证发布。内容版权归作者所有。