注意:本教程是基于LangChain进行的简单教程
1. 安装LangChain的相关Python包:
pipinstalllangchain_openai pipinstalllangchain_core2.准备相关api_key
打开LangChain官网,登录账号(没有账号便注册,这里我直接用的谷歌登录,需要非大陆节点)
点击左侧栏的“Tracing Projects”,然后新增一个项目
创建LangChain的api,并在创建好了后保存该api
也可在左侧栏setting——API Keys中进行创建
完成信息填写后记得复制弹出来的api信息
3.准备语言模型的API
本次示例用的是openai的模型,需要到对应官网注册创建,openai官网>openai官网
创建完毕后复制api_key
4.代码示例:
importosfromconfigimportLANGSMITH_API_KEY,OPENAI_API_KEY# 这里是将密钥放在一个名为config的文件中,非官方包fromlangchain_openaiimportChatOpenAIfromlangchain_core.promptsimportChatPromptTemplatefromlangchain_core.output_parsersimportStrOutputParser# ===================== 关键:手动配置环境变量(可选,替代终端export) =====================# 方式1:代码内直接设置(适合不想在终端执行export的场景,二选一即可)os.environ["LANGSMITH_TRACING"]="true"os.environ["LANGSMITH_ENDPOINT"]="https://api.smith.langchain.com"os.environ["LANGSMITH_API_KEY"]=LANGSMITH_API_KEY# LangChain的密钥os.environ["LANGSMITH_PROJECT"]="pr-potable-rib-57"# 修正为你的项目名os.environ["OPENAI_API_KEY"]=OPENAI_API_KEY# OpenAI 平台的接口调用密钥,授权代码调用OpenAI的大模型(比如 gpt-3.5-turbo、gpt-4)# 初始化大模型, 根据自己想要调用的模型,调整model,这里用的是官方举例的gpt-5-nanollm=ChatOpenAI(model="gpt-5-nano")# 定义提示词模板prompt=ChatPromptTemplate.from_messages([("system","你是一个友好的入门助手,用简洁的语言回答用户问题。"),("user","{question}")])# 构建链式调用chain=prompt|llm|StrOutputParser()# ===================== 4. 运行并输出结果 =====================if__name__=="__main__":# 用户问题(入门测试用)user_question="什么是LangChain?用3句话简单解释"# 调用链式流程response=chain.invoke({"question":user_question})# 打印结果print("===== 模型回答 =====")print(response)控制台输出结果:
=====模型回答=====LangChain 是一个帮助开发者用大语言模型(LLM)构建应用的框架。 它提供提示模板、chains(链路)与 agents(代理)等组件,用来编排提示、推理过程以及对外部工具和数据源的调用。 通过内置的记忆、检索和 API 集成等能力,LangChain 适合实现聊天机器人、自动化任务和信息提取等端到端工作流。 进程已结束,退出代码为0