news 2026/4/20 21:17:29

[AI/应用/MCP] MCP Server/Tool 开发指南恿

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
[AI/应用/MCP] MCP Server/Tool 开发指南恿

简介

langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。

环境配置

安装langchain框架

pip install langchain langchain-community

其中langchain可以提供了各种大模型语言库选择,(这里只列举几个)例如:

#chatgpt

pip install langchain-openai

#hugging face

pip install langchain-huggingface

#千问

pip install langchain-qwq

1. 让模型跑起来

如何让你llm跑起来,这里用的是千问,来演示

案例

import os

from langchain_community.chat_models.tongyi import ChatTongyi

from langchain_core.prompts import ChatPromptTemplate

from langchain_core.output_parsers import StrOutputParser

#这里是你的千问apikey

os.environ["DASHSCOPE_API_KEY"] = "apikey"

model = ChatTongyi(model="qwen-plus")

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

output_parser = StrOutputParser()

chain = prompt | model | output_parser

#文本输出

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

#分割

print("="*30)

#流式输出

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)

代码解释

整个代码的流程如下:

创建模型->构建提示词->构建chain链->使用大模型

创建模型

这一步用不同的模型可能会不同

这里利用langchain的千问库创建模型,可能会不同

model = ChatTongyi(model="qwen-plus")

#例如用chatgpt

llm = init_chat_model("gpt-4o", model_provider="openai")

构建提示词

这一步构建利用了langchain库提供提示词模板:

其中用{}阔起来的在调用时可以动态用字典替换

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

各个角色功能如下:

角色名称 (Role) 对应的类 作用说明

system SystemMessage 系统提示词。用于设定 AI 的“人格”、专业背景、行为准则或约束条件。它通常优先级最高,决定了后续对话的基调。

user HumanMessage 用户消息。代表人类发送的内容。这是模型需要直接回答或处理的问题。

ai AIMessage AI 消息。代表模型之前的回复。在构建多轮对话(带记忆)时,需要把模型之前的回复传回去。

构建chain链

这个是langchain的灵魂,这里简单说明,后面会发更详细的教学文章

chain链的运行流程如下:

将输入填充prompt->将完整prompt喂给LLM->直接解析返回文本

StrOutputParser()这个是langchain提供的文本解析器,用于将上面的结果解析为文本

output_parser = StrOutputParser()

chain = prompt | model | output_parser

使用大模型

这里有两种方式:

直接输出完整的文本

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

流文本输出(打字机)

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)坊兴操着

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/20 21:16:25

如何用Python脚本实现网易云音乐自动听歌打卡,轻松升级到LV10

如何用Python脚本实现网易云音乐自动听歌打卡,轻松升级到LV10 【免费下载链接】neteasy_music_sign 网易云自动听歌打卡签到300首升级,直冲LV10 项目地址: https://gitcode.com/gh_mirrors/ne/neteasy_music_sign 还在为网易云音乐账号升级而烦恼…

作者头像 李华
网站建设 2026/4/20 21:15:38

5步掌握CodeBERT:从零到精通的AI编程助手终极指南

5步掌握CodeBERT:从零到精通的AI编程助手终极指南 【免费下载链接】CodeBERT CodeBERT 项目地址: https://gitcode.com/gh_mirrors/co/CodeBERT CodeBERT是微软推出的革命性代码预训练模型系列,能够理解编程语言与自然语言之间的复杂关系。这个强…

作者头像 李华
网站建设 2026/4/20 21:15:14

基于File-Based App开发MVP项目装

Issue 概述 先来看看提交这个 Issue 的作者是为什么想到这个点子的,以及他初步的核心设计概念。?? 本 PR 实现了 Apache Gravitino 与 SeaTunnel 的集成,将其作为非关系型连接器的外部元数据服务。通过 Gravitino 的 REST API 自动获取表结构和元数据&…

作者头像 李华
网站建设 2026/4/11 21:26:59

实时计算框架

实时计算框架:数据洪流中的秒级响应引擎 在数字化转型浪潮中,企业对数据时效性的需求达到前所未有的高度。从金融风控到电商推荐,从物联网监测到交通调度,传统批处理模式已无法满足毫秒级决策的需求。实时计算框架应运而生&#…

作者头像 李华
网站建设 2026/4/11 21:26:08

2026养老三项实锤新政:待遇更稳、服务更便、保障更足

今年养老领域迎来系统性升级,围绕待遇更稳、服务更便、保障更足三大核心目标,国家层面出台多项重磅政策。从养老金上调、服务网络建设到长期护理保险全国推行,全方位提升老年人生活品质。以下是三大新政的详细解读。一、双涨提低控高&#xf…

作者头像 李华