news 2026/5/13 10:06:29

基于Telegram的AI聊天机器人SirChatalot部署与多模态功能配置指南

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于Telegram的AI聊天机器人SirChatalot部署与多模态功能配置指南

1. 项目概述:打造你的专属AI骑士

如果你厌倦了那些功能单一、反应迟钝的聊天机器人,想拥有一个既能深度对话、又能看图说话、甚至能帮你搜索网页和生成图片的“全能型”AI伙伴,那么 SirChatalot 这个项目绝对值得你投入时间。它本质上是一个基于 Telegram 平台的智能聊天机器人框架,但其核心魅力在于其高度的可定制性和强大的“多模态”能力。你可以把它想象成一个乐高积木,通过配置不同的“模块”(API),就能组装出具备不同技能的AI助手。

这个项目的核心价值在于,它为你提供了一个功能齐全、架构清晰的起点,让你无需从零开始处理 Telegram Bot API 的繁琐细节,而是能直接聚焦于如何利用最前沿的大语言模型(LLM)来创造有趣的交互体验。无论是想做一个中世纪骑士风格的聊天伴侣,一个能帮你总结文档的私人秘书,还是一个能根据描述生成创意图片的艺术家,SirChatalot 都能胜任。

在接下来的内容里,我将以一个实际部署者的视角,带你从零开始,一步步拆解这个项目的配置、部署、功能调优以及我踩过的那些坑。无论你是 Python 初学者,还是有一定经验的开发者,都能从中找到可以直接“抄作业”的实操方案。

2. 核心架构与设计思路解析

SirChatalot 的设计哲学非常清晰:以 Telegram 作为统一的前端交互界面,后端灵活接入各类 AI 服务,并通过模块化配置管理所有功能。这种设计带来了几个显著优势:

2.1 统一入口,分散能力

Telegram Bot 作为入口,解决了跨平台、消息推送、用户管理等一系列前端问题。你不需要自己开发 App 或网页,Telegram 客户端就是现成的、功能强大的界面。而后端,项目通过抽象层,将对话、视觉、语音、图像生成、文件处理等能力解耦。这意味着你可以随时替换底层服务提供商,比如今天用 OpenAI 的 GPT-4,明天换成 Anthropic 的 Claude,而用户侧完全无感。

2.2 配置驱动,而非代码驱动

这是项目最省心的地方。绝大多数功能的启用、模型的切换、参数的调整,都只需要修改一个.config配置文件,无需改动核心代码。例如,从 GPT-3.5 升级到 GPT-4 Vision,你只需要在配置文件中将ChatModel的值从gpt-3.5-turbo改为gpt-4-vision-preview,并将Vision设为True。这种设计极大地降低了维护和实验成本。

2.3 会话管理与上下文保持

项目内置了会话(Session)管理机制。每次与用户的对话都会形成一个会话上下文,模型能基于之前的对话历史进行回复。这通过维护一个消息列表来实现,并受MaxSessionLength参数控制,防止上下文过长导致 token 消耗剧增或模型性能下降。当会话超长时,你可以选择直接删除旧消息(ChatDeletion),或者启用SummarizeTooLong功能,让 AI 自动总结早期对话内容,用摘要替换原始长文本,从而在有限的上下文窗口内保留核心信息。

2.4 函数调用(Function Calling)实现智能体(Agent)能力

这是将 SirChatalot 从一个简单的聊天机器人升级为“智能体”的关键。当开启FunctionCalling后,模型(如 GPT-4 或 Claude 3)不再仅仅是生成文本,而是获得了“使用工具”的能力。模型可以自主决定何时调用、以及调用哪个预设的函数。目前项目内置了“图像生成”和“网页搜索”两个工具函数。

举个例子,当用户说“帮我画一只在太空站里喝咖啡的猫”,模型会理解这个意图,然后自动调用/imagine背后的图像生成函数,并将生成的图片返回给用户。整个过程无需用户手动输入命令,对话体验非常自然。这为未来扩展更多工具(如查询数据库、控制智能家居等)提供了坚实的基础。

3. 环境准备与基础配置实战

理论说再多,不如动手做一遍。下面是我从零部署 SirChatalot 的完整流程和关键注意事项。

3.1 前置条件与依赖安装

首先,你需要准备以下几样东西:

  1. 一个 Telegram 账号:用于创建和管理 Bot。
  2. Python 环境:建议使用 Python 3.8 或更高版本。我强烈推荐使用venvconda创建独立的虚拟环境,避免包冲突。
  3. FFmpeg:用于处理语音和视频消息的转码。这是必须的,否则语音识别功能无法工作。

安装 FFmpeg(以 Ubuntu/Debian 为例)

sudo apt update sudo apt install ffmpeg

安装后,务必在终端运行ffmpeg -version验证安装成功。

获取项目代码并安装 Python 依赖

git clone https://github.com/sazonovanton/SirChatalot.git cd SirChatalot pip install -r requirements.txt

这里有个小坑:requirements.txt里包含了python-telegram-bot等库,如果网络环境不佳,可能会安装缓慢或失败。可以考虑使用国内镜像源,例如:

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

3.2 创建并配置你的 Telegram Bot

  1. 在 Telegram 中搜索并联系@BotFather
  2. 发送/newbot指令,按照提示依次设置你的 Bot 名称(如My AI Assistant)和用户名(必须以bot结尾,如my_ai_assistant_bot)。
  3. 创建成功后,BotFather 会给你一个HTTP API Token,格式类似1234567890:ABCdefGhIJKlmNoPQRsTUVwxyZ务必妥善保存这个 Token,它相当于你 Bot 的密码。

3.3 核心配置文件详解与生成

项目配置的核心是./data/.config文件。你需要基于./data/目录下的示例文件(如config.example.ini)来创建自己的配置。

第一步:复制示例文件

cp ./data/config.example.ini ./data/.config

第二步:编辑.config文件用你喜欢的文本编辑器(如 VSCode, nano, vim)打开./data/.config。下面是一个最精简的、基于 OpenAI 的起步配置,我会逐行解释关键参数:

[Telegram] Token = YOUR_TELEGRAM_BOT_TOKEN_HERE # 替换为你的 Bot Token AccessCodes = mysecretcode123 # 访问码,用户输入此码后可加入白名单 RateLimitTime = 3600 # 限流时间窗口,3600秒=1小时 GeneralRateLimit = 30 # 全局限流,每小时最多30条消息 TextEngine = OpenAI # 文本生成引擎,使用 OpenAI SpeechEngine = OpenAI # 语音识别引擎,使用 OpenAI ReplyToMessage = False # 是否回复到原消息,False 则新开一条消息 [Logging] LogLevel = INFO # 日志级别,INFO 能看到更多运行信息,DEBUG 更详细 LogChats = False # 是否记录聊天内容,涉及隐私,建议 False [OpenAI] SecretKey = sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx # 你的 OpenAI API Key ChatModel = gpt-3.5-turbo # 对话模型,成本较低,适合起步 ChatModelPromptPrice = 0.0005 # 输入 token 单价(美元/千 token) ChatModelCompletionPrice = 0.0015 # 输出 token 单价(美元/千 token) Temperature = 0.7 # 创造性,0-2之间,越高回答越随机 MaxTokens = 1500 # 单次回复的最大 token 数 SystemMessage = You are a helpful assistant named Sir Chat-a-lot. # 系统提示词,定义 AI 角色 MaxSessionLength = 20 # 最大会话长度(消息条数) Vision = False # 是否启用视觉功能(需要 GPT-4V) FunctionCalling = False # 是否启用函数调用

关键参数解析与避坑指南

  • AccessCodes:这是你的安全门。不设置的话,任何人找到你的 Bot 都能用,可能导致 API 被滥用产生高额费用。设置一个复杂字符串,用户首次对话时发送此码即可加入白名单。
  • ChatModelPromptPriceChatModelCompletionPrice:这两个价格用于 Bot 内统计使用成本,不影响实际 API 扣费。实际扣费以 OpenAI 官方价为准。但正确设置它们能让/statistics命令显示的成本估算更准确。
  • MaxTokens:需要根据模型上下文窗口设置。gpt-3.5-turbo上下文约 4096 tokens,你需要为输入(你的问题+历史记录)和输出(AI的回答)留出空间。设置 1500 是一个比较安全的起步值。
  • SystemMessage:这是塑造 AI 性格的灵魂。默认是中世纪骑士风格,你可以改成任何你想要的角色,比如“你是一个严谨的科学家”或“你是一个幽默的脱口秀演员”。效果立竿见影。

3.4 首次运行与白名单授权

配置保存后,在项目根目录运行:

python3 main.py

如果一切正常,你会看到类似Application started的日志。此时你的 Bot 在 Telegram 上还处于“锁定”状态。

  1. 在 Telegram 中找到你的 Bot,点击Start或发送/start
  2. Bot 会回复提示你输入访问码。
  3. 发送你在AccessCodes中设置的码(例如mysecretcode123)。
  4. 如果成功,Bot 会回复“You have been added to the whitelist”。同时,在服务器日志中,你会看到你的 Telegram User ID 被自动添加到了./data/whitelist.txt文件中。

至此,你的基础版 AI 聊天机器人已经上线了!你可以开始和它对话了。

4. 高级功能配置与深度集成

基础聊天只是开胃菜,SirChatalot 的真正威力在于其多模态集成能力。下面我将分模块讲解如何配置这些高级功能。

4.1 语音识别:让 Bot 听懂你的话

语音识别依赖于 OpenAI 的 Whisper 模型。配置如下:

[AudioTranscript] Engine = whisper SecretKey = sk-... # 可省略,默认使用 [OpenAI] 的 SecretKey AudioModel = whisper-1 AudioModelPrice = 0.006 # Whisper 模型价格,美元/分钟 AudioFormat = mp3 # 转换格式,mp3 体积小效率高 TranscribeOnly = False # False: 转录后让 AI 回复;True: 只返回转录文本

实操要点

  • 确保ffmpeg已正确安装,这是语音转码的关键。
  • TranscribeOnly = True适合做单纯的录音笔或字幕生成工具。
  • 语音消息和视频消息中的音频都会被处理。
  • 成本注意:语音识别按分钟计费,长语音消息成本可能高于文本对话。对于非关键场景,可以考虑关闭此功能。

4.2 视觉理解:让 Bot 看懂你发的图

要启用“图生文”能力,你需要使用支持视觉的模型(如 GPT-4V 或 Claude 3),并修改配置:

[OpenAI] # 如果使用 Claude,则对应 [Anthropic] 部分 ChatModel = gpt-4-vision-preview # 必须更换为视觉模型 Vision = True # 核心开关,必须开启 ImageSize = 512 # 图片预处理的最大尺寸(像素),大图会被缩放,影响细节和成本 DeleteImageAfterAnswer = True # 强烈建议开启!AI“看”过图片后即从上下文删除 ImageDescriptionOnDelete = True # 删除图片后,用一段文本描述替换,保留信息

核心逻辑与成本控制: 当用户发送图片时,Bot 会将其下载、缩放至ImageSize指定大小,然后以 Base64 编码的形式连同用户问题一起发送给视觉模型。图片会占用大量 tokens(尤其是高分辨率图)。DeleteImageAfterAnswer = True最重要的成本控制选项。它让模型只在生成当前回复时“看”一眼图片,随后就从对话历史中移除,避免图片 token 在后续多轮对话中持续累积,导致费用暴涨。ImageDescriptionOnDelete = True则是一个折中方案,在删除图片后,让模型自己生成一段对图片的文字描述并插入历史,这样后续对话还能基于描述进行,平衡了成本和信息保留。

4.3 图像生成:让 Bot 成为画家

SirChatalot 支持 OpenAI DALL-E、Stability AI 和 Yandex ART 三种图像生成引擎。以 DALL-E 3 为例:

[ImageGeneration] Engine = dalle # APIKey = sk-... # 可省略,默认使用 [OpenAI] 的 SecretKey Model = dall-e-3 RateLimitCount = 10 # 每个用户每 RateLimitTime 秒内最多生成10张图 RateLimitTime = 3600 # 限流时间窗口,3600秒 ImageGenerationPrice = 0.04 # DALL-E 3 标准版价格,美元/张

配置后,用户可以通过命令/imagine a cute cat wearing a hat来生成图片。如果同时开启了FunctionCalling,用户甚至可以直接说“给我画一只戴帽子的猫”,AI 会自主调用该功能。

不同引擎的选择建议

  • DALL-E 3:与 OpenAI 生态集成好,图像质量和文本遵循度非常出色,简单易用。
  • Stability AI:开源模型,可能提供更多的风格控制和参数调整(如NegativePrompt负面提示词),适合深度玩家。
  • Yandex ART:区域性选择,需自行评估网络和效果。

4.4 函数调用与网页搜索:赋予 Bot 行动力

这是实现智能体(Agent)模式的关键。你需要同时配置函数调用和网页搜索。

[OpenAI] FunctionCalling = True # 总开关,开启模型使用工具的能力 [Web] SearchEngine = google APIKey = YOUR_GOOGLE_CUSTOM_SEARCH_API_KEY # Google Custom Search JSON API Key CSEID = YOUR_CUSTOM_SEARCH_ENGINE_ID # 可编程搜索引擎 ID URLSummary = True # 对搜索结果中的网页链接进行内容摘要 TrimLength = 2000 # 摘要文本的长度限制

如何获取 Google API Key 和 CSEID

  1. 访问 Google Cloud Console ,创建项目并启用“Custom Search JSON API”。
  2. 在“凭据”页面创建 API 密钥。
  3. 访问 Programmable Search Engine 创建一个新的搜索引擎。在设置中,为了搜索整个网络,你需要将“Search the entire web”选项打开(此选项可能默认隐藏或已变更,需在创建时选择“搜索整个网络”或在创建后于设置中添加一个任意网站如example.com,然后在编辑中删除所有限制)。创建后即可获得 CSEID。

启用后,当用户询问“今天北京天气如何?”这类实时性问题时,模型可能会自主决定调用网页搜索工具,获取最新信息后再组织回答。

4.5 文件处理与 RAG:打造你的私人知识库

SirChatalot 集成了一个轻量级的 RAG(检索增强生成)系统,允许 Bot 从你上传的文件中学习并回答问题。

[OpenAI] FunctionCalling = True # RAG 依赖函数调用进行检索 [Files] Enabled = True MaxFileSizeMB = 10 # 文件大小限制,受限于 Telegram 和服务器 [Embeddings] SecretKey = sk-... # 用于生成文本向量的 API Key,通常与对话一致 Engine = OpenAI Model = text-embedding-3-small # 嵌入模型,将文本转化为向量

工作流程

  1. 摄入:你向 Bot 发送一个支持的文档(如 PDF、Word)。
  2. 处理:Bot 提取文本,将其智能切分成有重叠的“块”(Chunk)。
  3. 嵌入:每个文本块通过 Embeddings 模型转化为一个高维向量,存入本地的 ChromaDB 向量数据库。
  4. 检索:当你提问时,如果你的问题触发了函数调用,Bot 会将你的问题也转化为向量,在数据库中搜索最相似的文本块。
  5. 生成:将搜索到的相关文本块作为上下文,连同你的问题一起发送给大模型,生成更精准的答案。

支持的文件类型.docx,.doc,.pptx,.ppt,.pdf,.txt,.md,.csv,.log。对于.doc.ppt旧格式文件,需要系统安装catdoc工具(sudo apt install catdoc)。

常用命令

  • /listfiles:查看你已上传并处理的所有文件。
  • /deletefiles:删除你所有的文件记录(从向量数据库)。

5. 模型切换:从 OpenAI 到 Claude 或 YandexGPT

项目不局限于 OpenAI。切换到 Claude 只需修改配置:

[Telegram] TextEngine = Claude # 将引擎改为 Claude [Anthropic] # 新增 Anthropic 配置节,替换原来的 [OpenAI] SecretKey = sk-ant-xxxxxxxxxx ChatModel = claude-3-haiku-20240307 # 推荐使用 Haiku,性价比高 ChatModelPromptPrice = 0.00025 ChatModelCompletionPrice = 0.00125 SystemMessage = You are a concise and helpful assistant. Vision = True # Claude 3 模型支持视觉 FunctionCalling = True # Claude 称之为 Tool Use

切换注意事项

  1. 确保已安装 Anthropic SDK:pip install anthropic
  2. Claude 模型的Temperature等参数范围可能与 OpenAI 不同,需查阅 Anthropic 文档。
  3. 函数调用在 Claude 中称为 “Tool Use”,但配置开关仍是FunctionCalling = True

切换到 YandexGPT 或其他与 OpenAI API 兼容的服务(如 OpenRouter、LocalAI)也是类似原理,主要修改APIBaseSecretKey

6. 部署、运维与安全实践

6.1 使用 Docker 容器化部署(推荐)

对于长期运行,Docker 是最佳选择,它能解决环境依赖和进程管理问题。

  1. 确保 Docker 和 Docker Compose 已安装
  2. 在项目根目录,你的docker-compose.yml文件可能如下所示:
    version: '3.8' services: sirc: build: . container_name: sirchatalot restart: unless-stopped volumes: - ./data:/app/data # 挂载配置和数据目录 - ./logs:/app/logs # 挂载日志目录 env_file: - .env # 可选,用于敏感信息,但项目主要从文件读取配置
  3. 构建并启动容器:
    docker-compose up -d --build
  4. 查看日志:
    docker-compose logs -f

Docker 部署的要点

  • 数据持久化:通过volumes./data./logs挂载到宿主机,这样容器重建后你的配置、白名单、聊天记录和日志都不会丢失。
  • 自动重启restart: unless-stopped确保服务在异常退出或服务器重启后能自动恢复。
  • 资源限制:可以在docker-compose.yml中为容器设置 CPU 和内存限制,防止 Bot 异常时拖垮服务器。

6.2 用户管理与安全加固

一个公开的、具备强大 AI 能力的 Bot 必须做好安全防护。

  1. 白名单(Whitelist):这是第一道防线。通过AccessCodes机制控制初始用户。./data/whitelist.txt文件记录了所有授权用户的 Telegram ID。
  2. 黑名单(Banlist):更高优先级。将恶意用户的 ID 加入./data/banlist.txt,立即生效。
  3. 速率限制(Rate Limiting)
    • GeneralRateLimitRateLimitTime:全局通用限制。
    • ./data/rates.txt:针对特定用户的精细化控制。格式为TelegramID,Limit。例如123456789,5表示该用户每小时只能发 5 条消息。设为0则表示对该用户不限流。
  4. 内容审核(Moderation):开启OpenAI.Moderation = True,Bot 会在将用户消息发送给对话模型前,先调用 OpenAI 的免费审核 API 进行过滤。如果消息被标记为违规,将不会进一步处理,并通知用户。
  5. 终端用户 ID(EndUserID):开启OpenAI.EndUserID = True,会将用户的 Telegram ID 进行哈希处理后附加到发给 OpenAI 的 API 请求中。这有助于 OpenAI 监控滥用行为,并在发生问题时为你提供更具体的反馈。

6.3 监控与成本控制

  1. 日志:通过LogLevel控制日志详细程度。定期检查./logs/目录下的日志文件,可以了解 Bot 的运行状态和错误。
  2. 统计命令:用户或管理员可以使用/statistics命令查看自己的 token 使用情况和估算费用。这有助于用户自我约束。
  3. API 用量监控:务必在 OpenAI、Anthropic 等平台的账户中设置用量提醒和支出限额,这是最后也是最关键的财务安全阀。

7. 常见问题排查与实战技巧

以下是我在部署和运行过程中遇到的一些典型问题及解决方法:

问题1:Bot 启动失败,报错ModuleNotFoundError: No module named 'telegram'

  • 原因:Python 依赖未正确安装,或在虚拟环境外运行。
  • 解决:确保在项目目录下,激活了虚拟环境,并执行pip install -r requirements.txt

问题2:发送消息后 Bot 无反应,日志显示403 Forbidden

  • 原因:Telegram Bot Token 错误或网络无法连接 Telegram API。
  • 解决:检查 Token 是否正确复制,确保服务器网络可以访问api.telegram.org

问题3:语音消息无法识别,日志提示ffmpeg相关错误

  • 原因:系统未安装ffmpeg,或安装的版本不兼容。
  • 解决:在宿主机(非 Docker 容器内)使用ffmpeg -version确认安装。如果是 Docker 部署,需要在 Dockerfile 中增加安装ffmpeg的步骤,或使用包含ffmpeg的基础镜像。

问题4:开启 Vision 后,对话成本急剧上升

  • 原因:图片 token 消耗巨大,且未开启DeleteImageAfterAnswer
  • 解决:务必设置DeleteImageAfterAnswer = True。可以考虑结合ImageDescriptionOnDelete = True来保留部分信息。同时,将ImageSize调小(如 256),可以显著减少 token 消耗,但会损失图片细节。

问题5:函数调用(网页搜索/图片生成)不生效

  • 原因:未在模型配置节([OpenAI][Anthropic])中开启FunctionCalling = True。或者对应的工具(如[Web][ImageGeneration])配置有误。
  • 解决:首先确认FunctionCalling = True已设置。其次,检查相关工具节的配置,特别是 API Key 等必填项。查看运行日志,通常会有更详细的错误信息。

问题6:上传文件后,Bot 无法回答文件内容相关问题

  • 原因:RAG 功能依赖函数调用,且文件处理或向量数据库构建可能失败。
  • 解决
    1. 确认[OpenAI]FunctionCalling = True
    2. 确认[Files][Embeddings]配置正确。
    3. 检查日志中是否有文件解析错误(如不支持的格式、catdoc未安装)。
    4. 尝试发送一个较小的.txt文件测试基础流程。

个人实战技巧

  • 分阶段启用功能:不要一开始就配置所有高级功能。先从纯文本聊天开始,稳定后再逐步加入语音、视觉、图像生成等。这有助于隔离和定位问题。
  • 善用系统提示词(SystemMessage):这是控制 AI 行为和风格的利器。你可以详细描述它的角色、说话方式、知识边界和禁忌。例如,加入“如果用户请求生成人物肖像,请委婉拒绝并说明原因”,可以增加安全性。
  • 成本控制优先:在SystemMessage中明确要求 AI“尽量简洁回答”,设置合理的MaxTokensMaxSessionLength,对图像生成和语音识别进行严格的速率限制(RateLimitCount),这些都是防止意外支出的有效手段。
  • 备份配置文件:在每次进行重大配置修改前,备份你的.config文件。复杂的配置容易出错,有备份可以快速回滚。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/13 10:03:22

ChatGPT和Gemini导出word手机

跨越“最后一百米”:2026年生成式AI内容导出的技术痛点与办公流重塑 在生成式AI蓬勃发展的今天,大语言模型(LLM)已然成为效率工具的核心。然而,根据《2025-2026年全球智能办公趋势报告》显示,尽管AI生成内容…

作者头像 李华
网站建设 2026/5/13 9:58:40

AI办公:Gemini3.1Pro减少50%重复劳动

一个公式看效率:Gemini 3.1 Pro 如何帮助办公场景减少重复劳动到了 2026 年,AI 办公工具已经不再是“新鲜玩意”,而是越来越多人的日常搭子。无论是写会议纪要、整理表格、生成汇报材料,还是把零散信息变成结构化内容,…

作者头像 李华
网站建设 2026/5/13 9:55:24

OpenClaw 2.6.6 中文完整版|部署 + 配置 + 使用全攻略

随着 AI 智能体的普及,私有化部署、数据安全与高效落地成为日常使用中的重要考量。轻量化开源 AI 智能体 OpenClaw 在2.6.6 版本完成全面优化,环境适配性、服务稳定性与模型集成能力均得到明显提升,针对 Windows 平台进一步简化部署流程&…

作者头像 李华
网站建设 2026/5/13 9:55:11

5分钟将手机变身高清摄像头:DroidCam OBS插件完全指南

5分钟将手机变身高清摄像头:DroidCam OBS插件完全指南 【免费下载链接】droidcam-obs-plugin DroidCam OBS Source 项目地址: https://gitcode.com/gh_mirrors/dr/droidcam-obs-plugin 还在为直播设备昂贵而烦恼?想用手机摄像头获得专业级画质&am…

作者头像 李华
网站建设 2026/5/13 9:52:39

机器视觉(MV)与机器人视觉(RV)的本质区别(5)

重磅预告:本专栏将独家连载新书《AI视觉技术:从入门到进阶》精华内容。本书是《AI视觉技术:从进阶到专家》的权威前导篇,特邀美国 TypeOne 公司首席科学家、斯坦福大学博士 Bohan 担任技术顾问。Bohan先生师从美国三院院士、“AI教…

作者头像 李华