MinerU 系列教程 第二十四篇
本篇教程作为模块七:工程篇 - 配置系统与扩展的第四课,将深入讲解 MinerU 的 VLM(Vision-Language Model)推理服务部署。VLM 是 MinerU 高精度解析模式(vlm / hybrid 后端)的核心引擎,选择合适的推理框架并正确部署,直接决定了解析的精度、速度和资源利用率。
学习目标
完成本课学习后,你将能够:
- 理解 MinerU VLM 推理服务在整体架构中的位置与作用
- 掌握
mineru-vllm-server的部署方法,包括 GPU 加速与多 GPU 并行配置 - 掌握
mineru-lmdeploy-server的部署方法,了解其在 Windows 平台上的优势 - 理解
mineru-openai-server的自动引擎选择逻辑 - 了解 MLX 部署方案(Apple Silicon 平台)
- 掌握"远程 VLM 服务 + 本地轻量客户端"的分离式架构
- 能够阅读
mineru/cli/vlm_server.py的核心源码逻辑