news 2026/4/18 12:08:00

智谱AI发布GLM-4-9B-Chat开源模型:性能超越Llama-3-8B,支持128K超长上下文与多模态交互

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
智谱AI发布GLM-4-9B-Chat开源模型:性能超越Llama-3-8B,支持128K超长上下文与多模态交互

模型概述

【免费下载链接】glm-4-9b-chat-hf项目地址: https://ai.gitcode.com/zai-org/glm-4-9b-chat-hf

GLM-4-9B是智谱AI推出的GLM-4系列最新一代预训练模型的开源版本。在语义理解、数学推理、代码生成及知识问答等多维度数据集评测中,基础模型GLM-4-9B及其经过人类偏好对齐的对话版本GLM-4-9B-Chat均展现出超越Llama-3-8B的卓越性能。除了支持多轮对话外,GLM-4-9B-Chat还集成了网页浏览、代码执行、自定义工具调用(Function Call)和超长上下文推理(最长支持128K上下文窗口)等高级特性。本代模型新增多语言支持能力,可流畅处理日语、韩语、德语等26种语言。同步发布的还有支持1M上下文长度(约200万汉字)的GLM-4-9B-Chat-1M模型,以及基于GLM-4-9B开发的多模态模型GLM-4V-9B。其中GLM-4V-9B具备1120*1120高分辨率下的中英文对话能力,在多模态评测中,包括中英文综合能力、感知推理、文本识别和图表理解等任务上,性能均超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max及Claude 3 Opus。

性能评测

我们在多项经典任务中对GLM-4-9B-Chat模型进行了全面评估,具体结果如下表所示:

模型名称AlignBench-v2MT-BenchIFEvalMMLUC-EvalGSM8KMATHHumanEvalNCB
Llama-3-8B-Instruct5.128.0068.5868.451.379.630.062.224.7
ChatGLM3-6B3.975.5028.166.469.072.325.758.511.3
GLM-4-9B-Chat6.618.3569.072.475.679.650.671.832.2

超长上下文能力

在1M上下文长度下进行的needle实验结果如下:

如上图所示,该实验直观展示了GLM-4-9B-Chat在百万级上下文长度中精准定位关键信息的能力。这一特性充分体现了模型在处理超长文本时的信息保持能力,为法律文档分析、学术论文理解等长文本应用场景提供了核心技术支撑。

我们进一步在LongBench数据集上评估了模型的长文本处理能力,结果如下:

该图表清晰呈现了GLM-4-9B-Chat与其他主流模型在长文本任务上的性能对比。从数据可以看出,GLM-4-9B-Chat在多类长文本理解任务中均处于领先地位,这为需要处理书籍、报告等超长文档的应用场景提供了可靠的技术保障。

多语言支持能力

我们在六个多语言数据集上对GLM-4-9B-Chat和Llama-3-8B-Instruct进行了对比测试,各数据集的测试结果及涵盖语言如下表所示:

数据集名称Llama-3-8B-InstructGLM-4-9B-Chat涵盖语言
M-MMLU49.656.6全部
FLORES25.028.8俄语、西班牙语、德语、法语、意大利语、葡萄牙语、波兰语、日语、荷兰语、阿拉伯语、土耳其语、捷克语、越南语、波斯语、匈牙利语、希腊语、罗马尼亚语、瑞典语、芬兰语、韩语、丹麦语、保加利亚语、挪威语
MGSM54.065.3中文、英语、孟加拉语、德语、西班牙语、法语、日语、俄语、斯瓦希里语、泰卢固语、泰语
XWinograd61.773.1中文、英语、法语、日语、俄语、葡萄牙语
XStoryCloze84.790.7中文、英语、阿拉伯语、西班牙语、巴斯克语、印地语、印尼语、俄语、斯瓦希里语、泰卢固语
XCOPA73.380.1中文、爱沙尼亚语、印尼语、意大利语、克丘亚语、斯瓦希里语、泰米尔语、泰语、土耳其语、越南语

工具调用能力

在Berkeley Function Calling Leaderboard上的测试结果如下:

模型名称综合准确率AST摘要执行摘要相关性
Llama-3-8B-Instruct58.8859.2570.0145.83
gpt-4-turbo-2024-04-0981.2482.1478.6188.75
ChatGLM3-6B57.8862.1869.785.42
GLM-4-9B-Chat81.0080.2684.4087.92

本仓库为GLM-4-9B-Chat的模型仓库,支持128K上下文长度。

快速开始

更多推理代码和环境要求,请访问我们的GitHub页面。

请严格按照依赖说明进行安装,否则可能导致运行异常。

使用Transformers库(4.46.0及以上版本)进行推理:

from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained('THUDM/glm-4-9b-chat-hf') model = AutoModelForCausalLM.from_pretrained('THUDM/glm-4-9b-chat-hf', device_map="auto") message = [ { "role": "system", "content": "Answer the following question." }, { "role": "user", "content": "How many legs does a cat have?" } ] inputs = tokenizer.apply_chat_template( message, return_tensors='pt', add_generation_prompt=True, return_dict=True, ).to(model.device) input_len = inputs['input_ids'].shape[1] generate_kwargs = { "input_ids": inputs['input_ids'], "attention_mask": inputs['attention_mask'], "max_new_tokens": 128, "do_sample": False, } out = model.generate(**generate_kwargs) print(tokenizer.decode(out[0][input_len:], skip_special_tokens=True))

使用vLLM库(0.6.4及以上版本)进行推理:

from transformers import AutoTokenizer from vllm import LLM, SamplingParams # GLM-4-9B-Chat-1M # max_model_len, tp_size = 1048576, 4 # 如遇内存溢出问题,建议减小max_model_len或增加tp_size max_model_len, tp_size = 131072, 1 model_name = "THUDM/glm-4-9b-chat-hf" prompt = [{"role": "user", "content": "what is your name?"}] tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) llm = LLM( model=model_name, tensor_parallel_size=tp_size, max_model_len=max_model_len, trust_remote_code=True, enforce_eager=True, # GLM-4-9B-Chat-1M-HF 如遇内存溢出问题,建议启用以下参数 # enable_chunked_prefill=True, # max_num_batched_tokens=8192 ) stop_token_ids = [151329, 151336, 151338] sampling_params = SamplingParams(temperature=0.95, max_tokens=1024, stop_token_ids=stop_token_ids) inputs = tokenizer.apply_chat_template(prompt, tokenize=False, add_generation_prompt=True) outputs = llm.generate(prompts=inputs, sampling_params=sampling_params) print(outputs[0].outputs[0].text)

许可证说明

GLM-4模型权重的使用遵循LICENSE中的条款。

引用说明

如果您发现我们的工作对您的研究有用,请考虑引用以下论文:

@misc{glm2024chatglm, title={ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools}, author={Team GLM and Aohan Zeng and Bin Xu and Bowen Wang and Chenhui Zhang and Da Yin and Diego Rojas and Guanyu Feng and Hanlin Zhao and Hanyu Lai and Hao Yu and Hongning Wang and Jiadai Sun and Jiajie Zhang and Jiale Cheng and Jiayi Gui and Jie Tang and Jing Zhang and Juanzi Li and Lei Zhao and Lindong Wu and Lucen Zhong and Mingdao Liu and Minlie Huang and Peng Zhang and Qinkai Zheng and Rui Lu and Shuaiqi Duan and Shudan Zhang and Shulin Cao and Shuxun Yang and Weng Lam Tam and Wenyi Zhao and Xiao Liu and Xiao Xia and Xiaohan Zhang and Xiaotao Gu and Xin Lv and Xinghan Liu and Xinyi Liu and Xinyue Yang and Xixuan Song and Xunkai Zhang and Yifan An and Yifan Xu and Yilin Niu and Yuantao Yang and Yueyan Li and Yushi Bai and Yuxiao Dong and Zehan Qi and Zhaoyu Wang and Zhen Yang and Zhengxiao Du and Zhenyu Hou and Zihan Wang}, year={2024}, eprint={2406.12793}, archivePrefix={arXiv}, primaryClass={id='cs.CL' full_name='Computation and Language' is_active=True alt_name='cmp-lg' in_archive='cs' is_general=False description='Covers natural language processing. Roughly includes material in ACM Subject Class I.2.7. Note that work on artificial languages (programming languages, logics, formal systems) that does not explicitly address natural-language issues broadly construed (natural-language processing, computational linguistics, speech, text retrieval, etc.) is not appropriate for this area.'} }

重要提示:如果您使用本仓库的权重,请确保将transformers库更新至transformers>=4.46.0版本,旧版本的transformers库与此权重不兼容。

【免费下载链接】glm-4-9b-chat-hf项目地址: https://ai.gitcode.com/zai-org/glm-4-9b-chat-hf

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 5:31:02

Terraria地图编辑器使用指南:释放你的创意无限可能

还在为泰拉瑞亚地图建造而烦恼吗?Terraria地图编辑器(TEdit)这款开源工具,让你像使用画图软件一样轻松编辑游戏世界!无论你是想快速搭建梦幻城堡,还是创造独特的冒险地图,TEdit都能帮你实现这些创意梦想。 【免费下载链…

作者头像 李华
网站建设 2026/4/18 8:07:01

Luckysheet大数据处理性能突破:百万级数据流畅操作实战指南

Luckysheet大数据处理性能突破:百万级数据流畅操作实战指南 【免费下载链接】Luckysheet 项目地址: https://gitcode.com/gh_mirrors/luc/Luckysheet 在当今数据驱动的业务环境中,处理大规模表格数据已成为前端开发的常见需求。Luckysheet作为一…

作者头像 李华
网站建设 2026/4/18 5:31:42

29、Google Docs实用功能:演示文稿与表单的使用指南

Google Docs实用功能:演示文稿与表单的使用指南 1. Google Docs演示文稿功能介绍 1.1 使用演讲备注 在进行演示时,有时需要一些演讲备注来提示关键内容,或者对某些要点进行详细阐述和引用。添加演讲备注的操作步骤如下: 1. 开启演讲备注:可以从菜单栏的“视图”菜单中…

作者头像 李华
网站建设 2026/4/18 6:32:29

43、谷歌应用入门与博客营销及应用集成指南

谷歌应用入门与博客营销及应用集成指南 1. 博客营销要点 互联网上博客众多,据估计超过1亿个。每个博客都在努力吸引读者,这使得博客领域竞争异常激烈。要打造一个成功的博客,可遵循以下实用建议: - 发布有趣且有深度的文章 :这是吸引读者的基础,有趣的内容能引发读者…

作者头像 李华
网站建设 2026/4/18 7:02:10

你的下载管理为何如此低效?AriaNg正在重新定义现代下载体验

你的下载管理为何如此低效?AriaNg正在重新定义现代下载体验 【免费下载链接】AriaNg AriaNg, a modern web frontend making aria2 easier to use. 项目地址: https://gitcode.com/gh_mirrors/ar/AriaNg 还在为复杂的命令行参数头疼?在手机和电脑…

作者头像 李华
网站建设 2026/4/18 7:01:31

GB/T 7714 BibTeX样式库:告别参考文献排版困扰的智能解决方案

还在为毕业论文的参考文献格式而烦恼吗?面对GB/T 7714标准的复杂要求,许多研究者在文献排版上耗费了大量时间。今天介绍的这款BibTeX样式库,将彻底改变你的参考文献管理体验。🎯 【免费下载链接】gbt7714-bibtex-style GB/T 7714-…

作者头像 李华