news 2026/4/19 17:21:11

AIGC大语言模型之词元和嵌入向量

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AIGC大语言模型之词元和嵌入向量

AIGC大语言模型之词元和嵌入向量


前言

词元和嵌入向量是人工智能生成内容(AIGC)中使用LLM的两个核心概念。

一、LLM的分词

1、分词器

是在模型处理文本之前, 分词器会将文本分解成词或者子词。这个是根据特定的方法和训练过程进行的。

2、分词器如何分解文本

3、开源分词器

分词器/库核心思想/算法标志性特点主要使用者
OpenAI BPE(tiktoken)Byte-level BPE直接在字节流上操作,高效压缩GPT-2,GPT-3,GPT-4,GPT-40, GPT-5
SentencePieceBPE, Unigram语言无关,无需预分词,空格视为LLaMA, T5,多语言模型
WordPieceMax-Likelihood需要预分词,词中片段用 ## 标记BERT 及其家族
Hugging FacetokenizersBPE, WordPiece,Unigram…集大成者,高性能Rust 实现,完整流水线Hugging Face 生态所有模型

4、词级、子词级、字符级与字节级分词

二、词元嵌入向量

语言是词元的序列,如果我们子啊足够大的词元集上训练一个足够好的模型,它就会开始捕获训练数据集中出现的复杂模式:

1、文本嵌入(用于句子和整篇文档)

虽然词元嵌入是LLM运作的关键, 但许多LLM应用需要处理完整的句子,段落甚至文本文档,这催生了一下特殊的语言模型,他们能够生成文本嵌入-- 用单个向量来表示长度超过一个词元的文本片段。

我们可以这样理解文本嵌入模型:它接收一段文本, 最终生成单个向量, 这个向量以某种形式表示该文本并捕获其含义.生成文本嵌入有多种方法。常见的方法之一是对模型生成的所有词元嵌入的值取平均值,然而,高质量的文本嵌入模型往往是专门为文本嵌入任务训练的

2、这边我们自己预训练文本词

  1. 准备预训练数据集(清洗、去重、tokenizer)
  2. Tokenizer设置(词元、分词策略)
  3. 输出模型
# 导入 SentencePiece 库:用于无监督训练子词(BPE/Unigram)模型以及后续编码/解码 import sentencepiece as spm def train(input_file, vocab_size, model_name, model_type, character_coverage): """ 重要说明(官方参数文档可查): https://github.com/google/sentencepiece/blob/master/doc/options.md 参数含义: - input_file: 原始语料文件路径(每行一句,SentencePiece 会做 Unicode NFKC 规范化) 支持多文件逗号拼接:'a.txt,b.txt' - vocab_size: 词表大小,如 8000 / 16000 / 32000 - model_name: 模型前缀名,最终会生成 <model_name>.model 和 <model_name>.vocab - model_type: 模型类型:unigram(默认)/ bpe / char / word 注意:若使用 word,需要你在外部先分好词(预分词) - character_coverage: 覆盖的字符比例 * 中文/日文等字符集丰富语言建议 0.9995 * 英文等字符集小的语言建议 1.0 """ # 这里使用“字符串命令”式的调用来指定训练参数 # 固定 4 个特殊符号的 id:<pad>=0, <unk>=1, <bos>=2, <eos>=3 # 这与下游 Transformer 常用配置一致,便于对齐 input_argument = ( '--input=%s ' '--model_prefix=%s ' '--vocab_size=%s ' '--model_type=%s ' '--character_coverage=%s ' '--pad_id=0 --unk_id=1 --bos_id=2 --eos_id=3 ' ) # 将传入参数填充到命令字符串 cmd = input_argument % (input_file, model_name, vocab_size, model_type, character_coverage) # 开始训练;会在当前工作目录下生成 <model_name>.model / <model_name>.vocab spm.SentencePieceTrainer.Train(cmd) # ===== 英文分词器配置 ===== en_input = 'data/data.txt' # 英文语料:一行一句 en_vocab_size = 32000 # 词表大小:翻译任务常见为 16k/32k en_model_name = 'eng' # 输出前缀:会生成 eng.model / eng.vocab en_model_type = 'bpe' # 使用 BPE(也可尝试 unigram) en_character_coverage = 1.0 # 英文字符集小 → 用 1.0 train(en_input, en_vocab_size, en_model_name, en_model_type, en_character_coverage)

总结

https://chensongpoixs.github.io/

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 10:07:57

福泰轴承股份有限公司进销存系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着制造业数字化转型的加速&#xff0c;企业信息化管理成为提升竞争力的关键。轴承制造行业作为工业基础领域&#xff0c;其生产、销售和库存管理的高效协同直接影响企业运营成本与市场响应速度。传统人工管理模式存在数据滞后、误差率高、流程冗余等问题&#xff0c;难以…

作者头像 李华
网站建设 2026/4/18 7:01:42

29、可激发电路与电气网络综合研究

可激发电路与电气网络综合研究 可激发电路的特性与原理 可激发电路在生物学中处于核心地位,其核心特性是电流 - 电压关系的局部超敏感性,即在特定的时间和幅度范围内,小的电流变化会被大幅放大。这种特性可以通过动态输入电导这一基本概念来量化,它实际上是在给定电压和时…

作者头像 李华
网站建设 2026/4/18 5:38:39

通过LobeChat实现多模型切换的智能路由逻辑

通过LobeChat实现多模型切换的智能路由逻辑 在今天的企业AI应用中&#xff0c;一个越来越常见的挑战是&#xff1a;如何在性能、成本与数据安全之间找到平衡&#xff1f;我们见过太多团队一开始全量使用GPT-4处理所有请求——体验确实惊艳&#xff0c;但账单也令人咋舌。更糟糕…

作者头像 李华
网站建设 2026/4/17 9:08:49

ComfyUI与Apple Silicon集成:M系列芯片原生运行

ComfyUI与Apple Silicon集成&#xff1a;M系列芯片原生运行 在创意工作者越来越依赖生成式AI的今天&#xff0c;一台静音、节能、无需外接电源的MacBook Air能否流畅运行Stable Diffusion这类重型模型&#xff1f;答案是肯定的——只要将ComfyUI与Apple Silicon深度结合。 这不…

作者头像 李华
网站建设 2026/4/17 23:07:44

LobeChat与百度搜索结合提升知识问答准确性

LobeChat与百度搜索结合提升知识问答准确性 在构建智能对话系统时&#xff0c;我们常常面临一个棘手的问题&#xff1a;大模型虽然“能说会道”&#xff0c;但回答的内容却可能似是而非。比如用户问&#xff1a;“2024年巴黎奥运会中国拿了多少金牌&#xff1f;”——如果仅依…

作者头像 李华