news 2026/4/18 12:01:51

17. 纹理压缩

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
17. 纹理压缩

1.纹理压缩


1.纹理压缩

a.硬盘中:存储压缩后的纹理文件(.unity3d里的ETC2纹理)-状态:压缩态(ETC2/ASTC格式),文件体积小-目的:减少硬盘存储和加载时的IO带宽 b.加载到内存(RAM):依然是压缩态,未解压-状态:压缩态(和硬盘中格式一致)-关键:Unity通过DMA加载时,直接把硬盘的压缩数据拷贝到内存,CPU不做任何解压,内存占用=压缩后的大小-对比:如果是未压缩纹理(RGBA32),内存占用=4MB,压缩后内存占用直接减少87.5%c.上传到显存(VRAM):还是压缩态,未解压-状态:压缩态(和内存中格式一致)-关键:CPU通过PCIe总线把内存中的压缩数据拷贝到显存,依然不解压,显存占用=压缩后的大小(0.5MB)"减少拷贝压力":指拷贝0.5MB压缩数据,比拷贝4MB未压缩数据,占用的PCIe总线带宽减少87.5%,传输更快、更省资源 d.GPU渲染时:实时局部解压,不落地-状态:仅在GPU的"纹理采样器"中临时解压"当前需要的像素块"-核心逻辑:游戏渲染时,GPU只需要读取纹理中"当前帧要显示的部分"(比如屏幕上能看到的角色纹理区域),GPU的专用硬 件(纹理采样器)会把显存中"压缩的像素块"(比如:ETC2的4×4)实时解压成原始像素,供顶点着色器/像素着色器使用 解压后的像素只在GPU的计算单元中临时存在,渲染完成后立即丢弃,不会存储到显存中 —— 显存里始终只保留压缩后的纹理 数据,不会因为解压而增大占用
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 1:36:10

一文读懂AI Agent:不是只会聊天,而是能帮你搞定事儿的智能助手

一文读懂AI Agent:不是只会聊天,而是能帮你搞定事儿的智能助手 最近“Agent”这个词可能大家也有刷到过,不少大厂也专门推出了快速搭建Agent的智能平台。可能不少人听着觉得高深莫测,其实它早已悄悄融入我们的生活。今天就简单拆解…

作者头像 李华
网站建设 2026/4/18 1:34:03

transformer模型详解之掩码机制实现细节

Transformer 模型中的掩码机制:从原理到 TensorFlow 实战 在现代自然语言处理系统中,Transformer 已经成为事实上的标准架构。它不再依赖 RNN 的时序递归,而是通过自注意力机制实现全局上下文建模——这种设计带来了极强的并行能力与长距离依…

作者头像 李华
网站建设 2026/4/17 22:25:48

transformer模型详解输入嵌入层的设计原理

Transformer模型输入嵌入层设计原理深度解析 在自然语言处理迈向大规模预训练时代的过程中,Transformer 架构无疑扮演了核心角色。从 BERT 到 GPT 系列,再到如今的大模型浪潮,其底层结构始终围绕着“如何有效表示文本”这一基本问题展开。而整…

作者头像 李华
网站建设 2026/4/18 1:38:37

为什么顶级团队都在用cxx-qt?深度剖析C++与Rust互操作的未来趋势

第一章:为什么顶级团队都在用cxx-qt?在现代高性能桌面应用开发中,越来越多的顶级技术团队选择 cxx-qt 作为其核心框架。它不仅融合了 C 的高效性与 Qt 的跨平台能力,还通过 Rust 的内存安全机制显著提升了开发可靠性。无缝集成 C …

作者头像 李华
网站建设 2026/4/18 1:34:34

PyTorch安装教程GPU与CUDA版本对应关系

PyTorch安装与GPU加速:深入理解CUDA版本兼容性 在现代深度学习开发中,一个看似简单却常令人抓狂的问题是——为什么 torch.cuda.is_available() 返回了 False?明明装了NVIDIA显卡、也更新了驱动,可PyTorch就是无法调用GPU。这种“…

作者头像 李华
网站建设 2026/4/17 22:04:19

【C++异步网络架构设计】:手把手教你重构千万级连接系统

第一章:C异步网络架构重构概述在现代高性能服务器开发中,C异步网络架构的重构已成为提升系统吞吐量与响应速度的关键手段。传统的同步阻塞I/O模型难以应对高并发场景,而基于事件驱动的异步架构通过非阻塞I/O和回调机制,显著降低了…

作者头像 李华