目录
ACE Audio Curve Source 的作用
1️⃣ 背景
2️⃣ mh_arkit_mapping_pose
3️⃣ mh_arkit_mapping_pose_A2F
4️⃣ 核心区别总结
5️⃣ 实践建议
ACE Audio Curve Source 的作用
输入来源
可以接收音频驱动数据,例如:
Audio2Face 输出的 mouth/jaw/face 曲线
本地生成的音频分析(比如 phoneme / mouth_open)
生成 ACE 曲线
将音频信号或 A2F 输出的 blendshape 数据转换为 ACE 曲线
这些 ACE 曲线就是 MetaHuman Control Rig 可以直接识别的动画曲线
可调参数
Curve Gain / Scale:调整幅度
Smoothing / Filter:平滑曲线,避免嘴型抖动
Phoneme Mapping(可选):把音频转换为嘴型形态
明白了,你在问UE/MetaHuman 蓝图里 “mh_arkit_mapping_pose” 和 “mh_arkit_mapping_pose_A2F” 的区别,我给你详细分析一下。
1️⃣ 背景
在 Unreal Engine 里,用Control Rig + Pose Asset驱动 MetaHuman 面部时,通常流程是:
Live Link Face / Audio2Face 输出 → Apply ACE Face Animations → ARKit Pose Mapping → Control Rig → Mesh
Apply ACE Face Animations:把 Live Link / A2F 输出的曲线转成 ACE(MetaHuman 认可的动画曲线)
ARKit Pose Mapping(mh_arkit_mapping_pose):把 ACE 曲线映射到 MetaHuman Control Rig 的 channel
最后更新 Mesh
2️⃣ mh_arkit_mapping_pose
用途:标准 ARKit 面部映射 Pose Asset
来源:Epic 官方自带,用于Live Link Face / iPhone ARKit 输入
特点:
包含完整的 ARKit 曲线映射(嘴、眉、眼、眨眼等)
默认 blink 曲线、眼球控制已经在 Pose Asset 内置
不适合直接接收 A2F 输出,因为 A2F 的 mouth/face 曲线命名可能不一致
3️⃣ mh_arkit_mapping_pose_A2F
用途:专门为Audio2Face 输出定制的 Pose Asset
特点:
映射表里只包含A2F 支持的 mouth/jaw/face 曲线
默认不包含 blink,因为 A2F 不输出眼睛动作
可以直接接收Audio2Face Live Link输出
用法:适合 A2F → MetaHuman 的音频驱动口型/表情流程
4️⃣ 核心区别总结
| 特性 | mh_arkit_mapping_pose | mh_arkit_mapping_pose_A2F |
|---|---|---|
| 主要来源 | ARKit Live Link(iPhone) | NVIDIA Audio2Face |
| 内置 blink/眼睛 | ✔️(默认有 blink & Eye Look) | ❌(没有 blink,需要手动添加) |
| 支持曲线 | 全套 ARKit 面部曲线 | A2F 输出曲线(mouth/face/jaw) |
| 用途 | iPhone ARKit 驱动 MetaHuman | Audio2Face 驱动 MetaHuman |
| 适合场景 | 手机面捕、实时直播 | 音频驱动口型/表情 |
5️⃣ 实践建议
如果用 A2F 驱动 MetaHuman→ 使用
mh_arkit_mapping_pose_A2F如果用 iPhone / Live Link Face→ 使用
mh_arkit_mapping_pose想同时有眨眼:
在
mh_arkit_mapping_pose_A2F里手动添加 blink curve(ctrl_l_eye_blink / ctrl_r_eye_blink)或在 Animation Blueprint 里叠加周期 blink 逻辑
💡 总结一句话:
mh_arkit_mapping_pose= 官方 iPhone ARKit 面捕映射,内置 blink/眼睛;mh_arkit_mapping_pose_A2F= 专门给 Audio2Face 输出定制的映射,默认没有 blink,需要手动添加或映射。