news 2026/5/9 15:48:33

CANN/sip批量矩阵向量乘法

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CANN/sip批量矩阵向量乘法

CgemvBatched

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

产品支持情况

产品是否支持
Atlas 200I/500 A2 推理产品×
Atlas 推理系列产品×
Atlas 训练系列产品×
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品
Ascend 950PR/Ascend 950DT×

功能说明

  • 接口功能:
    asdBlasMakeCgemvBatchedPlan:初始化该句柄对应的算子配置。
    asdBlasCgemvBatched:用于计算批量复数矩阵与向量的乘积。

  • 计算公式:

    $$ y= alpha * op(A)*x + beta * y\

    $$

    其中,op表示矩阵A做“共轭转置”或者“非转置”的操作。
    示例:
    输入“inTensorA[i]”为:
    [ [ 1+i, 1+2i ],
    [ 1+3i, 1+4i ] ]
    输入“x[i]”为:
    [ 1+i, 1+i ]
    输入“trans”为: N,表示矩阵A非转置。
    输入“m”为:2,输入“n”为: 2,输入“alpha”为:1+0i,“beta”为:0+0i。
    输入“lda”为: 2。
    输入“batchCount”为:1。
    调用“asdBlasCgemvBatched”算子后,输出“y[i]”为:
    [0+4i, 0+8i]

函数原型

AspbStatus asdBlasMakeCgemvBatchedPlan( asdBlasHandle handle, asdBlasOperation_t trans, const int64_t m)
AspbStatus aasdBlasCgemvBatched( asdBlasHandle handle, asdBlasOperation_t trans, const int64_t m, const int64_t n, const std::complex<float> & alpha, aclTensor * A, const int64_t lda, aclTensor * x, const int64_t incx, const std::complex<float> & beta, aclTensor * y, const int64_t incy const int64_t batchCount)

asdBlasMakeCgemvBatchedPlan

  • 参数说明:

    参数名输入/输出描述
    handle(asdBlasHandle)输入算子的句柄
    trans(asdBlasOperation_t)输入指定矩阵A是否需要转置。
    • ASDBLAS_OP_N:不转置
    • ASDBLAS_OP_T:转置
    • ASDBLAS_OP_C:共轭转置
    m(int64_t)输入单批次矩阵A的行数。
  • 返回值

    返回状态码,具体参见SiP返回码。

aasdBlasCgemvBatched

  • 参数说明:

    参数名输入/输出描述
    handle(asdBlasHandle)输入算子的句柄
    trans(asdBlasOperation_t)输入指定矩阵A是否需要转置。
    • ASDBLAS_OP_N:不转置
    • ASDBLAS_OP_T:转置
    • ASDBLAS_OP_C:共轭转置
    m(int64_t)输入单批次矩阵A的行数。
    n(int64_t)输入单批次矩阵A的列数。
    alpha(std::complex<float> &)输入对应公式中的alpha,复数标量,用于乘以矩阵和向量乘法的结果,当前版本alpha的取值只能为1+0i。
    A(aclTensor *)输入
    • 输入的矩阵,对应公式中的'A'。
    • 行主序。
    • 数据类型支持COMPLEX64。
    • 数据格式支持ND。
    • shape为[batchCount ,m, n]。
    lda( int64_t)输入A左右相邻元素间的内存地址偏移量(当前约束为m)。
    x(aclTensor *)输入
    • 输入的矩阵,对应公式中的'x'。
    • 数据类型支持COMPLEX64。
    • 数据格式支持ND。
    • 当“trans”取值为非转置:shape为[batchCount, n]。
    • 当“trans”取值为共轭转置:shape为[batchCount, m]。
    incx(int64_t)输入向量x的步长(当前约束为1)。
    beta(std::complex<float> &)输入对应公式中的beta,复数标量,用于乘以向量y,当前版本beta的取值只能为0+0i。
    y(aclTensor *)输入/输出
    • 对应公式中的'y'。
    • 数据类型支持COMPLEX64。
    • 数据格式支持ND。
    • 当“trans”取值为非转置:shape为[batchCount, m]。
    • 当“trans”取值为共轭转置:shape为[batchCount, n]。
    incy(int64_t)输入向量y的步长(当前约束为1)。
    batchCount(int64_t)输入批次数量。取值范围为{12 - 314496}。
  • 返回值

    返回状态码,具体参见SiP返回码。

约束说明

调用示例

示例代码如下,该样例旨在提供快速上手、开发和调试算子的最小化实现,其核心目标是使用最精简的代码展示算子的核心功能,而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码,若用户将示例代码应用在自身的真实业务场景中且发生了安全问题,则需用户自行承担。

#include <iostream> #include <vector> #include <complex> #include "asdsip.h" #include "acl/acl.h" #include "acl_meta.h" using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ = (err); \ if (err_ != AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout << "Execute failed." << std::endl; \ exit(-1); \ } else { \ std::cout << "Execute successfully." << std::endl; \ } \ } while (0) #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vector<int64_t> &shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } void printTensor(const std::complex<float> *tensorData, int64_t batch, int64_t rows, int64_t cols) { for(int64_t b = 0; b < batch; b++) { for (int64_t i = 0; i < rows; i++) { for (int64_t j = 0; j < cols; j++) { std::cout << tensorData[b * rows * cols + i * cols + j] << " "; } std::cout << std::endl; } std::cout << std::endl; } } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法,acl初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T> &hostData, const std::vector<int64_t> &shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size = GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main(int argc, char **argv) { int deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); int64_t batch = 3; int64_t m = 3; int64_t n = 3; int64_t lda = m; int incx = 1; int incy = 1; std::complex<float> alpha = std::complex<float>(1.0, 0.0); std::complex<float> beta = std::complex<float>(0.0, 0.0); asdBlasOperation_t trans = asdBlasOperation_t::ASDBLAS_OP_N; int64_t aSize = batch * m * n; int64_t xSize = batch * n; int64_t ySize = batch * m; std::vector<std::complex<float>> tensorInAData; tensorInAData.reserve(aSize); for (int64_t b = 0; b < batch; b++) { for (int64_t i = 0; i < m; i++) { for (int64_t j = 0; j < n; j++) { tensorInAData[b * m * n + i * n + j] = std::complex<float>(i + 0.0f, i + 0.0f); } } } std::vector<std::complex<float>> tensorInXData; tensorInXData.reserve(xSize); for (int64_t b = 0; b < batch; b++) { for (int64_t i = 0; i < n; i++) { tensorInXData[b * n + i] = std::complex<float>(i + 1.0f, 2.0f); } } std::vector<std::complex<float>> tensorInYData; tensorInYData.reserve(ySize); for (int64_t b = 0; b < batch; b++) { for (int64_t i = 0; i < m; i++) { tensorInYData[b * m + i] = std::complex<float>(1.0f, 1.0f); } } std::cout << "trans = " << static_cast<int32_t>(trans) << std::endl; std::cout << "alpha = " << alpha << std::endl; std::cout << "beta = " << beta << std::endl; std::cout << "------- input TensorInA -------" << std::endl; printTensor(tensorInAData.data(), batch, m, n); std::cout << "------- input TensorInX -------" << std::endl; printTensor(tensorInXData.data(), batch, 1, n); std::cout << "------- input TensorInY -------" << std::endl; printTensor(tensorInYData.data(), batch, 1, m); std::vector<int64_t> aShape = {batch, m, n}; std::vector<int64_t> xShape = {batch, n}; std::vector<int64_t> yShape = {batch, m}; aclTensor *inputA = nullptr; aclTensor *inputX = nullptr; aclTensor *inputY = nullptr; void *inputADeviceAddr = nullptr; void *inputXDeviceAddr = nullptr; void *inputYDeviceAddr = nullptr; ret = CreateAclTensor(tensorInAData, aShape, &inputADeviceAddr, aclDataType::ACL_COMPLEX64, &inputA); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(tensorInXData, xShape, &inputXDeviceAddr, aclDataType::ACL_COMPLEX64, &inputX); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(tensorInYData, yShape, &inputYDeviceAddr, aclDataType::ACL_COMPLEX64, &inputY); CHECK_RET(ret == ::ACL_SUCCESS, return ret); asdBlasHandle handle; asdBlasCreate(handle); size_t lwork = 0; void *buffer = nullptr; asdBlasMakeCgemvBatchedPlan(handle, trans, m); asdBlasGetWorkspaceSize(handle, lwork); std::cout << "lwork = " << lwork << std::endl; if (lwork > 0) { ret = aclrtMalloc(&buffer, static_cast<int64_t>(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } asdBlasSetWorkspace(handle, buffer); asdBlasSetStream(handle, stream); ASD_STATUS_CHECK(asdBlasCgemvBatched(handle, trans, m, n, alpha, inputA, lda, inputX, incx, beta, inputY, incy, batch)); asdBlasSynchronize(handle); asdBlasDestroy(handle); ret = aclrtMemcpy(tensorInYData.data(), ySize * sizeof(std::complex<float>), inputYDeviceAddr, ySize * sizeof(std::complex<float>), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("copy y from device to host failed. ERROR: %d\n", ret); return ret); std::cout << "------- output TensorInY -------" << std::endl; printTensor(tensorInYData.data(), batch, 1, m); aclDestroyTensor(inputX); aclDestroyTensor(inputY); aclDestroyTensor(inputA); aclrtFree(inputXDeviceAddr); aclrtFree(inputYDeviceAddr); aclrtFree(inputADeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 15:48:32

CANN具身智能世界模型指南

cosmos-transfer2.5-2B视频风格转换具身智能世界模型昇腾使用指南 【免费下载链接】cann-recipes-embodied-intelligence 本项目针对具身智能业务中的典型模型、加速算法&#xff0c;提供基于CANN平台的优化样例 项目地址: https://gitcode.com/cann/cann-recipes-embodied-i…

作者头像 李华
网站建设 2026/5/9 15:43:34

如何用智能游戏助手彻底告别重复操作:鸣潮自动化工具终极指南

如何用智能游戏助手彻底告别重复操作&#xff1a;鸣潮自动化工具终极指南 【免费下载链接】ok-wuthering-waves 鸣潮 后台自动战斗 自动刷声骸 一键日常 Automation for Wuthering Waves 项目地址: https://gitcode.com/GitHub_Trending/ok/ok-wuthering-waves 你是否也…

作者头像 李华
网站建设 2026/5/9 15:41:31

青少年AI夏令营实践:拆掉AI神秘围墙的三天探索之旅

1. 项目概述&#xff1a;一次面向青少年的AI夏令营实践去年夏天&#xff0c;我们团队做了一件挺有意思的事&#xff1a;为60名高中生组织了一场为期三天的AI夏令营。这事儿听起来可能有点“疯狂”&#xff0c;毕竟人工智能&#xff0c;尤其是机器学习、深度学习这些概念&#x…

作者头像 李华
网站建设 2026/5/9 15:41:30

基于贝叶斯对抗风险分析的AI系统网络安全防护组合优化

1. 项目概述&#xff1a;当AI系统遇上“看不见的对手”在AI系统日益成为业务核心的今天&#xff0c;我们面临的威胁早已不是简单的病毒或脚本小子。攻击者变得像高明的棋手&#xff0c;他们不再追求一击必杀&#xff0c;而是通过一系列精心策划、相互关联的试探性攻击&#xff…

作者头像 李华
网站建设 2026/5/9 15:40:46

深度图像先验:基于PyTorch的水印去除终极指南

深度图像先验&#xff1a;基于PyTorch的水印去除终极指南 【免费下载链接】Watermark-Removal-Pytorch &#x1f525; CNN for Watermark Removal using Deep Image Prior with Pytorch &#x1f525;. 项目地址: https://gitcode.com/gh_mirrors/wa/Watermark-Removal-Pytor…

作者头像 李华
网站建设 2026/5/9 15:40:39

字节跳动与厦门大学突破:视频AI生成速度提升6倍无损画质

这项由字节跳动与厦门大学多媒体可信感知与高效计算教育部重点实验室联合开展的研究&#xff0c;发表于2026年5月&#xff08;预印本编号arXiv:2605.01725v1&#xff09;&#xff0c;同时有来自德国图宾根ELLIS研究院的学者参与。感兴趣的读者可通过该编号在arXiv平台检索原文。…

作者头像 李华