news 2026/5/9 19:32:03

CANN/sip交换最后两轴算子

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CANN/sip交换最后两轴算子

swapLast2Axes

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

产品支持情况

产品是否支持
Atlas 200I/500 A2 推理产品×
Atlas 推理系列产品×
Atlas 训练系列产品×
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品
Ascend 950PR/Ascend 950DT×

功能说明

  • 接口功能:
    swapLast2AxesGetWorkspaceSize:计算swapLast2Axes算子所需的workspace大小。
    swapLast2Axes:交换Tensor的最后两维。

  • 计算公式:

    $$ outTensor_{bij} = inTensor_{bji}\ $$ 其中:b为数据的批次号,i为输入数据的行号, j为输入数据的列号。 示例:

    • 示例一: 输入“inTensor”为:
      [[[1.+0.j, 2.+0.j, 3.+0.j]]]
      调用swapLast2Axes算子后,输出“outTensor”为:
      [[[1.+0.j], [2.+0.j], [3.+0.j]]]
    • 示例二: 输入“inTensor”为:
      [[[ 0.+0.j, 1.+0.j, 2.+0.j],
      [ 3.+0.j, 4.+0.j, 5.+0.j]],
      [[ 6.+0.j, 7.+0.j, 8.+0.j],
      [ 9.+0.j, 10.+0.j, 11.+0.j]]]
      调用swapLast2Axes算子后,输出“outTensor”为:
      [[[ 0.+0.j, 3.+0.j],
      [ 1.+0.j, 4.+0.j],
      [ 2.+0.j, 5.+0.j]],
      [[ 6.+0.j, 9.+0.j],
      [ 7.+0.j, 10.+0.j],
      [ 8.+0.j, 11.+0.j]]]

函数原型

若需使用“swapLast2Axes”算子,必须先调用“swapLast2AxesGetWorkspaceSize”接口获取入参并根据计算流程计算所需workspace大小,再调用“swapLast2Axes”接口执行计算。

AsdSip::AspbStatus swapLast2AxesGetWorkspaceSize( size_t *size)
AsdSip::AspbStatus swapLast2Axes( const aclTensor * inTensor, aclTensor * outTensor, void * stream, void * workspace = nullptr)
  • 返回值

    返回状态码,具体参见SiP返回码。

swapLast2AxesGetWorkspaceSize

  • 参数说明

    参数名输入/输出描述
    size(size_t *)输入/输出swapLast2Axes算子所需要的workspace。
  • 返回值

    返回状态码,具体参见SiP返回码。

swapLast2Axes

  • 参数说明:

    参数名输入/输出描述
    inTensor(aclTensor *)输入
    • 表示输入的张量数据,对应公式中的'inTensor'。
    • 输入的最大元素数为3600000000 ([60000, 60000]以内)。
    • 数据类型仅支持COMPLEX64,数据格式支持ND。
    • 输入dim限制为2或3。
    outTensor(aclTensor *)输出
    • 表示输出的张量数据,对应公式中的'outTensor'。
    • 数据类型仅支持COMPLEX64,数据类型需要与inTensor的数据类型一致。
    • 如果inTensor的shape为[k,x,y],outTensor的shape为[k,y,x]。
    • 数据格式支持ND。
    workspace(void *)输入swapLast2Axes算子所需要的workspace。
    stream(void *)输入npu执行流。
  • 返回值

    返回状态码,具体参见SiP返回码。

约束说明

算子实际计算时,不支持ND高维度运算(不支持维度>3的运算)。

调用示例

示例代码如下,该样例旨在提供快速上手、开发和调试算子的最小化实现,其核心目标是使用最精简的代码展示算子的核心功能,而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码,若用户将示例代码应用在自身的真实业务场景中且发生了安全问题,则需用户自行承担。

#include <iostream> #include <vector> #include "asdsip.h" #include "acl/acl.h" #include "acl_meta.h" using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ = (err); \ if (err_ != AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout << "Execute failed." << std::endl; \ exit(-1); \ } \ } while (0) #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vector<int64_t> &shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法,acl初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T> &hostData, const std::vector<int64_t> &shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size = GetShapeSize(shape) * sizeof(T) * 2; // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } void printTensor(const float *tensorData, size_t row, size_t col) { for (size_t r = 0; r < row; ++r) { for (size_t c = 0; c < col; ++c) { size_t index = (r * col + c) * 2; std::cout << "(" << int(tensorData[index]) << ", " << int(tensorData[index + 1]) << ") "; } std::cout << "\n"; } } int main(int argc, char **argv) { int deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); int64_t row = 3; int64_t col = 2; const int64_t tensorSize = row * col * 2; std::vector<float> tensorInData; tensorInData.reserve(tensorSize); for (int64_t i = 0; i < tensorSize; i++) { tensorInData[i] = 0.0 + i; } std::vector<float> tensorOutData; tensorOutData.reserve(tensorSize); std::vector<int64_t> inShape = {row, col}; std::vector<int64_t> outShape = {col, row}; aclTensor *input = nullptr; aclTensor *output = nullptr; void *inputDeviceAddr = nullptr; void *outputDeviceAddr = nullptr; ret = CreateAclTensor(tensorInData, inShape, &inputDeviceAddr, aclDataType::ACL_COMPLEX64, &input); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(tensorOutData, outShape, &outputDeviceAddr, aclDataType::ACL_COMPLEX64, &output); CHECK_RET(ret == ::ACL_SUCCESS, return ret); void *workspace = nullptr; size_t lwork = 0; swapLast2AxesGetWorkspaceSize(lwork); std::cout << "lwork = " << lwork << std::endl; if (lwork > 0) { ret = aclrtMalloc(&workspace, static_cast<int64_t>(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } ASD_STATUS_CHECK(swapLast2Axes(input, output, stream, workspace)); ret = aclrtSynchronizeStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSynchronizeStream failed. ERROR: %d\n", ret); return ret); ret = aclrtMemcpy(tensorOutData.data(), tensorSize * sizeof(float), outputDeviceAddr, tensorSize * sizeof(float), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("copy output tensor from device to host failed. ERROR: %d\n", ret); return ret); std::cout << "row = " << row << ", col = " << col << std::endl; std::cout << "------- Input ------- " << std::endl; printTensor(tensorInData.data(), row, col); std::cout << "------- Output -------" << std::endl; printTensor(tensorOutData.data(), col, row); std::cout << "Execute successfully." << std::endl; aclrtFree(inputDeviceAddr); aclrtFree(outputDeviceAddr); aclDestroyTensor(input); aclDestroyTensor(output); if (lwork > 0) { aclrtFree(workspace); } aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 19:26:00

大语言模型应用开发实战:从RAG到智能体的代码实现与调优

1. 项目概述与核心价值 最近在GitHub上闲逛&#xff0c;又发现了一个挺有意思的仓库&#xff1a; JunChenMoCode/ChatGPT_JCM 。乍一看名字&#xff0c;你可能会觉得这又是一个基于OpenAI API的简单封装或者聊天机器人前端。但点进去仔细研究后&#xff0c;我发现它远不止于…

作者头像 李华
网站建设 2026/5/9 19:24:03

轻量级CI/CD工具CIAB:容器化构建与自动化部署实践

1. 项目概述&#xff1a;一个轻量级、可扩展的持续集成与自动化构建工具最近在梳理团队内部的CI/CD流程&#xff0c;发现很多中小型项目&#xff0c;尤其是个人开发者或者小团队&#xff0c;在面对Jenkins、GitLab CI这类“重型”工具时&#xff0c;常常感到配置复杂、资源消耗…

作者头像 李华
网站建设 2026/5/9 19:23:00

C++ 设计模式,别死记硬背:23 种设计模式其实就这几个思路

很多人学设计模式&#xff0c;学着学着就会进入一种很熟悉的状态&#xff1a; 名字都听过定义也背过甚至类图都看过但一写代码&#xff0c;还是不知道什么时候该用 这事其实特别正常。 因为很多人从一开始就学反了。 设计模式最不该先背的&#xff0c;就是定义。 你真正该先抓住…

作者头像 李华
网站建设 2026/5/9 19:22:41

CANN / ops-cv 量化介绍

量化介绍 【免费下载链接】ops-cv 本项目是CANN提供的图像处理、目标检测相关的算子库&#xff0c;实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-cv 量化广泛应用于深度学习模型中&#xff0c;特别是在推理过程中。通过量化&#xff0c;模型可以在…

作者头像 李华
网站建设 2026/5/9 19:20:31

AI驱动蛋白质设计:从AlphaFold2预测到扩散模型生成全流程解析

1. 项目概述&#xff1a;当AI开始“设计”生命蓝图如果你在五年前告诉我&#xff0c;一个AI模型能在一小时内&#xff0c;将一段氨基酸序列折叠成接近实验精度的三维结构&#xff0c;我大概率会觉得这是科幻小说。但今天&#xff0c;这已是结构生物学领域的日常。从AlphaFold2横…

作者头像 李华
网站建设 2026/5/9 19:20:30

空天地一体化网络与联邦学习融合:构建广域分布式智能新范式

1. 项目概述&#xff1a;当分布式智能遇见全域网络最近和几个做边缘计算和物联网的老友聊天&#xff0c;大家不约而同地提到了一个共同的痛点&#xff1a;数据。不是数据太少&#xff0c;而是数据太“散”了。工厂里的传感器、农田里的无人机、远洋货轮上的设备、甚至高空飞行的…

作者头像 李华