如何对 Linux 操作系统的 GPU 实例进行压测?

操作系统
问题描述

Linux 操作系统的 GPU 实例如何进行压力测试以及性能测试?

问题分析

GPU_BURN 是一款开源的软件,可以对 GPU 进行压力测试。

GPU 性能测试使用 CUDA sample 自带的 deviceQuery、bandwith 稳定性测试以及性能测试。

解决方案

所有的测试均需要在 GPU 实例上面安装相对应的 cuda 版本,具体请参考如下步骤。

GPU_BURN

安装GPU_BURN

  1. GPU_BURN下载以及使用方法参考文档GPU_BURN下载以及使用方法

  2. 安装 GPU_BURN,使用如下命令。

tar zxvf gpu_burn-1.1.tar.gz 
  1. 编辑 Makefile,CUDAPATH=/usr/local/cuda这里更改为自己安装 cuda 的位置即可,删除-arch=compute_30alt

  2. 编辑后的配置文件如图所示。 alt

  3. 执行make命令,生成gpu_burn可执行文件,具体如图所示。 alt

使用 GPU_BURN 对 GPU 卡进行压测

  1. 执行命令./gpu_burn 300执行结果如下。 alt

  2. 打开其他终端,执行命令nvidia-smi执行结果如下。 alt

CUDA sample

deviceQuery 可用性测试

  1. 编译二进制文件,并执行可用性测试。
cd c/usr/local/uda-11.0/samples/1_Utilities/deviceQuery
make 
./deviceQuery
  1. 测试结果如下,则 cuda 安装成功。

alt

bandwidthTest 带宽测试

  1. 编译二进制文件,并执行带宽测试。
cd /usr/local/cuda-11.0/samples/1_Utilities/bandwidthTest
make 
./bandwidthTest
  1. 测试结果如下。

alt

关于更多 cuda 以及 sample 的信息请参考英伟达CUDA安装说明

如果您有其他问题,欢迎您联系火山引擎技术支持服务

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

所属团队号:
相关资源
大模型解决方案白皮书:社交陪伴场景全流程落地指南
随着大模型技术持续突破,AI正加速重塑社交娱乐的形态与体验。其中,陪伴式聊天因用户黏性强、互动频次高,成为大模型商业化落地的关键赛道。随着模型能力跃升至万亿参数级,AI从工具属性正迈向情感交互生态,现象级产品的诞生条件逐渐成熟。 本白皮书聚焦AI陪伴聊天应用开发,面向“从何起步、如何落地”的新手困惑,系统拆解从需求定义到产品上线的关键流程。我们结合工程化实践路径,打造模块化知识体系与渐进式开发框架,帮助开发者在30天内完成从技术认知到产品原型的跃升,快速构建具备基础交互能力的Web或App应用,迈出大模型
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论