iis服务器助手广告
返回顶部
首页 > 资讯 > 服务器 >TensorRT 安装与测试
  • 466
分享到

TensorRT 安装与测试

linuxpython服务器 2023-10-02 13:10:43 466人浏览 泡泡鱼
摘要

☘️前言 在正式安装前,应确保已经安装好了 NVIDIA CUDA™ Toolkit,如果没有安装可以参考:NVIDIA CUDA Installation Guide 对于 TensorRT 来说,

☘️前言

在正式安装前,应确保已经安装好了 NVIDIA CUDA™ Toolkit,如果没有安装可以参考:NVIDIA CUDA Installation Guide
对于 TensorRT 来说,目前 cuDNN 是一个可选项,他现在只用来加速很少的层。

可以采用下面三种模式来安装 TensorRT:

  1. TensorRT的完整安装,包括TensorRT计划文件构建器功能。此模式与 TensorRT 8.6.0 之前提供的运行时相同。
  2. learn runtime 安装,此安装明显小于完整安装,并允许您加载和运行使用版本兼容的构建器标志构建的引擎。此安装将不提供生成 TensorRT 计划文件的功能。
  3. 调度运行时安装。此安装允许以最小的内存消耗进行部署,并允许您加载和运行使用版本兼容的构建器标志构建的引擎,并包含精简运行时。此安装将不提供生成 TensorRT 计划文件的功能。

查看 CUDA 版本

nvcc -V 

输出如下:
image.png

查看 CuDNN 版本

针对 8.0 前的版本使用以下指令查看cudnn的版本:

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

输出:

#define CUDNN_MAJOR 5#define CUDNN_MINOR 1#define CUDNN_PATCHLEVEL 10--#define CUDNN_VERSioN (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)#include "driver_types.h"

0 以上版本查看方式为

cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2

输出:

#define CUDNN_MAJOR 8#define CUDNN_MINOR 0#define CUDNN_PATCHLEVEL 4--#define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)#endif 

🛴开始安装

1. 使用 DEB 安装

首先安装 CUDA,参考:https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html
接着安装 cuDNN,参考:https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html
下载与您正在使用的 ubuntu 版本和 CPU 架构匹配的 TensorRT 本地存储库文件。
最后安装使用 Debian 方式安装 TensorRT,注意替换 ubuntu 、 cuda 、cpu架构版本

os="ubuntuxx04"tag="8.x.x-cuda-x.x"sudo dpkg -i nv-tensorrt-local-repo-${os}-${tag}_1.0-1_amd64.debsudo cp /var/nv-tensorrt-local-repo-${os}-${tag}/*-keyring.gpg /usr/share/keyrings/sudo apt-get update

For full runtime

sudo apt-get install tensorrt

For the lean runtime only, instead of tensorrt

sudo apt-get install libnvinfer-lean8 sudo apt-get install libnvinfer-vc-plugin8

For lean runtime Python package

sudo apt-get install python3-libnvinfer-lean

For dispatch runtime Python package

sudo apt-get install python3-libnvinfer-dispatch

For all TensorRT Python packages

Python3 -m pip install numpy sudo apt-get install python3-libnvinfer-dev 

The following additional packages will be installed

python3-libnvinferpython3-libnvinfer-leanpython3-libnvinfer-dispatch

If you want to install Python packages for the lean or dispatch runtime only, specify these individually rather than installing the dev package.
If you want to use TensorRT with the UFF converter to convert models from TensorFlow

python3 -m pip install protobuf sudo apt-get install uff-converter-tf

The graphsurgeon-tf package will also be installed with this command.
If you want to run samples that require onnx-graphsurgeon or use the Python module for your own project

python3 -m pip install numpy onnx sudo apt-get install onnx-graphsurgeon

🍁验证安装

dpkg-query -W tensorrt

输出如下:
image.png

2. 使用 TAR 安装

2.1 从 官网下载与环境匹配的 TAR 安装包

这里更新了服务器,服务器环境为

  • python : 3.10
  • cuda :12.0
  • 显卡:3090 * 2
  • cuDnn : 8.8.0

image.png

EA 版本代表抢先体验(在正式发布之前)。
GA 代表通用性。 表示稳定版,经过全面测试

解压

tar -xzvf TensorRT-8.6.0.12.linux.x86_64-gnu.cuda-12.0.tar.gz

接着进入该文件
添加环境变量

vim ~/.bashrcexport LD_LIBRARY_PATH=解压TensorRT的路径/TensorRT-8.6.0.12/lib:$LD_LIBRARY_PATHsource ~/.bashrc

这里笔者使用的是 zsh
所以上面命令修改为

vim ~/.zshrcexport LD_LIBRARY_PATH=解压TensorRT的路径/TensorRT-8.6.0.12/lib:$LD_LIBRARY_PATHsource ~/.zshrc

接着依次安装

cd TensorRT-${version}/uffpython3 -m pip install uff-0.6.9-py2.py3-none-any.whl#以下为按需安装cd TensorRT-${version}/uffpython3 -m pip install uff-0.6.9-py2.py3-none-any.whlcd TensorRT-${version}/graphsurgeonpython3 -m pip install graphsurgeon-0.4.6-py2.py3-none-any.whlcd TensorRT-${version}/onnx_graphsurgeonpython3 -m pip install onnx_graphsurgeon-0.3.12-py2.py3-none-any.whl

🍁验证安装

image.png

例程测试:

cd samples/sampleOnnxMNIST/make -j8cd ../../binbin ./sample_onnx_mnist

输出如下:

&&&& RUNNING TensorRT.sample_onnx_mnist [TensorRT v8600] # ./sample_onnx_mnist[04/06/2023-11:00:53] [I] Building and running a GPU inference engine for Onnx MNIST[04/06/2023-11:00:53] [I] [TRT] [MemUsageChange] Init CUDA: CPU +362, GPU +0, now: CPU 367, GPU 375 (MiB)[04/06/2023-11:00:56] [I] [TRT] [MemUsageChange] Init builder kernel library: CPU +1209, GPU +264, now: CPU 1652, GPU 639 (MiB)[04/06/2023-11:00:56] [W] [TRT] CUDA lazy loading is not enabled. Enabling it can significantly reduce device memory usage and speed up TensorRT initialization. See "Lazy Loading" section of CUDA documentation https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#lazy-loading[04/06/2023-11:00:56] [I] [TRT] ----------------------------------------------------------------[04/06/2023-11:00:56] [I] [TRT] Input filename:   ../../../data/mnist/mnist.onnx[04/06/2023-11:00:56] [I] [TRT] ONNX IR version:  0.0.3[04/06/2023-11:00:56] [I] [TRT] Opset version:    8[04/06/2023-11:00:56] [I] [TRT] Producer name:    CNTK[04/06/2023-11:00:56] [I] [TRT] Producer version: 2.5.1[04/06/2023-11:00:56] [I] [TRT] Domain:           ai.cntk[04/06/2023-11:00:56] [I] [TRT] Model version:    1[04/06/2023-11:00:56] [I] [TRT] Doc string:       [04/06/2023-11:00:56] [I] [TRT] ----------------------------------------------------------------[04/06/2023-11:00:56] [W] [TRT] onnx2trt_utils.cpp:374: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32.[04/06/2023-11:00:56] [I] [TRT] Graph optimization time: 0.000296735 seconds.[04/06/2023-11:00:56] [I] [TRT] Local timing cache in use. Profiling results in this builder pass will not be stored.[04/06/2023-11:00:57] [I] [TRT] Detected 1 inputs and 1 output network tensors.[04/06/2023-11:00:57] [I] [TRT] Total Host Persistent Memory: 24224[04/06/2023-11:00:57] [I] [TRT] Total Device Persistent Memory: 0[04/06/2023-11:00:57] [I] [TRT] Total Scratch Memory: 0[04/06/2023-11:00:57] [I] [TRT] [MemUsageStats] Peak memory usage of TRT CPU/GPU memory allocators: CPU 0 MiB, GPU 4 MiB[04/06/2023-11:00:57] [I] [TRT] [BlockAssignment] Started assigning block shifts. This will take 6 steps to complete.[04/06/2023-11:00:57] [I] [TRT] [BlockAssignment] AlGorithm ShiftNTopDown took 0.008767ms to assign 3 blocks to 6 nodes requiring 32256 bytes.[04/06/2023-11:00:57] [I] [TRT] Total Activation Memory: 31744[04/06/2023-11:00:57] [I] [TRT] [MemUsageChange] TensorRT-managed allocation in building engine: CPU +0, GPU +4, now: CPU 0, GPU 4 (MiB)[04/06/2023-11:00:57] [I] [TRT] Loaded engine size: 0 MiB[04/06/2023-11:00:57] [I] [TRT] [MemUsageChange] TensorRT-managed allocation in engine deserialization: CPU +0, GPU +0, now: CPU 0, GPU 0 (MiB)[04/06/2023-11:00:57] [I] [TRT] [MemUsageChange] TensorRT-managed allocation in IExecutionContext creation: CPU +0, GPU +0, now: CPU 0, GPU 0 (MiB)[04/06/2023-11:00:57] [W] [TRT] CUDA lazy loading is not enabled. Enabling it can significantly reduce device memory usage and speed up TensorRT initialization. See "Lazy Loading" section of CUDA documentation Https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#lazy-loading[04/06/2023-11:00:57] [I] Input:[04/06/2023-11:00:57] [I] @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@+ @@@@@@@@@@@@@@@@@@@@@@@@@@. @@@@@@@@@@@@@@@@@@@@@@@@@@- @@@@@@@@@@@@@@@@@@@@@@@@@#  @@@@@@@@@@@@@@@@@@@@@@@@@#  *@@@@@@@@@@@@@@@@@@@@@@@@@  :@@@@@@@@@@@@@@@@@@@@@@@@@= .@@@@@@@@@@@@@@@@@@@@@@@@@#  %@@@@@@@@@@@@@@@@@@@@@@@@% .@@@@@@@@@@@@@@@@@@@@@@@@@%  %@@@@@@@@@@@@@@@@@@@@@@@@%  %@@@@@@@@@@@@@@@@@@@@@@@@@= +@@@@@@@@@@@@@@@@@@@@@@@@@* -@@@@@@@@@@@@@@@@@@@@@@@@@*  @@@@@@@@@@@@@@@@@@@@@@@@@@  @@@@@@@@@@@@@@@@@@@@@@@@@@  *@@@@@@@@@@@@@@@@@@@@@@@@@  *@@@@@@@@@@@@@@@@@@@@@@@@@  *@@@@@@@@@@@@@@@@@@@@@@@@@  *@@@@@@@@@@@@@@@@@@@@@@@@@* @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@[04/06/2023-11:00:57] [I] Output:[04/06/2023-11:00:57] [I]  Prob 0  0.0000 Class 0: [04/06/2023-11:00:57] [I]  Prob 1  1.0000 Class 1: **********[04/06/2023-11:00:57] [I]  Prob 2  0.0000 Class 2: [04/06/2023-11:00:57] [I]  Prob 3  0.0000 Class 3: [04/06/2023-11:00:57] [I]  Prob 4  0.0000 Class 4: [04/06/2023-11:00:57] [I]  Prob 5  0.0000 Class 5: [04/06/2023-11:00:57] [I]  Prob 6  0.0000 Class 6: [04/06/2023-11:00:57] [I]  Prob 7  0.0000 Class 7: [04/06/2023-11:00:57] [I]  Prob 8  0.0000 Class 8: [04/06/2023-11:00:57] [I]  Prob 9  0.0000 Class 9: [04/06/2023-11:00:57] [I] &&&& PASSED TensorRT.sample_onnx_mnist [TensorRT v8600] # ./sample_onnx_mnist

🗺️参考

https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html
https://zhuanlan.zhihu.com/p/379287312
https://blog.csdn.net/qq_34859576/article/details/119108275
https://blog.csdn.net/qq_43644413/article/details/124900671

来源地址:https://blog.csdn.net/BCblack/article/details/129985142

--结束END--

本文标题: TensorRT 安装与测试

本文链接: http://www.lsjlt.com/news/422652.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • TensorRT 安装与测试
    ☘️前言 在正式安装前,应确保已经安装好了 NVIDIA CUDA™ Toolkit,如果没有安装可以参考:NVIDIA CUDA Installation Guide 对于 TensorRT 来说,...
    99+
    2023-10-02
    linux python 服务器
  • 【Python】安装与测试
    目录 Python安装与测试目录 简介1 开发场景 2 优点 3 缺点 安装1 windows下python安装 ...
    99+
    2023-01-31
    测试 Python
  • Windows11(CUDA11.7)下安装TensorRT
    系列文章目录 文章目录 系列文章目录前言一、本人环境 以及配置二、安装步骤首先CUDA和cuDNNTensorRT安装Python安装TensorRT库 三、进行测试 前言 Tens...
    99+
    2023-09-02
    windows python 人工智能 深度学习
  • python Flask离线安装与测试
    Flask是用python进行web开发时,常见的python web框架。如果服务器可以连接到外网,可以简单的用 pip install Flask 直接将Flask的依赖包及Flask直接安装好。但公司的测试环境,一般是内网,不能随表上...
    99+
    2023-01-31
    离线 测试 python
  • 【STATSPACK】Statspack安装、测试与使用
    Statspack脚本存放目录:$ORACLE_HOME/RDBMS/ADMIN 1.需要设置的参数:1).job_queue_processes SQL> alter system set job_queue_proces...
    99+
    2023-06-06
  • 【模型部署】TensorRT的安装与使用
    文章目录 1.TensorRT的安装1.1 cuda/cudnn以及虚拟环境的创建1.2 根据cuda版本安装相对应版本的tensorRT 2. TensorRT的使用2.1 直接构建2....
    99+
    2023-09-03
    python tensorRT 模型部署
  • C++之eigen安装与测试方式
    目录C++eigen安装与测试1、eigen库安装2、查看eigen的版本号C++ eigen使用eigen几何模块的使用方法总结C++eigen安装与测试 1、eigen库安装 1...
    99+
    2022-12-15
    C++ eigen C++ eigen安装 C++ eigen测试
  • win7上MySQL5.6如何安装与测试
    这篇文章主要为大家展示了“win7上MySQL5.6如何安装与测试”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“win7上MySQL5.6如何安装与测试”这篇文...
    99+
    2024-04-02
  • PaddleOCR学习之PaddleOCR安装与测试
    PaddleOCR是一个基于PaddlePaddle深度学习框架实现的开源OCR工具,它支持多种语言文字的检测、识别和排版,具有较高...
    99+
    2023-09-09
    PaddleOCR
  • python Flask如何离线安装与测试
    这篇文章将为大家详细讲解有关python Flask如何离线安装与测试,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Flask是用python进行web开发时,常见的python web框架。如果服务器可...
    99+
    2023-06-04
  • 怎样安装测试kafka
    本篇文章为大家展示了怎样安装测试kafka,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。在server1和server2上安装kafkacd /tmptar -xzf kafka_2.12-2.4....
    99+
    2023-06-05
  • mocha怎么安装和测试
    这篇“mocha怎么安装和测试”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“mocha怎么安装和测试”文章吧。什么是TDD:...
    99+
    2023-06-27
  • XSS测试平台——BlueLotus(Windows系统)下载与安装
    BlueLotus(Windows系统)安装需要在PhpStudy环境下,关于PhpStudy的安装请看: (34条消息) Windows下sqli-labs靶场搭建与相关环境——PhpStudy安装_雅士清弦的博客-CSDN博客 本帖主要...
    99+
    2023-09-01
    php 网络安全 xss web安全
  • 冰蝎(Behinder)下载与安装以及连接测试
    冰蝎(Behinder) 1.下载与安装: GitHub:GitHub - rebeyond/Behinder: “冰蝎”动态二进制加密网站管理客户端 下载压缩包,解压后双击,点开这个(必须要有java环境否则双击点开不了) 2.用p...
    99+
    2023-09-01
    php 开发语言
  • Pycharm中的下载安装、配置与测试方式
    目录一、Pycharm下载与安装1、下载Pycharm2、【推荐】anaconda下载与创建虚拟环境创建3、【可选】下载python二、Pycharm工程创建与配置1、工程创建2、P...
    99+
    2022-12-15
    Pycharm下载安装 Pycharm配置 Pycharm测试
  • python django 安装及测试程
    python django 安装及测试程序使用 1.安装Python Python的版本有 2.7.* ,3.0.* anaconda 3.0.* 2.下载安装anaconda 3版本 略,一路下一步 3.编辑器 pycharm 略,一路下...
    99+
    2023-01-31
    测试 python django
  • uniapp-ios打包安装测试
    我们在做uniapp需要打ios包测试的时候,会有证书私钥密码、证书profile文件、私钥证书三项必填项,这是苹果三件套,必须要有的。就是下图所示  下面说一下如何获取: 一、申请账号  1. 申请Apple id  登录: https...
    99+
    2023-09-05
    uni-app 前端
  • MySQL 安装后设置和测试
    让我们看看成功安装 MySQL 后需要完成的安装后设置和测试 -安装 MySQL 后,执行以下步骤数据目录如果需要,必须初始化数据目录并创建MySQL 授权表。对于某些MySQL安装方法,数据目录初始化是自动完成的。MySQL安装程序Win...
    99+
    2023-10-22
  • docker容器内安装TensorRT的问题
    Ubuntu上卸载已安装的版本: sudo apt-get purge "libnvinfer*" 如果想把安装文件都删掉以释放空间,执行: dpkg -l |...
    99+
    2024-04-02
  • win下pytorch安装—cuda11.6 + cudnn8.4 + pytorch1.12 + tensorRT(pycuda)
    安装目录 一、cuda安装1.1、cuda版本选择1.2、下载安装 二、cudnn安装三、pytorch安装四、tensorRT8.X安装 写在前面 博主这里装的是cuda11.7,最...
    99+
    2023-09-18
    pytorch 深度学习 python
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作