iis服务器助手广告广告
返回顶部
首页 > 资讯 > 操作系统 >Linux下CUDA如何安装和使用
  • 837
分享到

Linux下CUDA如何安装和使用

2023-06-28 10:06:06 837人浏览 独家记忆
摘要

这篇文章将为大家详细讲解有关linux下CUDA如何安装和使用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。CUDA是显卡厂商NVIDIA推出的运算平台。 CUD是一种由NVIDIA推出的通用并行计算架构

这篇文章将为大家详细讲解有关linux下CUDA如何安装和使用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

CUDA是显卡厂商NVIDIA推出的运算平台。 CUD是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。

Linux下CUDA如何安装和使用

CUDA 安装步骤

一般而言,在 Linux 下安装和使用 CUDA 的流程如下:

  1. 安装 NVIDIA Driver,即显卡驱动

  2. 安装 CUDA Toolkit

  3. 使用 C/C++ 编译器或 python 扩展库进行 GPU 加速的 CUDA 编程

本文后半部分将根据以上流程介绍 CUDA 安装和使用的详细步骤。


安装 NVIDIA Driver 和 CUDA Toolkit

首先检查系统是否有支持 CUDA 编程的 GPU。可使用

 lspci | grep -i nvidia

命令来查看当前系统的 GPU 型号。

本人使用的操作系统Google Cloud Compute Engine 生成的包含 GPU 的虚拟机实例提供,系统版本为 ubuntu 16.04 LTS,GPU 为 NVIDIA Tesla K80 (1个)。上述命令输出

 00:04.0 3D controller: NVIDIA Corporation GK210GL [Tesla K80] (rev a1)

注意:与通常在本地主机上运行的虚拟机不同,这里的虚拟机直接运行在 Google 的云服务器上,可以为其申请 GPU 配额并安装 NVIDIA Driver 和 CUDA Toolkit.

传统上,安装 NVIDIA Driver 和 CUDA Toolkit 的步骤是分开的,但实际上我们可以直接安装 CUDA Toolkit,系统将自动安装与其版本匹配的 NVIDIA Driver。下面我们讲述安装 CUDA Toolkit 的方法。

在安装 CUDA Toolkit 前,要确保系统安装了 GCc 和 make。如果希望使用 c++ 进行 CUDA 编程,需要安装 g++。如果想要运行 CUDA 例程序,需要安装相应的依赖库。

 sudo apt update # 更新 apt sudo apt install gcc g++ make # 安装 gcc g++ make sudo apt install libglu1-mesa libxi-dev libxmu-dev libglu1-mesa-dev freeglut3-dev # 安装依赖库

在 CUDA Toolkit 的下载页面选择系统版本和安装方式,下载并运行 runfile。

Linux下CUDA如何安装和使用CUDA Toolkit 下载页面

下载 CUDA Toolkit (文件较大):

 wget Http://developer.download.nvidia.com/compute/cuda/10.1/Prod/local_installers/cuda_10.1.243_418.87.00_linux.run

安装 CUDA Toolkit (时间较长):

 sudo sh cuda_10.1.243_418.87.00_linux.run

安装好 CUDA Toolkit 后,屏幕上将输出:

 Driver:   Installed Toolkit:  Installed in /usr/local/cuda-10.1/ Samples:  Installed in /home/abneryepku/  Please make sure that  -   PATH includes /usr/local/cuda-10.1/  -   LD_LIBRARY_PATH includes /usr/local/cuda-10.1/lib64, or, add /usr/local/cuda-10.1/lib64 to /etc/ld.so.conf and run ldconfig as root

这表示 NVIDIA Driver 和 CUDA Toolkit 已安装完毕。后半段安装信息提示我们修改环境变量 PATH 和 LD_LIBRARY_PATH. 在 ~/.bashrc 文件中写入

 # add nvcc compiler to path export PATH=$PATH:/usr/local/cuda-10.1/bin # add cuBLAS, cuSPARSE, cuRAND, cuSOLVER, cuFFT to path export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-10.1/lib64:/usr/lib/x86_64-linux-gnu

即可完成 CUDA 的配置。

注意事项:

  1. 环境变量 PATH 设置可执行程序的搜索路径,LD_LIBRARY_PATH 设置动态链接库的搜索路径

\2. CUDA, cuRAND 等动态库均位于 /usr/local/cuda-10.1/lib64 路径中。在 CUDA 10.0 以前,cuBLAS 也位于此路径下,但在 CUDA 10.1 中,cuBLAS 被迁移到了 /usr/lib/x86_64-linux-gnu 中。可以通过运行

 sudo find / -iname libcublas*

来寻找 cuBLAS 动态库的路径。

\3. 使用 Anaconda 安装的 CUDA Toolkit 不位于 lib64 路径中,也不会产生冲突。


测试样例程序

可以在路径

 /usr/local/cuda-10.1/extras/demo_suite

路径下找到一些样例程序。deviceQuery 将输出 CUDA 的相关信息:

 CUDA Device Query (Runtime api) version (CUdart static linking) Detected 1 CUDA Capable device(s) Device 0: "Tesla K80"   CUDA Driver Version / Runtime Version          10.1 / 10.1   CUDA Capability Major/Minor version number:    3.7   Total amount of global memory:                 11441 MBytes (11996954624 bytes)   (13) Multiprocessors, (192) CUDA Cores/MP:     2496 CUDA Cores   GPU Max Clock rate:                            824 MHz (0.82 GHz)   Memory Clock rate:                             2505 Mhz   Memory Bus Width:                              384-bit   L2 Cache Size:                                 1572864 bytes   Maximum Texture Dimension Size (x,y,z)         1D=(65536), 2D=(65536, 65536), 3D=(4096, 4096, 4096)   Maximum Layered 1D Texture Size, (num) layers  1D=(16384), 2048 layers   Maximum Layered 2D Texture Size, (num) layers  2D=(16384, 16384), 2048 layers   Total amount of constant memory:               65536 bytes   Total amount of shared memory per block:       49152 bytes   Total number of reGISters available per block: 65536   Warp size:                                     32   Maximum number of threads per multiprocessor:  2048   Maximum number of threads per block:           1024   Max dimension size of a thread block (x,y,z): (1024, 1024, 64)   Max dimension size of a grid size    (x,y,z): (2147483647, 65535, 65535)   Maximum memory pitch:                          2147483647 bytes   Texture alignment:                             512 bytes   Concurrent copy and kernel execution:          Yes with 2 copy engine(s)   Run time limit on kernels:                     No   Integrated GPU sharing Host Memory:            No   Support host page-locked memory mapping:       Yes   Alignment requirement for Surfaces:            Yes   Device has ECC support:                        Enabled   Device supports Unified Addressing (UVA):      Yes   Device supports Compute Preemption:            No   Supports Cooperative Kernel Launch:            No   Supports MultiDevice Co-op Kernel Launch:      No   Device PCI Domain ID / Bus ID / location ID:   0 / 0 / 4   Compute Mode:       deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.1, CUDA Runtime Version = 10.1, NumDevs = 1, Device0 = Tesla K80 Result = PASS

CUDA 的各种特性:纹理内存 (texture memory)、常量内存 (constant memory)、共享内存 (shared memory)、块 (block)、线程 (thread)、统一寻址 (unified addressing) 都包含在以上信息中。了解这些特性是进行 CUDA C/C++ 编程的基础。

其它程序如 bandwidthTest, vectorAdd 等也将对 CUDA 的性能进行测试。


配置 nvcc 编译器

nvcc 是 CUDA C/C++ 的编译器,可以直接编译包含 C++ 语法的 (.cu) 源文件,语法和 gcc 类似。nvcc 的路径位于:

 /usr/local/cuda-10.1/bin

在命令行中输入

 nvcc --version

可查看 CUDA C/C++ 编译器 nvcc 的版本,本机结果如下

 nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2019 NVIDIA Corporation Built on Sun_Jul_28_19:07:16_PDT_2019 Cuda compilation tools, release 10.1, V10.1.243

使用 nvcc 编译包含了 CUDA Library 的源文件时,需要在 nvcc 命令中添加相应的 flag。例如,cuRAND 的 flag 为 -lcurand,cuBLAS 的 flag 为 -lcublas。如果不希望每次编译时都加上这些动态库的话,可以在 .bashrc 中写入

 alias nvc="nvcc -std=c++11 -lcurand -lcublas”

然后使用 nvc 来进行 C/C++ 文件的编译。


使用 nvcc 进行 CUDA C/C++ 编程

为了体验 GPU 编程,测试一个简单的 CUDA C++ 程序:两个整型向量的加法

 #include #include  using namespace std;  __global__ void add(int *a, const int *b){     int i = blockIdx.x;     a[i] += b[i]; }  int main(){     const int N = 10; // number of elements     int *a, *b, *temp, i;     // malloc HOST memory for temp     temp = new int [N];     // malloc DEVICE memory for a, b     cudaMalloc(&a, N*sizeof(int));     cudaMalloc(&b, N*sizeof(int));     // set a's values: a[i] = i     for(i=0;i>>(a, b);     // show a's values     cudaMemcpy(temp, a, N*sizeof(int), cudaMemcpyDeviceToHost);     for(i=0;i上述代码使用的 CUDA 函数包括:cudaMalloc: 为指针申请 GPU 中的内存cudaMemcpy: CPU 和 GPU 之间的内存拷贝cudaFree: 释放指针指向的 GPU 内存将上述代码保存为文件 test.cu,并在命令行里输入 nvcc -std=c++11 -o test test.cu即可生成名为 test 的可执行文件。打开这个文件,屏幕上将输出 0 3 6 9 12 15 18 21 24 27注意:上述代码仅为测试 CUDA C/C++ 程序之用,不具有运行效率上的参考性。使用 Numba 进行 CUDA Python 编程Numba 是用于高性能计算的 Python 扩展库,它利用即时编译机制 (JIT) 将 Python 和 NumPy 的一部分代码转换为机器指令,从而大幅提高程序的运行速度。推荐使用 Anaconda 管理包括 Numba 在内的各种 Python 扩展库,因为它比 pip 方便许多。下载安装 Anaconda: wget https://repo.continuum.io/arcHive/Anaconda3-2019.07-Linux-x86_64.sh sudo sh Anaconda3-2019.07-Linux-x86_64.sh用 Anaconda 安装 CUDA Toolkit: conda install -c anaconda cudatoolkit使用 conda 安装的 CUDA Toolkit 位于 Anaconda 中,并且只能用于 Python。C/C++ 和 Anaconda 使用的 CUDA Toolkit 相互独立,可以同时存在且互不影响。使用 Anaconda 安装的 CUDA Toolkit 的版本不能超过 NVIDIA Driver 支持的最新的 CUDA 版本。Numba 是 Anaconda 自带的扩展库之一。在命令行中输入 numba -s可以查看硬件信息、操作系统信息、Python 版本、CUDA 版本信息。本机输出结果为:硬件信息: __Hardware InfORMation__ Machine                                       : x86_64 CPU Name                                      : broadwell Number of accessible CPU cores                : 4 Listed accessible CPUs cores                  : 0-3 CFS restrictions                              : None CPU Features                                  : 64bit adx aes avx avx2 bmi bmi2 cmov cx16 f16c fma fsgsbase invpcid lzcnt mmx movbe pclmul popcnt prfchw rdrnd rdseed rtm sahf sse sse2 sse3 sse4.1 sse4.2 ssse3 xsave xsaveopt操作系统信息: __OS Information__ Platform                                      : Linux-4.15.0-1040-gcp-x86_64-with-debian-stretch-sid Release                                       : 4.15.0-1040-gcp System Name                                   : Linux Version                                       : #42~16.04.1-Ubuntu SMP Wed Aug 7 16:42:41 UTC 2019 OS specific info                              : debianstretch/sid glibc infoPython 版本 __Python Information__ Python Compiler                               : GCC 7.3.0 Python Implementation                         : CPython Python Version                                : 3.7.3 Python Locale                                 : en_US UTF-8CUDA 版本 __CUDA Information__ Found 1 CUDA devices id 0            b'Tesla K80'                              [SUPPORTED]                       compute capability: 3.7                            pci device id: 4                               pci bus id: 0 Summary:         1/1 devices are supported CUDA driver version                           : 10010 CUDA libraries: Finding cublas from Conda environment         named  libcublas.so.10.2.0.168         trying to open library...       ok Finding cusparse from Conda environment         named  libcusparse.so.10.1.168         trying to open library...       ok Finding cufft from Conda environment         named  libcufft.so.10.1.168         trying to open library...       ok Finding curand from Conda environment         named  libcurand.so.10.1.168         trying to open library...       ok Finding nvvm from Conda environment         named  libnvvm.so.3.3.0         trying to open library...       ok Finding libdevice from Conda environment         searching for compute_20...     ok         searching for compute_30...     ok         searching for compute_35...     ok         searching for compute_50...     okNumba 的具体使用请参考官方文档。使用 Tensorflow + CUDA 进行 GPU 加速的 Python 编程使用 conda 安装 GPU 版本的 TensorFlow: conda install -c anaconda tensorflow-gpu在安装过程中可能会提示环境写入权限的错误: EnvironmentNotWritableError: The current user does not have write permissions to the target environment.   environment location: /home/abneryepku/anaconda3   uid: 1001   gid: 1002可以使用修改文件夹权限的方法解决: sudo chown -R 1001:1002 /home/abneryepku/anaconda3安装好 TensorFlow 后,为了查看 GPU 是否可用,进入 Python 解释器环境,输入: import tensorflow as tf tf.test.is_gpu_available()即可查看 GPU 在 TensorFlow 中是否可用。其它扩展库如 PyTorch 可使用类似方法进行安装。

关于“Linux下CUDA如何安装和使用”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

--结束END--

本文标题: Linux下CUDA如何安装和使用

本文链接: https://www.lsjlt.com/news/318563.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Linux下CUDA如何安装和使用
    这篇文章将为大家详细讲解有关Linux下CUDA如何安装和使用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。CUDA是显卡厂商NVIDIA推出的运算平台。 CUD是一种由NVIDIA推出的通用并行计算架构...
    99+
    2023-06-28
  • Linux下如何安装和使用OpenNMS
    这篇文章将为大家详细讲解有关Linux下如何安装和使用OpenNMS,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。OpenNMS是一个企业级基于Java/XML的分布式网络和系统监控管理平台。OpenNM...
    99+
    2023-06-28
  • Linux下如何安装和使用Ganglia
    这篇文章给大家分享的是有关Linux下如何安装和使用Ganglia的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Ganglia是一个跨平台可扩展的,高 性能计算系统下的分布式监控系统,如集群和网格。它是基于分层设...
    99+
    2023-06-27
  • Linux下如何安装和使用APF
    这篇文章主要为大家展示了“Linux下如何安装和使用APF”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Linux下如何安装和使用APF”这篇文章吧。APF是一款Linux下的iptables防...
    99+
    2023-06-28
  • Linux下如何安装和使用XWiki
    这篇文章主要为大家展示了“Linux下如何安装和使用XWiki”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Linux下如何安装和使用XWiki”这篇文章吧。XWiki是一个由Java编写的基于...
    99+
    2023-06-28
  • Linux下如何安装和使用Lynis
    这篇“Linux下如何安装和使用Lynis”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Linux下如何安装和使用Lynis...
    99+
    2023-06-28
  • Linux下cpustat如何安装和使用
    这篇文章主要介绍Linux下cpustat如何安装和使用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!cpustat 是 Linux下用Go编写的系统性能测量程序,它通过使用 “用于分析任意系统的性能的方法(USE)...
    99+
    2023-06-28
  • Linux下如何安装和使用ClamAV
    这篇文章主要讲解了“Linux下如何安装和使用ClamAV”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Linux下如何安装和使用ClamAV”吧!ClamAV是Linux平台上领先的开源病...
    99+
    2023-06-28
  • Linux下如何安装和使用SQLite3
    本文小编为大家详细介绍“Linux下如何安装和使用SQLite3”,内容详细,步骤清晰,细节处理妥当,希望这篇“Linux下如何安装和使用SQLite3”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。SQLite3...
    99+
    2023-06-27
  • Linux下如何安装和使用Wine
    这篇文章给大家分享的是有关Linux下如何安装和使用Wine的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Wine是一个能够在多种 POSIX-compliant 操作系统(诸如 Linux,macOS 及 BS...
    99+
    2023-06-27
  • Linux下如何安装和使用CoreFreq
    这篇文章将为大家详细讲解有关Linux下如何安装和使用CoreFreq,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。CoreFreq 是一个用于英特尔 64 位处理器的 CPU 监控程序,并且支持 Ato...
    99+
    2023-06-27
  • Linux下如何安装和使用NetHogs
    小编给大家分享一下Linux下如何安装和使用NetHogs,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!NetHogs是一个小型的net top工具,不像大多数工...
    99+
    2023-06-27
  • Linux下如何安装和使用RabbitMQ
    这篇文章主要介绍Linux下如何安装和使用RabbitMQ,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!RabbitMQ是目前非常热门的一款消息中间件,不管是互联网大厂还是中小企业都在大量使用。作为一名合格的开发者,...
    99+
    2023-06-28
  • Linux下Sensu如何安装使用
    这篇文章主要介绍Linux下Sensu如何安装使用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!Sensu 是一款开源的监控框架。 Sensu 采用 C/S 结构,有用来发送指令、存储数据的 Sensu Server...
    99+
    2023-06-28
  • Linux下如何安装使用git
    这篇文章主要为大家展示了Linux下如何安装使用git,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带大家一起来研究并学习一下“Linux下如何安装使用git”这篇文章吧。什么是Linux系统Linux是一种免费使用和自由传...
    99+
    2023-06-06
  • Linux下如何安装并使用ClusterShell
    这篇文章主要为大家展示了“Linux下如何安装并使用ClusterShell”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Linux下如何安装并使用ClusterShell”这篇文章吧。Clus...
    99+
    2023-06-27
  • Linux下如何安装并使用Iperf
    这篇文章将为大家详细讲解有关Linux下如何安装并使用Iperf,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Iperf 是一个网络性能测试工具。Iperf可以测试最大TCP和UDP带宽性能,具有多种参数...
    99+
    2023-06-27
  • Linux下如何使用YUM安装JDK
    这篇文章主要介绍了Linux下如何使用YUM安装JDK,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。JDK 是Java开发工具包 (Java Development Kit ...
    99+
    2023-06-28
  • Linux下如何安装并使用Speedtest
    这篇文章主要介绍了Linux下如何安装并使用Speedtest的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Linux下如何安装并使用Speedtest文章都会有所收获,下面我们一起来看看吧。安装speedte...
    99+
    2023-06-27
  • Ubuntu上如何安装CUDA
    本篇内容介绍了“Ubuntu上如何安装CUDA”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!安装过程:一、安装、熟悉ubuntu16.04系...
    99+
    2023-07-04
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作