Tag: nvidiadocker

Nvidia的docker – 不能findlibnvcuvid.sobuild设过程

我写了一个Dockerfile来构build我的QT应用程序,并且在编译时遇到了一些问题。 如果build命令在Dockerfile上,它会显示这个错误: ninja: error: '/usr/lib/x86_64-linux-gnu/libnvcuvid.so', needed by 'bin/x64/release/*****/librtmpPlugin.so', missing and no known rule to make it 我添加了一个符号链接来解决临时容器上的这个错误: ln -s /usr/local/nvidia/lib64/libnvcuvid.so.1 /usr/lib/x86_64-linux-gnu/libnvcuvid.so 但是,当我添加该行,并再次build立,我仍然有同样的错误。 首先,我认为这是因为一些悬挂图像的caching,但清理所有问题仍然存在。 这是我的一些ENV键: ENV LD_LIBRARY_PATH /usr/local/nvidia/lib:/usr/local/nvidia/lib64 ENV LIBRARY_PATH /usr/local/cuda/lib64/stubs:${LIBRARY_PATH} ENV PATH /usr/local/nvidia/bin:/usr/local/cuda/bin:${PATH} ENV OPENCL_HEADERS /usr/local/cuda/include ENV LIBOPENCL /usr/local/cuda/lib64 ENV CUDA_TOOLKIT_ROOT_DIR /usr/local/cuda ENV CUDA_NVCC_EXECUTABLE /usr/bin/nvcc 这是我做的一些“黑客”,以消除其他错误: RUN mv /usr/lib/x86_64-linux-gnu/libOpenCL.so.1 /usr/lib/x86_64-inux-gnu/libOpenCL.so.1_old RUN ln -s /usr/local/cuda/lib64/libOpenCL.so.1 /usr/lib/x86_64-linux-gnu/libOpenCL.so.1 […]

Docker生成错误 – OSError:没有这样的文件或目录

我正在尝试使用以下命令在机器上构build一个使用GPU的user@maquina:/homeLocal/hugo/docker1/dl-docker⟫ docker build -t floydhub/dl-docker:gpu -f Dockerfile.gpu . : user@maquina:/homeLocal/hugo/docker1/dl-docker⟫ docker build -t floydhub/dl-docker:gpu -f Dockerfile.gpu . 但是,在施工期间,会发生以下错误: Exception: Traceback (most recent call last): File "/usr/local/lib/python2.7/dist-packages/pip/basecommand.py", line 215, in main status = self.run(options, args) File "/usr/local/lib/python2.7/dist-packages/pip/commands/install.py", line 342, in run prefix=options.prefix_path, File "/usr/local/lib/python2.7/dist-packages/pip/req/req_set.py", line 795, in install requirement.commit_uninstall() File "/usr/local/lib/python2.7/dist-packages/pip/req/req_install.py", line 767, in commit_uninstall self.uninstalled.commit() […]

用Dockerfile安装咖啡时出错

我试图通过这个Dockerfile安装caffe – > https://github.com/floydhub/dl-docker/blob/master/Dockerfile.gpu 我使用以下命令在计算机上构builduser@maquina:/homeLocal/hugo/docker1/dl-docker⟫ docker build -t floydhub/dl-docker:gpu -f Dockerfile.gpu . : user@maquina:/homeLocal/hugo/docker1/dl-docker⟫ docker build -t floydhub/dl-docker:gpu -f Dockerfile.gpu . 但是,在施工期间,会发生以下错误: The command '/bin/sh -c git clone -b ${CAFFE_VERSION} –depth 1 https://github.com/BVLC/caffe.git /root/caffe && cd /root/caffe && cat python/requirements.txt | xargs -n1 pip install && mkdir build && cd build && cmake -DUSE_CUDNN=1 -DBLAS=Open […]

如何从Docker容器连接到Nvidia MPS服务器?

我想重叠许多docker集装箱使用的GPU。 Nvidia提供了一个实用程序来实现这一点: 这里logging的多进程服务。 具体来说它说: 当CUDA首次在程序中初始化时,CUDA驱动程序将尝试连接到MPS控制守护进程。 如果连接尝试失败,程序继续运行,正常情况下没有MPS。 但是,如果连接尝试成功,则MPS控制守护程序将继续执行,以确保在与客户端连接之前启动的MPS服务器与连接客户端的用户标识相同。 MPS客户端然后继续连接到服务器。 MPS客户端,MPS控制守护程序和MPS服务器之间的所有通信都使用命名pipe道完成。 默认情况下,命名pipe道被放置在/tmp/nvidia-mps/ ,所以我使用卷与容器共享该目录。 但是这对于容器上的cuda驱动程序来“看见”MPS服务器是不够的。 我应该在主机和容器之间共享哪些资源,以便连接到MPS服务器?

docker集装箱中是否提供NCCL2?

我将要构build一个infiniband GPU集群以进行深度学习。 由于有几个主机,我想通过使用nvidia-docker(Dockerfile)来简化部署。 许多深度学习框架都有自己的官方容器(Dockerfile),所以我认为很多人都认为它是很自然的。 我知道如何将预先下载的NCCL2库复制到docker容器中,但我从来没有尝试过/testing在两个在不同主机上设置的docker容器之间是否有GPUDirect RDMA传输。 而且我也找不到任何有人试图用NCCL2实现这种Dockerfile进行分布式深度学习的资源。 有没有人尝试使用NCCL2来分发深层次的Docker容器?

GLXGears不能在Docker中工作

我试图让在Docker容器内运行的nvidia硬件加速。 到目前为止,我没有成功。 当运行glxgears我得到以下错误。 root@fea7a51ac757:/# glxgears libGL error: No matching fbConfigs or visuals found libGL error: failed to load driver: swrast X Error of failed request: BadValue (integer parameter out of range for operation) Major opcode of failed request: 154 (GLX) Minor opcode of failed request: 3 (X_GLXCreateContext) Value in failed request: 0x0 Serial number of […]

nvidia-smi可执行文件未find

在nvidia-docker回购中,我已经经历了3个不同的问题,但实际上却搞不清楚是什么问题。 我是一个沉重的docker使用者,但我不太了解这些问题中使用的术语和解决scheme。 当我运行nvidia-smi作为sudo,一切都很好,我得到了标准输出。 我的nvidia-docker-plugin正在运行,当我运行nvidia-docker run –rm nvidia/cuda nvidia-smi run时,我得到了这些消息nvidia-docker run –rm nvidia/cuda nvidia-smi : nvidia-docker-plugin | 2017/11/04 09:14:18接收到音量“nvidia_driver_387.22”的挂载请求Blockquote nvidia-docker-plugin | 2017/11/04 09:14:18收到卸载请求卷'nvidia_driver_387.22' 我也尝试运行deepo存储库,无法得到它的工作,因为所有我的容器在启动时退出,并且nvidia-docker run –rm nvidia/cuda nvidia-smi输出错误: container_linux.go:247:启动容器进程导致“exec:\”nvidia-smi \“:可执行文件在$ PATH中找不到”/ usr / bin / docker-current:来自守护程序的错误响应:oci运行时错误:container_linux.go :247:启动容器进程导致“exec:\”nvidia-smi \“:在$ PATH中找不到可执行文件”。 我究竟做错了什么? 我运行Fedora 26,如果有什么区别的话

要运行Windows应用程序的自动化testing没有监视器,我的意思是,我不想要UI,在内存中运行testing

我的意图是执行所有自动testing的Windows应用程序没有连接到监视器/用户界面。 意思是,它可能是像内存虚拟/假屏幕/模拟屏幕。 所以当应用程序启动时,它将被加载到内存中,所有的自动化testing都必须执行。

nvidia-container-cli:初始化错误:cuda错误:未检测到有cudafunction的设备

我正在使用nvidia / cuda:8.0-devel图像并试图运行它。 但是我得到以下错误。 sudaraka@RnDCompute:~$ docker run -it –runtime=nvidia nvidia/cuda:8.0-devel docker: Error response from daemon: oci runtime error: container_linux.go:265: starting container process caused "process_linux.go:368: container init caused \"process_linux.go:351: running prestart hook 1 caused \\\"error running hook: exit status 1, stdout: , stderr: exec command: [/usr/bin/nvidia-container-cli –load-kmods configure –ldconfig=@/sbin/ldconfig.real –device=all –compute –utility –require=cuda>=8.0 –pid=12053 /var/lib/docker/overlay2/a72cba41e94578ff91c71ab56b07d8e9153386e43383482ac649419ae0a77220/merged]\\\\nnvidia-container-cli: initialization […]

将vimconfiguration为nvidia-docker容器

我正在使用nvidia-docker来训练很less的深度学习模型。 每当我把我的运行容器附加到我意识到的时候,vim设置都不适应容器的vim。 所以我安装了vundle,并将主机的.vimrc选项复制到容器root/.vimrc 。 我没有具体的错误。 但是:NERDTree或其他命令不运行请帮助。 这是我的.vimrc设置 set shell=/bin/bash set nocompatible " be iMproved, required filetype off " required " set the runtime path to include Vundle and initialize set rtp+=~/.vim/bundle/Vundle.vim call vundle#begin() " alternatively, pass a path where Vundle should install plugins "call vundle#begin('~/some/path/here') " let Vundle manage Vundle, required Plugin 'VundleVim/Vundle.vim' " The […]