Tag: gpu

需要login密码才能访问运行在nvidia-docker容器中的jupyter笔记本

我按照以下顺序运行这个命令,以便在Ubuntu 16.04(NVIDIA GPU GeFORCE 840M)成功安装后,在Docker容器中运行tensoflow。 1.sudo服务docker start 2.sudo nvidia-docker run -it -p 8888:8888 gcr.io /tensorflow/tensorflow:latest-gpu 然后,我尝试通过inputlocalhost:8888来访问firefox浏览器中的jupyter,并要求我在浏览器中inputlogin密码。 解决办法是什么?

nvidia-docker中的TensorFlow:调用cuInit失败:CUDA_ERROR_UNKNOWN

我一直在努力获得一个依赖于TensorFlow的应用程序来作为一个docker容器与nvidia-docker 。 我已经在tensorflow/tensorflow:latest-gpu-py3之上编译了我的应用程序tensorflow/tensorflow:latest-gpu-py3 image。 我用以下命令运行我的docker容器: sudo nvidia-docker run -d -p 9090:9090 -v /src/weights:/weights myname/myrepo:mylabel 当通过portainer查看日志时,我看到以下内容: 2017-05-16 03:41:47.715682: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.1 instructions, but these are available on your machine and could speed up CPU computations. 2017-05-16 03:41:47.715896: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.2 instructions, but […]

用多个用户pipe理多个GPU

我有一个服务器(Ubuntu 16.04)与4个GPU。 我的团队分享这个,我们目前的方法是容纳我们所有与Docker的工作,并使用$ NV_GPU=0 nvidia-docker run -ti nvidia/cuda nvidia-smi来限制容器到GPU。 当我们非常清楚谁在使用哪个GPU时,这个效果很好,但是我们的团队已经发展壮大了,我想要一个更强大的监控GPU使用的方法,并禁止在GPU使用时访问GPU。 nvidia-smi是“GPU-Util”的一个信息通道,但是有时GPU在某个时刻可能有0%的GPU-Util,而当前它是由在容器中工作的人保留的。 你有什么build议: 当用户运行$ NV_GPU='gpu_id' nvidia-docker run时跟踪 当另一个用户运行$ NV_GPU='same_gpu_id' nvidia-docker run时发生错误 保持一个更新的日志,这是沿着{'gpu0':'user_name或free',。 。 。'gpu3':'user_name or free'},其中每个gpu标识使用该gpu运行活动docker容器的用户,或者说它是'free'。 实际上,说明用户和连接到GPU的容器将是可取的。 当用户closures正在使用gpu的容器时更新日志 我可能也在想这个错误的方式,所以对其他想法敞开心扉。 谢谢!

如何在Docker镜像中运行GPGPU,与主机内核和GPU驱动版本不同

我有几台GPU的机器。 我的想法是将它们附加到不同的docker实例,以便在CUDA(或OpenCL)计算中使用该实例。 我的目标是用相当古老的Ubuntu和相当老的AMDvideo驱动程序(13.04)来设置docker镜像。 原因很简单:升级到较新版本的驱动程序将打破我的OpenCL程序(由于错误的AMD Linux驱动程序)。 所以问题在于。 是否有可能运行新鲜的内核4.2和更新的AMD( fglrx )驱动程序在仓库中的旧Ubuntu,旧内核(例如3.14)和旧的AMD( fglrx )驱动程序的新鲜的Arch Linux安装程序的docker映像? PS我试过这个答案 (与Nvidia卡),不幸的是deviceQuery图像内的deviceQuery没有看到任何CUDA设备(因为它发生在原来的答案一些评论者)… PPS我的设置: CPU:Intel Xeon E5-2670 GPU的: 1个Radeon HD 7970 $ lspci -nn | grep Rad 83:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Tahiti XT [Radeon HD 7970/8970 OEM / R9 280X] [1002:6798] 83:00.1 Audio device [0403]: Advanced Micro Devices, […]

在Windows 10上访问Docker上的GPU

我注意到nvidia已经支持GPU和Docker,但是我相信这只是针对linux。 有没有人得到它在Windows 10上工作? 特别是,我希望能够访问机器学习应用程序。 https://github.com/NVIDIA/nvidia-docker

使用gpu内存作为约束来调度一个Docker群的容器

是否有可能将具有docker群的容器安排到具有一定gpu内存的节点? 例如,如果我需要安排具有5GB gpu内存的容器,那么如何让群集不安排容器,直到具有足够的gpu内存的节点变为可用。