Tag: docker tensorflow

GCP Docker错误:文件不驻留在使用–proto_path(或-I)指定的任何path中

我们正试图在GCP上承载tensorflow对象检测模型。 在运行“ gcloud app deploy ”之前,我们维护的是目录结构。 为了您的方便,我将这个问题连接到configuration文件。 Wer正在得到下面提到的部署错误。 请提出解决scheme。 +根 + object_detection / +超薄/ + ENV +的app.yaml + Dockerfile + requirement.txt +的index.html + test.py Dockerfile FROM gcr.io/google-appengine/python LABEL python_version=python2.7 RUN virtualenv –no-download /env -p python2.7 # Set virtualenv environment variables. This is equivalent to running # source /env/bin/activate ENV VIRTUAL_ENV /env ENV PATH /env/bin:$PATH # […]

bazel安装到0.5.4或更高版本来构buildTensorFlow

我正在用Bazel使用docker build –pull -t $USER/tensorflow-serving-devel -f Dockerfile.devel .构build一个TensorFlow的容器docker build –pull -t $USER/tensorflow-serving-devel -f Dockerfile.devel . 并运行docker run -it $USER/tensorflow-serving-devel如下所示: https : docker run -it $USER/tensorflow-serving-devel 但是,运行./configure命令后,我得到这个错误 root@4489fe3513fc:/serving/tensorflow# ./configure Extracting Bazel installation… You have bazel 0.5.1 installed. Please upgrade your bazel installation to version 0.5.4 or higher to build TensorFlow! Configuration finished root@4489fe3513fc:/serving/tensorflow# cd .. root@4489fe3513fc:/serving# […]

当Keras(Tensorflow)在Django启动时Docker退出

我目前在同一个docker集装箱的本地工作,但在我的数字海洋液滴,我无法得到它的工作。 我相信错误发生在这里: https : //github.com/jrobchin/lyterai/blob/master/app/hub/demo/keras_demo.py from keras import backend as K from keras.preprocessing import image from keras.applications.imagenet_utils import preprocess_input from keras.models import model_from_json K.set_image_dim_ordering('tf') K.set_image_data_format('channels_last') def load_model(layers, weights): # Load model architecture and parameters model_json = open(layers, 'r') loaded_model_json = model_json.read() model_json.close() model = model_from_json(loaded_model_json) # Load model weights model.load_weights(weights) return model def predict(image, layers, […]

容积安装tensorflow容器用于持久性存储

您好,我正在试图将TensorFlow笔记本文件夹挂载到Ubuntu中的/src/work文件夹。 sudo docker run -it -v /src/work:/HOME/notebooks -p 8888:8888 tensorflow/tensorflow:1.3.0 我已经尝试了许多-v标志的组合。 这不是正在读取我的工作文件夹中的文件或将新文件保存到它。

在重新训练基于诗歌张量stream的图像分类器期间运行retrain.py时出错

我正在学习“ TensorFlow的诗人 ”教程。 我在再训练步骤中遇到困难,因为某些原因,retrain.py命令(连同其他4行代码)遇到了错误。 我在想这可能是一个简单的修复。 我能够通过每个步骤成功地遵循codelab教程,直到使用以下命令的步骤: # python tensorflow/examples/image_retraining/retrain.py \ –bottleneck_dir=/tf_files/bottlenecks \ –how_many_training_steps 500 \ –model_dir=/tf_files/inception \ –output_graph=/tf_files/retrained_graph.pb \ –output_labels=/tf_files/retrained_labels.txt \ –image_dir /tf_files/flower_photos 我在我的Dockerterminalinput到我的命令行中,这是错误:root @ 3333e49b2f82:/ tensorflow#python tensorflow / examples / image_retraining / retrain.py \ –bottleneck_dir = / tf_files / bottlenecks \ –how_many_training_steps 500 \ –model_dir = / tf_files / inception \ –output_graph = / […]

在python tensorflow工作簿执行后取消分配内存

为了限制内存使用量,我阅读了如何防止张量分配整个GPU内存? 并试过这段代码: # Assume that you have 12GB of GPU memory and want to allocate ~4GB: gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333) sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options)) 这些命令确实释放了内存,但是在代码完成之后内存不会被解除分配。 此问题描述: https : //github.com/tensorflow/tensorflow/issues/3701build议的修复程序是更新驱动程序“将GPU驱动程序从352.79升级到367.35(最新的)之后,问题消失。 “不幸的是,我不能更新到最新版本的驱动程序。 这个问题是否已经解决。 我还考虑将可用内存限制在docker容器中。 阅读https://devblogs.nvidia.com/parallelforall/nvidia-docker-gpu-server-application-deployment-made-easy/ states“容器可以被限制在一个系统上有限的一组资源上(例如一个CPU内核和1GB的内存)“,但内核目前不支持这个,在这里我尝试添加1GB的内存到新的docker实例: nvidia-docker run -m 1024m -d -it -p 8889:8889 -v /users/user1234/jupyter:/notebooks –name tensorflow-gpu-1GB tensorflow/tensorflow:latest-cpu 但是这不会显示为接收警告:警告:您的内核不支持交换限制function,内存有限,无需交换。 tensorflow python工作簿完成后有没有命令来释放内存? Update 杀死/重新启动笔记本电脑后,内存将被分配。 但是如何在笔记本内完成后才能释放内存。

使用Docker编译源码的Tensorflow以加快CPU速度

我正在寻找一种方法来设置或修改一个现有的Docker镜像来安装tensorflow,它将安装它,以便SSE4,AVX,AVX2和FMA指令可以用于CPU加速。 到目前为止,我已经find了如何使用bazel从源代码安装如何编译Tensorflow …和CPU指令未编译…。 这些都不解释如何在Docker中做到这一点。 所以我想我正在寻找什么,你需要添加到一个现有的泊坞窗图像,没有这些选项安装,以便您可以得到一个启用CPU选项tensorflow的编译版本。 现有的docker图像不这样做,因为他们希望图像在尽可能多的机器上运行。 我在Linux PC上使用Ubuntu 14.04。 我是新来的docker工人,但已经安装了tensorflow,并没有得到我使用泊坞窗图像时得到的CPU警告。 我可能不需要这个速度,但是我已经看到那些声称加速可能很重要的post。 我search现有的docker图像这样做,找不到任何东西。 我需要这个与GPU工作,所以需要与NVIDIA的docker兼容。 我刚刚发现这个docker支持bazel ,它可能会提供一个答案,但我不明白,以及足够的知道。 我相信这就是说你不能在Dockerfile中使用bazel来构buildtensorflow。 你必须用bazelbuild立一个Dockerfile。 我的理解是正确的,这是唯一的方式来获得源码编译码stream图像与张量stream? 如果是这样的话,我仍然可以使用帮助来做到这一点,如果使用现有的docker图像进行tensorflow,仍然可以获得其他的依赖关系。

Docker错误从守护进程获取事件:EOF

错误报告信息 描述 大家好,遵循google codelabs, Codelabs CodeGo.net,我收到错误ERRO[4334] error getting events from daemon: EOF后Creating bottleneck at /tf_files/bottlenecks/roses/13231224664_4af5293a37.jpg.txt 更新:我reran它,这显示ERRO[53469] error getting events from daemon: EOF 重现问题的步骤: 1.“`python tensorflow / examples / image_retraining / retrain.py \ –bottleneck_dir = / tf_files / bottlenecks \ –how_many_training_steps 500 \ –model_dir = / tf_files / inception \ –output_graph = / tf_files / retrained_graph.pb […]

需要login密码才能访问运行在nvidia-docker容器中的jupyter笔记本

我按照以下顺序运行这个命令,以便在Ubuntu 16.04(NVIDIA GPU GeFORCE 840M)成功安装后,在Docker容器中运行tensoflow。 1.sudo服务docker start 2.sudo nvidia-docker run -it -p 8888:8888 gcr.io /tensorflow/tensorflow:latest-gpu 然后,我尝试通过inputlocalhost:8888来访问firefox浏览器中的jupyter,并要求我在浏览器中inputlogin密码。 解决办法是什么?

nvidia-docker中的TensorFlow:调用cuInit失败:CUDA_ERROR_UNKNOWN

我一直在努力获得一个依赖于TensorFlow的应用程序来作为一个docker容器与nvidia-docker 。 我已经在tensorflow/tensorflow:latest-gpu-py3之上编译了我的应用程序tensorflow/tensorflow:latest-gpu-py3 image。 我用以下命令运行我的docker容器: sudo nvidia-docker run -d -p 9090:9090 -v /src/weights:/weights myname/myrepo:mylabel 当通过portainer查看日志时,我看到以下内容: 2017-05-16 03:41:47.715682: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.1 instructions, but these are available on your machine and could speed up CPU computations. 2017-05-16 03:41:47.715896: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.2 instructions, but […]