Tag: python

docker上不能停留的货柜 – 组成

编写一个简单的生产者/消费者RabbitMQ的例子,我不能让我的消费者容器继续在docker-compose up -d运行docker-compose up -d 。 它应该在无限循环上运行。 正如你所看到的,当运行docker-compose run consumer以及docker-compose run -d consumer时,可以使其保持docker-compose run -d consumer app.py #!/usr/bin/env python import argparse import pika import json connection = None channel = None TYPES = ['producer', 'consumer'] def producer(): global connection, channel connection = pika.BlockingConnection(pika.ConnectionParameters('rabbit')) channel = connection.channel() channel.queue_declare(queue='hello') # Currently a python dict data = { […]

Node.js运行与脚本库的Python脚本

我有一个Node.js应用程序,每分钟都会对API进行GET调用。 它收到的数据存储在一个MongoDB数据库中。 同时,Node.js每分钟都在该数据上运行Python脚本(使用Keras库)。 基于Python脚本的输出,Node.js应用程序对同一个API进行POST调用。 在我下载Node.js,npm,python的keras库和mongo后,这将全部在Docker上全天候运行。 Node.js应用程序和Python脚本应该如何交互? 我可以有一个简单的node-cmd npm包来从Node.js代码运行脚本,还是更复杂? 我错过了什么吗? 谢谢!

如果在Docker中运行,ZeroMQ REQ .recv()挂起的消息大于〜1kB

我正在使用REQ / ROUTER套接字来开发一个相对简单的基于Python / ZeroMQ的工作分配系统。 该系统是分布式的,工作人员节点分布在不同的大陆上。 ROUTER负责分配工作, .bind() ROUTER套接字。 通过使用REQ套接字的TCP工作者.connect() 。 在build立一个新的工作节点的过程中,我注意到虽然较小的消息(高达1kB)没有问题,但是由ROUTER发送的〜2kB以上的回复永远不会被工作人员接收进入他们的REQ -socket – 当我调用recv() ,套接字只是挂起。 工作者代码在Docker容器内部运行,当我运行同样的镜像时,我能够解决这个问题–net=host – 如果Docker使用主机networking,似乎不会发生这种情况。 我想知道这是否是在主机或Docker的networking堆栈configuration中的东西,或者是可以防止在我的代码中的东西? 这里是我的代码的简化版本,再现了这个问题: 工人 import sys import zmq import logging import time READY = 'R' def worker(connect_to): ctx = zmq.Context() socket = ctx.socket(zmq.REQ) socket.connect(connect_to) log = logging.getLogger(__name__) while True: socket.send_string(READY) log.debug("Send READY message, waiting for reply") message […]

将SQL Server的Linux ODBC驱动程序添加到Kaggle / Python泊坞窗图像

我正在尝试构build一个能够在生产环境中运行机器学习python程序的数据科学机器。 当前的业务案例数据需要从SQL Server中提取,使用python进行机器学习,并推回到SQL Server。 我想安装Linux的ODBC驱动程序。 https://docs.microsoft.com/en-us/sql/connect/odbc/linux-mac/installing-the-microsoft-odbc-driver-for-sql-server 我有的问题是哪个驱动程序要安装? 当我使用下面的命令连接到容器时,它工作正常,并映射到我的Python程序在poc目录中。 “docker run -it -volume = c:\ docker \ poc:/ poc kaggle / python / bin / bash” 当我尝试使用以下命令找出Linux的版本时, “uname -a” 我看到它是来自Docker的Moby Linux? Linux 69982a00af21 4.9.49-moby#1 SMP Wed Sep 27 00:36:29 UTC 2017 x86_64 GNU / Linux 但是,基础图像是从哪里构build的? (Ubuntu,Debian,Fedora,Red Hat等) 我需要Unixpipe理员来帮助我。 我如何获得ODBC驱动程序安装? 任何接受者! 在此先感谢您的帮助。 约翰

如何从Python Docker镜像访问本地文件系统?

这可能在别处有答案,但我找不到它。 我有一个Python 3.x的Docker镜像: $ docker images REPOSITORY TAG IMAGE ID CREATED SIZE python latest 26acbad26a2c 2 months ago 690MB 我使用这个命令运行图像: $ docker run -i -t python 但是,从Docker容器中,我希望能够访问我的本地文件系统来导入Python模块等。 我怎样才能做到这一点?

当Keras(Tensorflow)在Django启动时Docker退出

我目前在同一个docker集装箱的本地工作,但在我的数字海洋液滴,我无法得到它的工作。 我相信错误发生在这里: https : //github.com/jrobchin/lyterai/blob/master/app/hub/demo/keras_demo.py from keras import backend as K from keras.preprocessing import image from keras.applications.imagenet_utils import preprocess_input from keras.models import model_from_json K.set_image_dim_ordering('tf') K.set_image_data_format('channels_last') def load_model(layers, weights): # Load model architecture and parameters model_json = open(layers, 'r') loaded_model_json = model_json.read() model_json.close() model = model_from_json(loaded_model_json) # Load model weights model.load_weights(weights) return model def predict(image, layers, […]

Ngrok将404错误映射到包含Flask应用程序的泊坞窗容器

我有一个瓶子应用程序在docker集装箱内运行。 该容器是自举的: https://github.com/mikaelm1/flask-api-boilerplate 该应用程序被映射到0.0.0.0:8000以便在容器外部访问,当我通过localhost:8000上的浏览器访问该应用程序时,它的作用就像一个魅力。 但是,当暴露与ngrok ngrok http 8000 ,我得到一个404错误。 有没有人见过这个 ?

是否有可能从正在运行的Docker容器中发送HTTP请求

我有一个基本的分布式系统,可以计算Github所有提交回购的平均回圈复杂度。 它由一个在Flask上运行的主节点组成,这个主节点在发送一个GET请求给主节点时给一组Worker节点提供SHA ID。 我试图用Docker做一些练习,并且想把我的Worker代码放在一个Docker容器中,然后把这个容器放在一组远程机器上,让Master在我的本地机器上运行。 我希望工人和主人能够相互沟通。 我不清楚如何去做这件事。 我已经尝试告诉Worker节点将他们的请求发送到我的本地机器的公有IP和运行Flask服务器的端口(5000)。 我已将远程计算机的端口5000映射到Docker容器的端口5000。 这是关于我在这里知识的程度。 我将在下面附上一些相关的代码片段,而不用粘贴整个程序。 主设置: if __name__ == '__main__': get_commits() TOTAL_COMMITS = len(JOB_QUEUE) app.run(host='0.0.0.0', port=5000, debug=False) print('\n—–Shutting Down Server—–') calc_avg_cc() 工人URLS: master_url = 'http://<my public ip>:5000/' node_setup_url = 'http://<my public ip>:5000/init' – – – – – – – – – – – – – – – – – – […]

张量:标签开始在类别训练中没有图像?

input: python tensorflow/examples/image_retraining/retrain.py –bottleneck_dir=/Potholes/bottleneck –how_many_training_steps 100 –model_dir=/Potholes/inception –output_graph=/Potholes/retrained_graph.pb –output_labels=/Potholes/retrained_labels.txt –image_dir /Potholes/Potholes/.. 使用docker进行tensorflow,训练Inception模型的上层,并在重新训练模型时获得跟随误差。

“curl:(8)奇怪的服务器回复”从kubernetes

我正在尝试从Kubernetes内运行的容器中使用Python Rest API调用。 我能够使用吊舱内的服务 *curl http://localhost:5002/analyst_rating -v * Trying 127.0.0.1… * Connected to localhost (127.0.0.1) port 5002 (#0) > GET /analyst_rating HTTP/1.1 > Host: localhost:5002 > User-Agent: curl/7.47.0 > Accept: */* > * HTTP 1.0, assume close after body < HTTP/1.0 200 OK < Content-Type: application/json < Content-Length: 37 < Server: Werkzeug/0.12.2 Python/2.7.12 < Date: […]