Tag: csv

将大型csv文件导入AWS ECS容器上的Rails应用程序时出错

我试着用2700行上传一个csv,我的服务(在AWS上运行的一个Docker容器中)在几秒钟后停止运行,但是上传完成(因为所有数据都存在于我的数据库中)。 日志(cloudwatch)不显示任何错误,而是服务停止并重新启动(有时成功,有时不成功)。 我发现Heroku在这里有一个类似的问题,答案是Heroku在所有请求中都有30秒的超时,AWS有类似的东西吗? 如果不是如何克服这一点,因为在我的工作场所CSV上传频繁。 谢谢。

Docker:如何导出/保存Docker(tensorflow)框外的分类结果?

我只是按照这个教程轻松地训练一个tensorflow的图像分类器: https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/ 我现在在我的Ubuntu笔记本电脑上有一个Docker框,我设法训练图像分类器和IT WORKS。 现在我想分类一批新的图像, 并将结果(即概率)存储在我的笔记本电脑上 。 我的目标是保存在我的笔记本电脑中的“output.csv”文件如下所示的结果: pic1 0.95 0.05 pic2 0.94 0.06 pic3 0.97 0.03 pic4 0.09 0.91 我把新的图像放在一个“testing”的文件夹中,我运行下面的python代码,试图写在输出文件中。 在Dockerterminal里面我运行: python /tf_files/label_batch_images.py /tf_files/tested 其中label_batch_images.py代码是: import tensorflow as tf, sys import glob folder_path = sys.argv[1] # Loads label file, strips off carriage return label_lines = [line.rstrip() for line in tf.gfile.GFile("/tf_files/retrained_labels.txt")] # Unpersists graph from […]

_mysql_exceptions错误(1064,“检查与您的MySQL服务器版本相对应的手册,在正确的语法附近使用默认值)VALUES

我想使用python脚本自动导入CSV到MySQL数据库。 我使用https://bitbucket.org/richardpenman/csv2mysql的脚本来完成这个任务。 以下是代码: import os import re import sys import csv import time import argparse import collections import MySQLdb import warnings # suppress annoying mysql warnings warnings.filterwarnings(action='ignore', category=MySQLdb.Warning) def get_type(s): """Find type for this string """ # try integer type try: v = int(s) except ValueError: pass else: if abs(v) > 2147483647: return 'bigint' else: […]