Tag: lvm

设备如何映射“联合”泊坞窗图像

我理解AUFS如何将各种目录的联合视图呈现给docker工人。 但是,当涉及到Docker的DeviceMapper作为后端: 虽然我理解设备映射器精简configuration和快照如何工作,但我无法理解docker中的各种图像层如何“合并”为单个视图。 docker文档,只谈快照时的快照,但没有详细说明。 因此,在理解(高层次)时,我是否正确:例如,当下载3层图像时,docker工人将: 为基础层创build一个设备/逻辑卷,并复制它的基础焦点(假设不存在) 拍(1)的快照,然后覆盖第二层(使用CoW) 拍(2)的快照,然后对第3层执行相同操作。 一旦设备被创build,从docker中心下载的tar文件可能不再需要和删除?

无法在Debian中创build一个thinpool

我正在重新分区现有的磁盘,并尝试创build一个设备映射器。 所以我的VG组看起来像下面这样: root@my:~# vgdisplay — Volume group — VG Name my-vg System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 6 VG Access read/write VG Status resizable MAX LV 0 Cur LV 5 Open LV 5 Max PV 0 Cur PV 1 Act PV 1 VG Size 111.55 GiB PE Size 4.00 MiB Total […]

在Sandbox容器中调整分区大小

我需要一些与Docker的帮助。 我用Docker和50 GB的空间安装了一个Hortonworks Sandbox 2.5,但一个月前磁盘上没有空闲空间,所以我在lvm中扩展了池。 现在我的容器有更多的可用空间,但我需要调整主分区(rootfs),因为它已经满了。 我不知道它是如何工作的 我希望你能帮助我。 谢谢

在Ubuntu上创build一个卷组以支持docker的非回送devicemapper驱动程序?

有很多材料指出使用devicemapper驱动程序使用回送设备的危险。 这个问题似乎包含了摆脱回环设备所需的大部分信息。 强烈build议在生产中使用环回设备 我的问题是如何在Ubuntu中创build卷组/dev/my-vg ? 还是有绕回设备周围的其他path不涉及创build一个卷组?

由于设备映射程序错误,无法运行Docker容器

我不能在Docker中创build和运行新的容器。 但在同一时间可以运行先前创build的容器。 当我尝试做这样的事情: [user@host ~ ] docker run –name=fpm-5.3 debian:jessie 2014/07/12 07:34:08 Error: Error running DeviceCreate (createSnapDevice) dm_task_run failed 从docker.log : 2014/07/12 05:57:11 POST /v1.12/containers/create?name=fpm-5.3 [f56fcb6f] +job create(fpm-5.3) Error running DeviceCreate (createSnapDevice) dm_task_run failed [f56fcb6f] -job create(fpm-5.3) = ERR (1) [error] server.go:1025 Error: Error running DeviceCreate (createSnapDevice) dm_task_run failed [error] server.go:90 HTTP Error: statusCode=500 Error […]

如何告诉Docker使用dm / LVM后端而不是vfs

我最近听到(从RedHat的家伙),“direct-LVM”(devicemapper)是推荐的存储后端的生产设置,所以我想在CentOS 7虚拟机上尝试一下。 (其中loopback-LVM似乎是默认的)。 所以我创build了一个单独的数据磁盘和VG,数据和元数据有两个LV,将它们传递到dockerconfiguration文件中,启动docker …到目前为止,看起来像这样: # ps auxwf … /usr/bin/docker -d –selinux-enabled -H unix://var/run/docker.sock \ –log-level=warn –storage-opt dm.fs=xfs \ –storage-opt dm.datadev=/dev/vg_data/docker-data \ –storage-opt dm.metadatadev=/dev/vg_data/docker-meta \ –storage-opt dm.basesize=30G –bip=172.17.42.1/24 \ # docker info Containers: 8 Images: 145 Storage Driver: devicemapper Pool Name: docker-253:0-34485692-pool Pool Blocksize: 65.54 kB Backing Filesystem: xfs Data file: /dev/vg_data/docker-data Metadata file: /dev/vg_data/docker-meta […]

Docker LVM thinpool元数据大小

我正在使用LVM thinpool作为Docker存储(dm.thinpooldev),到目前为止,我已经在元数据池中耗尽了空间。 这很容易打击,因为我可以重新创build具有大型元数据的thinpool,但我只是猜测(可能猜测)有多大。 有没有人对Docker的元数据的相对大小有任何build议? 它看起来像lvcreate默认是不够的: –poolmetadatasize MetadataVolumeSize [bBsSkKmMgG]设置池的元数据逻辑卷的大小。 对于精简池,支持的值范围介于2MiB和16GiB之间,对于caching池,支持的值介于16GiB之间。 最小值是从池的数据大小计算的。 精简池的默认值是(Pool_LV_size / Pool_LV_chunk_size * 64b)。 默认单位是兆字节。 我使用的基本命令是: DISK=/dev/xvdf VG=docker_vg LV=docker_pool pvcreate $DISK vgcreate $VG $DISK lvcreate -l 100%FREE –thinpool $LV $VG 或者replace一个任意的元数据大小 lvcreate -l 100%FREE –poolmetadatasize 200M –thinpool $LV $VG [编辑]好吧,没有回应,所以我现在只用1%。 到目前为止,这对我们是有效的,尽pipe可能仍然过度configuration。 DISK=/dev/xvdf VG=docker_vg LV=docker_pool DOCKER_POOL_METADATA_PERCENTAGE=1 DISK_SIZE=$(blockdev –getsize64 ${DISK}) META_DATA_SIZE=$(echo "scale=0;${DISK_SIZE}*${DOCKER_POOL_METADATA_PERCENTAGE}/100" | bc) pvcreate ${DISK} […]