]> sourceware.org Git - lvm2.git/commitdiff
lvconvert: prompt on raid1 image changes
authorHeinz Mauelshagen <heinzm@redhat.com>
Thu, 6 Apr 2017 16:47:41 +0000 (18:47 +0200)
committerHeinz Mauelshagen <heinzm@redhat.com>
Thu, 6 Apr 2017 16:47:41 +0000 (18:47 +0200)
Don't change resilience of raid1 LVs without --yes.

Adjust respective tests.

lib/metadata/raid_manip.c
test/shell/lvchange-raid.sh
test/shell/lvconvert-cache-raid.sh
test/shell/lvconvert-raid-allocation.sh
test/shell/lvconvert-raid-takeover.sh
test/shell/lvconvert-raid.sh
test/shell/lvconvert-thin-raid.sh
test/shell/lvcreate-large-raid.sh

index 05cbb740d3788ab3465e5e2e022b74c8812c6d06..8c58f3c91490f871f8fb8b9e1a0bbade3feec448 100644 (file)
@@ -2999,7 +2999,14 @@ int lv_raid_change_image_count(struct logical_volume *lv, int yes, uint32_t new_
                               const uint32_t new_region_size, struct dm_list *allocate_pvs)
 {
        struct lv_segment *seg = first_seg(lv);
+       const char *level = seg->area_count == 1 ? "raid1 with " : "";
+       const char *resil = new_count == 1 ? " loosing all" : (new_count < seg->area_count ? "s reducing" : "s enhancing");
 
+       if (!yes && yes_no_prompt("Are you sure you want to convert %s LV %s to %s%u image%s resilience? [y/n]: ",
+                                 lvseg_name(first_seg(lv)), display_lvname(lv), level, new_count, resil) == 'n') {
+               log_error("Logical volume %s NOT converted.", display_lvname(lv));
+               return 0;
+       }
        if (new_region_size) {
                seg->region_size = new_region_size;
                _check_and_adjust_region_size(lv);
index 09ef3fa3099b53ff3d58b90fc1dc99f938f2f69d..34a40dc8d8518f592b98c0aed329f9b1688b33b5 100644 (file)
@@ -128,7 +128,7 @@ run_writemostly_check() {
        # Converting to linear should clear flags and writebehind
        not lvconvert -m 0 $vg/$lv $d1
        lvconvert -y -m 0 $vg/$lv $d1
-       lvconvert --type raid1 -m 1 $vg/$lv $d1
+       lvconvert -y --type raid1 -m 1 $vg/$lv $d1
        check lv_field $vg/$lv raid_write_behind ""
        check lv_attr_bit health $vg/${lv}_rimage_0 "-"
        check lv_attr_bit health $vg/${lv}_rimage_1 "-"
@@ -274,7 +274,7 @@ run_checks() {
                printf "#\n#\n# run_checks: RAID as thinpool data\n#\n#\n"
 
 # Hey, specifying devices for thin allocation doesn't work
-#              lvconvert --thinpool $1/$2 "$dev6"
+#              lvconvert -y --thinpool $1/$2 "$dev6"
                lvcreate -aey -L 2M -n ${2}_meta $1 "$dev6"
                lvconvert --thinpool $1/$2 --poolmetadata ${2}_meta
                lvcreate -T $1/$2 -V 1 -n thinlv
@@ -289,7 +289,7 @@ run_checks() {
 
                lvrename $1/$2 ${2}_meta
                lvcreate -aey -L 2M -n $2 $1 "$dev6"
-               lvconvert --thinpool $1/$2 --poolmetadata ${2}_meta
+               lvconvert -y --thinpool $1/$2 --poolmetadata ${2}_meta
                lvcreate -T $1/$2 -V 1 -n thinlv
                THIN_POSTFIX="_tmeta"
 
index 3ad91c4590ff2b41110edc7d8f51694a8c10e3e5..e2fbf94d252be597bff7a8a952e5e7d968c13372 100644 (file)
@@ -66,8 +66,8 @@ aux wait_for_sync $vg cpool_cmeta
 lvchange --syncaction repair $vg/cpool_cdata
 aux wait_for_sync $vg cpool_cdata
 
-lvconvert --repair -y $vg/cpool_cmeta
-lvconvert --repair -y $vg/cpool_cdata
+lvconvert -y --repair $vg/cpool_cmeta
+lvconvert -y --repair $vg/cpool_cdata
 
 # do not allow reserved names for *new* LVs
 not lvconvert --splitmirrors 1 --name split_cmeta $vg/cpool_cmeta "$dev1"
@@ -87,18 +87,18 @@ lvremove -f $vg
 lvcreate --type cache-pool $vg/cpool -l 10
 lvcreate -n corigin -H $vg/cpool -l 20
 
-lvconvert -m+1 --type raid1 $vg/cpool_cmeta
+lvconvert -y -m +1 --type raid1 $vg/cpool_cmeta
 check lv_field $vg/cpool_cmeta layout "raid,raid1"
 check lv_field $vg/cpool_cmeta role "private,cache,pool,metadata"
 
-lvconvert -m+1 --type raid1 $vg/cpool_cdata
+lvconvert -y -m +1 --type raid1 $vg/cpool_cdata
 check lv_field $vg/cpool_cdata layout "raid,raid1"
 check lv_field $vg/cpool_cdata role "private,cache,pool,data"
 
-not lvconvert -m-1  $vg/cpool_cmeta
-lvconvert -y -m-1  $vg/cpool_cmeta
+not lvconvert -m -1  $vg/cpool_cmeta
+lvconvert -y -m -1  $vg/cpool_cmeta
 check lv_field $vg/cpool_cmeta layout "linear"
-lvconvert -y -m-1  $vg/cpool_cdata
+lvconvert -y -m -1  $vg/cpool_cdata
 check lv_field $vg/cpool_cdata layout "linear"
 
 lvremove -f $vg
index 87e28fc1bf31a23021a29efc5ce9279cb7fac1b8..b23644c1a144ed0e08cbcdf25ac8691964b9a591 100644 (file)
@@ -24,11 +24,11 @@ vgcreate -s 256k $vg $(cat DEVICES)
 lvcreate -aey -l 4 -n $lv1 $vg "$dev1:0-1" "$dev2:0-1"
 not lvconvert --type raid1 -m 1 $vg/$lv1 "$dev1" "$dev2"
 not lvconvert --type raid1 -m 1 $vg/$lv1 "$dev1" "$dev3:0-2"
-lvconvert --type raid1 -m 1 $vg/$lv1 "$dev3"
+lvconvert -y --type raid1 -m 1 $vg/$lv1 "$dev3"
 not lvconvert -m 0 $vg/$lv1
 lvconvert -y -m 0 $vg/$lv1
 # RAID conversions are not honoring allocation policy!
-# lvconvert --type raid1 -m 1 --alloc anywhere $vg/$lv1 "$dev1" "$dev2"
+# lvconvert -y --type raid1 -m 1 --alloc anywhere $vg/$lv1 "$dev1" "$dev2"
 lvremove -ff $vg
 
 
@@ -48,12 +48,12 @@ aux wait_for_sync $vg $lv1
 # Should not be enough non-overlapping space.
 not lvconvert -m +1 $vg/$lv1 \
     "$dev5:0-1" "$dev1" "$dev2" "$dev3" "$dev4"
-lvconvert -m +1 $vg/$lv1 "$dev5"
+lvconvert -y -m +1 $vg/$lv1 "$dev5"
 not lvconvert -m 0 $vg/$lv1
 lvconvert -y -m 0 $vg/$lv1
 # Should work due to '--alloc anywhere'
 # RAID conversion not honoring allocation policy!
-#lvconvert -m +1 --alloc anywhere $vg/$lv1 \
+#lvconvert -y -m +1 --alloc anywhere $vg/$lv1 \
 #    "$dev5:0-1" "$dev1" "$dev2" "$dev3" "$dev4"
 lvremove -ff $vg
 
@@ -68,7 +68,7 @@ lvcreate --type raid1 -m 1 -l 3 -n $lv1 $vg \
     "$dev1:0-1" "$dev2:0-1" "$dev3:0-1" "$dev4:0-1"
 aux wait_for_sync $vg $lv1
 aux disable_dev "$dev1"
-lvconvert --repair -y $vg/$lv1 "$dev2" "$dev3" "$dev4"
+lvconvert -y --repair $vg/$lv1 "$dev2" "$dev3" "$dev4"
 #FIXME: ensure non-overlapping images (they should not share PVs)
 aux enable_dev "$dev1"
 lvremove -ff $vg
index e1b1d98b428b5b13efc255c73a4a711ffb1f7c38..8e3ffb16648631f1d13b8f08a79ca10c6c39b3c6 100644 (file)
@@ -132,7 +132,7 @@ aux wait_for_sync $vg $lv1
 fsck -fn "$DM_DEV_DIR/$vg/$lv1"
 
 # Convert 3-way to 4-way mirror
-lvconvert -m 3 $vg/$lv1
+lvconvert -y -m 3 $vg/$lv1
 detect_error_leak_
 check lv_field $vg/$lv1 segtype "mirror"
 check lv_field $vg/$lv1 stripes 4
@@ -149,7 +149,7 @@ check lv_field $vg/$lv1 regionsize "64.00k"
 fsck -fn "$DM_DEV_DIR/$vg/$lv1"
 
 ## Convert 4-way raid1 to 5-way
-lvconvert -m 4 -R 128K $vg/$lv1
+lvconvert -y -m 4 -R 128K $vg/$lv1
 detect_error_leak_
 check lv_field $vg/$lv1 segtype "raid1"
 check lv_field $vg/$lv1 stripes 5
index a9b36e209bcd0a1ebdbfdfcfba0ac351e9d0420d..e173d666708c4470271fc29f23834313176265bf 100644 (file)
@@ -75,14 +75,14 @@ for i in 1 2 3; do
                mirrors=$((j - 1))
                if [ $i -eq 1 ]
                then
-                       [ $mirrors -eq 0 ] && lvconvert -m $mirrors $vg/$lv1
+                       [ $mirrors -eq 0 ] && lvconvert -y -m $mirrors $vg/$lv1
                else
                        if [ $mirrors -eq 0 ]
                        then
                                not lvconvert -m $mirrors $vg/$lv1
                                lvconvert -y -m $mirrors $vg/$lv1
                        else
-                               lvconvert -m $mirrors $vg/$lv1
+                               lvconvert -y -m $mirrors $vg/$lv1
                        fi
                fi
 
@@ -105,13 +105,13 @@ lvcreate --type raid1 -m 1 -l 2 -n $lv1 $vg --nosync
 not lvconvert -m +1 $vg/$lv1
 lvchange --resync -y $vg/$lv1
 aux wait_for_sync $vg $lv1
-lvconvert -m +1 $vg/$lv1
+lvconvert -y -m +1 $vg/$lv1
 lvremove -ff $vg
 
 # 3-way to 2-way convert while specifying devices
 lvcreate --type raid1 -m 2 -l 2 -n $lv1 $vg "$dev1" "$dev2" "$dev3"
 aux wait_for_sync $vg $lv1
-lvconvert -m1 $vg/$lv1 "$dev2"
+lvconvert -y -m 1 $vg/$lv1 "$dev2"
 lvremove -ff $vg
 
 #
@@ -188,7 +188,7 @@ lvremove -ff $vg
 # Linear to RAID1 conversion ("raid1" default segtype)
 ###########################################
 lvcreate -aey -l 2 -n $lv1 $vg
-lvconvert -m 1 $vg/$lv1 \
+lvconvert -y -m 1 $vg/$lv1 \
        --config 'global { mirror_segtype_default = "raid1" }'
 lvs --noheadings -o attr $vg/$lv1 | grep '^[[:space:]]*r'
 lvremove -ff $vg
@@ -197,7 +197,7 @@ lvremove -ff $vg
 # Linear to RAID1 conversion (override "mirror" default segtype)
 ###########################################
 lvcreate -aey -l 2 -n $lv1 $vg
-lvconvert --type raid1 -m 1 $vg/$lv1 \
+lvconvert --yes --type raid1 -m 1 $vg/$lv1 \
        --config 'global { mirror_segtype_default = "mirror" }'
 lvs --noheadings -o attr $vg/$lv1 | grep '^[[:space:]]*r'
 lvremove -ff $vg
@@ -207,7 +207,7 @@ lvremove -ff $vg
 ###########################################
 if [ -e LOCAL_CLVMD ]; then
        lvcreate -l 2 -n $lv1 $vg
-       not lvconvert --type raid1 -m 1 $vg/$lv1 \
+       not lvconvert -y --type raid1 -m 1 $vg/$lv1 \
                --config 'global { mirror_segtype_default = "mirror" }'
        lvremove -ff $vg
 fi
@@ -218,7 +218,7 @@ fi
 for i in 1 2 3 ; do
        lvcreate -aey --type mirror -m $i -l 2 -n $lv1 $vg
        aux wait_for_sync $vg $lv1
-       lvconvert --type raid1 $vg/$lv1
+       lvconvert -y --type raid1 $vg/$lv1
        lvremove -ff $vg
 done
 
index 7890350ece831518f8229fd0d39c107565f6f6c4..807b1dc6e13859910d253dd77dcb558ab4c4e849 100644 (file)
@@ -54,7 +54,7 @@ lvremove -ff $vg/data2 $vg/data3 $vg/meta1 $vg/meta2
 lvconvert --merge $vg/${lv1}_tdata_rimage_1
 lvconvert --merge $vg/${lv1}_tmeta_rimage_1
 
-lvconvert -m+1 $vg/${lv1}_tdata "$dev2"
-lvconvert -m+1 $vg/${lv1}_tmeta "$dev1"
+lvconvert -y -m +1 $vg/${lv1}_tdata "$dev2"
+lvconvert -y -m +1 $vg/${lv1}_tmeta "$dev1"
 
 vgremove -ff $vg
index 4e68b2c3c0eedb06d58dd8da72448dfdc9744802..ca3f71591a25b83ccda108de8ea2cc2e104a4ae9 100644 (file)
@@ -99,7 +99,7 @@ lvremove -ff $vg1
 # Convert large 200 TiB linear to RAID1 (belong in different test script?)
 #
 lvcreate -aey -L 200T -n $lv1 $vg1
-lvconvert --type raid1 -m 1 $vg1/$lv1
+lvconvert -y --type raid1 -m 1 $vg1/$lv1
 check lv_field $vg1/$lv1 size "200.00t"
 check raid_leg_status $vg1 $lv1 "aa"
 lvremove -ff $vg1
This page took 0.058608 seconds and 5 git commands to generate.