1、破坏mbr表并修复
(1)备份MBR分区表并将其传到局域网中其它主机上[root@centos8 ~]#dd if=/dev/sda of=/data/dpt.img bs=1 count=512[root@centos8 ~]#scp /data/dpt.img 10.0.0.205:/data/dpt.img(2) 破坏MBR分区表[root@centos8 ~]#dd if=/dev/zero of=/dev/sda bs=1 count=64 seek=446(3) 重启后无法正常启动[root@centos8 ~]#reboot(4) 用光盘启动,进入rescue mode,选第3项skip to shell(5) 配置网络,使其能联通放有备份文件的主机ifconfig ens33 10.0.0.8/24或者ip a a 10.0.0.8/24 dev/ens33(6) 下载备份文件scp 10.0.0.205:/data/dpt.img .(7) 恢复MBR分区表dd if=dpt.img of=/dev/sda bs=1 seek=446 skip=446(8)reboot重启服务器
2、总结raid的各个级别及其组合方式和性能的不同

3、创建一个2G的文件系统,块大小为2048byte,预留1%可用空间,文件系统ext4,卷标为TEST,要求此分区开机后自动挂载至/test目录,且默认有acl挂载选项
(1) 生成一个2G的文件dd if=/dev/zero of=f1.img bs=1M count=2048(2) 创建文件系统mkfs -t ext4 -L \'TEST\' -b 2048 -m 1 f1.img(3) 设置自动挂载创建/test目录编辑/etc/fstab文件,在末尾增加一行/root/f1.img /test ext4 acl 0 0
4、创建一个至少由两个PV组成的大小为20G的名为testvg的VG;要求PE大小为16M,而后在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录
(0) 预备使用/dev/sdc硬盘和/dev/sdd1分区来作为PV[root@CentOS8 /]#lsblk /dev/sdc /dev/sddNAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTsdc 8:32 0 2G 0 disksdd 8:48 0 25G 0 disk└─sdd1 8:49 0 18G 0 part(1) 修改/dev/sdd1 分区类型为Linux LVMfdisk /dev/sdd(2) 创建PV[root@CentOS8 /]#pvcreate /dev/sdc /dev/sdd1Physical volume \"/dev/sdc\" successfully created.Physical volume \"/dev/sdd1\" successfully created.[root@CentOS8 /]#pvsPV VG Fmt Attr PSize PFree/dev/sdc lvm2 --- 2.00g 2.00g/dev/sdd1 lvm2 --- 18.00g 18.00g(3) 创建vg,并指定PE大小[root@CentOS8 /]#vgcreate -s 16 testvg /dev/sdc /dev/sdd1Volume group \"testvg\" successfully created[root@CentOS8 /]#vgsVG #PV #LV #SN Attr VSize VFreetestvg 2 0 0 wz--n- <19.97g <19.97g[root@CentOS8 /]#vgdisplay--- Volume group ---VG Name testvgSystem IDFormat lvm2Metadata Areas 2Metadata Sequence No 1VG Access read/writeVG Status resizableMAX LV 0Cur LV 0Open LV 0Max PV 0Cur PV 2Act PV 2VG Size <19.97 GiBPE Size 16.00 MiBTotal PE 1278Alloc PE / Size 0 / 0Free PE / Size 1278 / <19.97 GiBVG UUID udOdjO-t5S8-hQ4Z-LY04-cXkI-pvZf-IdqTnt(4) 创建逻辑卷[root@CentOS8 /]#lvcreate -n testlv -L 5G testvgLogical volume \"testlv\" created.[root@CentOS8 /]#lvsLV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Converttestlv testvg -wi-a----- 5.00g(5) 在lv上创建文件系统mkfs.ext4 /dev/testvg/testlv(6) 挂载创建/users挂载目录挂载时使用lv的UUID进行挂载testlv的UUID通过lsblk来查看[root@CentOS8 /]#lsblk -fNAME FSTYPE LABEL UUID MOUNTPOINTsda├─sda1 ext4 a9dd4304-10b4-406f-ae22-60b057ab5ed1 /boot├─sda2 xfs c118d0ca-baf4-4214-bcfb-8654ccd6f621 /├─sda3 xfs 1b9de971-02bc-4d09-b0e2-e8bac1381a1b /data├─sda4└─sda5 swap dccc2061-fa46-4763-bf18-c07149d2298e [SWAP]sdb├─sdb1├─sdb2└─sdb3sdc LVM2_member oycUXT-Wc7z-b2Q2-UQYr-cqHm-rrpF-7QCc5Usdd└─sdd1 LVM2_member 3q2Sv0-itDk-5T8b-Xg5w-xnOd-3Bkq-tfJ2Ax└─testvg-testlv ext4 15e834be-1870-4f23-b2c2-e28c6ffe52ee /userssr0 iso9660 CentOS-8-2-2004-x86_64-dvd 2020-06-08-22-08-25-00[root@CentOS8 /]#mount -U \'15e834be-1870-4f23-b2c2-e28c6ffe52ee\' /users[root@CentOS8 /]#df -hFilesystem Size Used Avail Use% Mounted ondevtmpfs 953M 0 953M 0% /devtmpfs 981M 0 981M 0% /dev/shmtmpfs 981M 9.1M 971M 1% /runtmpfs 981M 0 981M 0% /sys/fs/cgroup/dev/sda2 10G 4.7G 5.3G 47% //dev/sda3 5.0G 99M 4.9G 2% /data/dev/sda1 976M 174M 736M 20% /boottmpfs 197M 4.0K 196M 1% /run/user/0/dev/mapper/testvg-testlv 4.9G 20M 4.6G 1% /users