在osol jeos 中使用zfs
ZFS作为Solaris 10和OpenSolaris的新特性,吸引了开源社区里很多人的关注,Linux之父Linus Torvalds公开表示对Solaris软件的ZFS(Zettabyte文件系统)特别感兴趣,认为该系统管理档案在硬盘的存储方式,具有横跨多个硬盘,同时保持数据完整性的内建功能。但根据他“悲观的”预测,Sun会想办法阻止Linux得到ZFS。在这篇文章里面,我想谈谈自己对ZFS的认识。
什么是ZFS
传统的Volume Manager不管是用硬件,firmware还是操作系统的软件实现,volume都是预先设定好的,文件系统建立在单个volume上,不同的volume之间的空间不能动态共享,这样文件系统就局限于一个设备,因此文件系统自身会受到该volume大小的限制。而ZFS文件系统不限于任何特定的设备或volume,而是将所有可能的设备都放入一个存储池中,文件系统的大小根据其实际需要在这个池中进行分配,这有点类似于系统对system memory的管理方法,基于这样的管理方法,ZFS文件系统可以充分的利用存储池中的所有存储设备。更可贵的是,所有这一切对用户是透明的,用户可以像创建和删除目录一样,来动态的管理ZFS文件系统,当一个文件系统被创建的时候,它会自动的mount到系统的文件目录树下,这大大简化了ZFS管理的难度。同时,存储池中的设备可以动态的加入,删除或替换,同一个ZFS文件系统还可以在不同的系统之间移植。
说了这么多,我们来试试自己创建并管理一个ZFS,从而体验一下ZFS轻松的管理和强大的功能。
ZFS的管理下面的一行命令创建一个ZFS存储池:
bash-3.00# zpool create test raidz2 c0t1d0s0 c0t1d0s1 c0t1d0s2 c0t1d0s3
其中raid2参数指定在其后的设备上建立一个RAID-Z的RAID,它类似RAID5,但解决了RAID 5软件实现的write hole问题。ZFS可以提供4种RAID级别,分别称为stripe(默认),mirror,RAIDZ1和RAIDZ2。将raidz2换为mirror或raidz1将会创建其他类型的RAID。创建好的存储池可以通过下面的命令来查看:
bash-3.00# zpool list
NAME??????????????????? SIZE??? USED?? AVAIL??? CAP HEALTH???? ALTROOT
test?????????????????? 15.9G??? 274K?? 15.9G???? 0% ONLINE???? -
bash-3.00# zpool status -v test
pool: test
state: ONLINE
scrub: none requested
config:
??????? NAME????????? STATE???? READ WRITE CKSUM
??????? test????????? ONLINE?????? 0???? 0???? 0
????????? raidz2????? ONLINE?????? 0???? 0???? 0
??????????? c0t1d0s0 ONLINE?????? 0???? 0???? 0
??????????? c0t1d0s1 ONLINE?????? 0???? 0???? 0
??????????? c0t1d0s2 ONLINE?????? 0???? 0???? 0
??????????? c0t1d0s3 ONLINE?????? 0???? 0???? 0
errors: No known data errors
创建完存储池后,ZFS会在根目录下创建一个和存储池名字相同的目录,并将ZFS根文件系统mount在该目录下,所有基于该ZFS的文件系统都会mount在该ZFS根文件系统之下,可以通过-m参数,将该根目录mount在系统目录树的其他位置:
bash-3.00#zpool create -m /export/zfs home c1t0d0
删除一个ZFS存储池也比较简单:
bash-3.00# zpool destroy test
如果当前设备正在使用,从而导致该命令不成功,可以使用-f参数强行销毁(这里默认你知道这样做的后果)。
创建和删除一个ZFS文件系统和创建删除一个目录那么简单:
bash-3.00# zfs create test/home
bash-3.00# zfs destroy test/home
bash-3.00# zfs rename test/home/user test/home/user2
bash-3.00# zfs list
NAME????????????? USED AVAIL REFER MOUNTPOINT
test????????????? 210K 7.78G 29.9K /test
test/home??????? 56.8K 7.78G 29.9K /test/home
test/home/user2 26.9K 7.78G 26.9K /test/home/user2
这些文件系统一旦被创建,系统自动将他们mount在ZFS的根目录下,管理员不需要去修改/etc/vfstab文件。另外zfs命令还可以使用quota和reservation属性来规定zfs文件系统的配额和预留空间。
ZFS文件系统还提供了快照(snapshot)和克隆(clone)的功能,由于本文章不准备成为一个完整的ZFS的administration guide,感兴趣的话,可以到docs.sun.com上下载相应的文章。
总结这篇文章简单介绍了Solaris 10/OpenSolaris下面ZFS相关的背景知识,同时简单介绍了如何创建并管理一个ZFS文件系统。关键字:ZFS,OpenSolaris,Volume Manager,ZPOOL.
OpenSolaris使用了一种全新的文件系统zfs,zfs文件系统可以创建快照,对当前文件系统的状态进行记录,从创建快照的时间起,对文件系统中的内容进行的修改将完全被记录,如删除了一个文件,会在snapshot中保存该文件的一个备份,以备rollback时用。具体操作如下:
1.查看一下当前有哪些文件系统和snapshot:
dguo@opensolaris:~# zfs list
NAME???????????????????????????????? USED AVAIL REFER MOUNTPOINT
rpool?????????????????????????????? 2.62G 4.70G??? 55K /rpool
rpool@install???????????????????????? 16K????? -??? 55K -
rpool/ROOT????????????????????????? 2.46G 4.70G??? 18K /rpool/ROOT
rpool/ROOT@install??????????????????? 15K????? -??? 18K -
rpool/ROOT/opensolaris????????????? 2.46G 4.70G 2.40G legacy
rpool/ROOT/opensolaris@install????? 61.6M????? - 2.22G -
rpool/ROOT/opensolaris/opt????????? 3.64M 4.70G 3.60M /opt
rpool/ROOT/opensolaris/opt@install??? 31K????? - 3.60M -
rpool/export???????????????????????? 162M 4.70G??? 19K /export
rpool/export@install????????????????? 15K????? -??? 19K -
rpool/export/home??????????????????? 162M 4.70G?? 162M /export/home
rpool/export/home@install???????????? 19K????? -??? 21K -
由 于我没有手动创建过文件系统和pool,所以只有一个pool:rpool,在rpool中,系统自动创建了一些文件系统,并创建了相应的snapshot,如rpool/export/home@install,意思是在rpool中创建了一个export/home的文件系统,zfs文件系统的特点是创建之后会自动mount,@install的意思是给该文件系统创建了一个snapshot,下面,我们来看一下如何创建自己的snapshot:
2.创建一个snapshot:
dguo@opensolaris:~# ls
core Desktop test zfs_note
将文件系统rpool/export/home创建了一个snapshot,名为july11。
dguo@opensolaris:~# zfs snapshot -r rpool/export/home@july11
dguo@opensolaris:~# ls
core Desktop test zfs_note
将export/home文件夹下的test目录和zfs_note文件删除
dguo@opensolaris:~# rm -r test/ zfs_note
可以看见相应文件已经没有了。
dguo@opensolaris:~# ls
core Desktop
3.从一个snapshot中恢复:
dguo@opensolaris:~# zfs list
NAME???????????????????????????????? USED AVAIL REFER MOUNTPOINT
rpool?????????????????????????????? 2.62G 4.70G??? 55K /rpool
……………………………………………………
rpool/export/home@july11???????????? 134K????? -?? 162M -
可以看出现在多了一个134K的rpool/export/home@july11,该项在删除操作之前的大小为0K,
从该snapshot中恢复:
dguo@opensolaris:~# zfs rollback -r rpool/export/home@july11
可以看出删除的文件都回来了。
dguo@opensolaris:~# ls -l
total 145011
-rw------- 1 dguo staff 148260388 2008-08-06 14:21 core
drwxr-xr-x 2 dguo staff???????? 4 2008-08-09 15:57 Desktop
drwxr-xr-x 2 root root????????? 5 2008-08-01 16:51 test
-rw-r--r-- 1 dguo staff?????? 160 2008-08-11 14:49 zfs_note
4。如果对一个文件系统创建多个snapshot,则恢复到较前的snapshot时,较后的snapshot会丢失,如:
dguo@opensolaris:~# zfs snapshot -r rpool/export/home@july12
dguo@opensolaris:~# zfs list
NAME???????????????????????????????? USED AVAIL REFER MOUNTPOINT
rpool?????????????????????????????? 2.62G 4.70G??? 55K /
……………………………………………………………………………………………………………
rpool/export/home@july11??????????? 92.5K????? -?? 162M -
rpool/export/home@july12??????????????? 0????? -?? 162M -
dguo@opensolaris:~# zfs rollback -r rpool/export/home@july11
dguo@opensolaris:~# zfs list
NAME???????????????????????????????? USED AVAIL REFER MOUNTPOINT
rpool?????????????????????????????? 2.62G 4.70G??? 55K /rpool
………………………………………………………………………………………………………
rpool/export/home@july11??????????????? 0????? -?? 162M -
结论:zfs号称是一个全新的文件系统,与以往的所有文件系统都不同,没有了卷(volume)的概念,所有物理的磁盘组成一个pool,采用类似内存管理中malloc和free的方法来分配空间,文件系统的大小不必是固定的,而是可以动态增长的。这样可以方便的增加物理磁盘,在服务器上还是很有用的。而snapshot给普通用户也提供了一个方便的备份系统的工具,看来还真是有些用处的。
zpool create [-fn] [-R root] [-m mountpoint] pool vdev ...-f??? 强制执行创建池操作,甚至正在被其他的文件系统所占用
-n??? 显示配置信息。注:用该参数,该操作并不真正执行
-R??? 指定整个pool的根目录。也就是所以在这个pool之上的zfs文件系统的mount目录前缀。默认值:/
-m??? mount点
pool??? 所要建立的pool的名字
vdev??? "virtual device".具体说包括三类:disk,file和keywords
??? ?? ??? disk:就是位于/dev/dsk下的设备文件
??? ?? ??? file:普通的文件
??? ?? ??? keywords:包括mirror, raidz, raidz1, raidz2 和 spare
下来我们看几个个例子,
1. 创建一个无冗余的pool。
??? ??? # zpool create tank c1t4d0
2. 创建一个两路mirror
# zpool create mypool mirror c1t3d0 c1t4d0
3. 创建一个raidz池
# zpool create -f tank raidz2 c2t5d0 c2t4d0 c2t2d0
4. 创建一个带hot spare的池
# zpool create tank c2t5d0 spare c2t4d0
5. 创建一个pool并指定根目录和mount点
# zpool create -f -R /zfsdir -m /root tank c2t4d0# zfs listNAME?? USED AVAIL REFER MOUNTPOINTtank??? 91K 16.5G 24.5K /zfsdir/root
??? ??? /zfsdir就是以后所有创建与tank之上的文件系统mount点前缀,包括tank本身。/root是mount点。
6. 查看创建一个pool结果,但不真正执行
# zpool create -n -R /zfsdir -m /root tank c2t5d0would create 'tank' with the following layout:??????? tank????????? c2t5d0
?
?? ?? 相对应于create,自然就有destroy。destroy的语法如下
zpool destroy [-f] pool
-f??? 强行删除
例如
# zpool destroy tank# zpool create tank c2t5d0# zfs mounttank??????????????????????????? /tank# cd /tank# zpool destroy tankcannot unmount '/tank': Device busycould not destroy 'tank': could not unmount datasets# zpool destroy -f tank
??? ??? 通过zfs mount查出tank的mount点,然后进入并占用mount目录,这样当试图删除时系统就会报错。用参数-f,系统将删除tank而忽略警告信息。