20.2. 快速入门指南

FreeBSD 可以在系统初始化时挂载 ZFS 池和数据集。要启用它,请在 /etc/rc.conf 中添加这一行:

  1. zfs_enable="YES"

然后启动该服务:

  1. # service zfs start

本节中的例子假设有三个 SCSI 磁盘,设备名称为 da0da1da2。SATA 硬件的用户应该使用 ada 作为设备名:

20.2.1. 单磁盘池

使用单个磁盘设备创建一个简单的、非冗余的池:

  1. # zpool create example /dev/da0

如需查看新的池,请查看 df 的输出:

  1. # df
  2. Filesystem 1K-blocks Used Avail Capacity Mounted on
  3. /dev/ad0s1a 2026030 235230 1628718 13% /
  4. devfs 1 1 0 100% /dev
  5. /dev/ad0s1d 54098308 1032846 48737598 2% /usr
  6. example 17547136 0 17547136 0% /example

这个输出展示创建和挂载 example 池,现在可以作为一个文件系统访问。创建文件供用户浏览:

  1. # cd /example
  2. # ls
  3. # touch testfile
  4. # ls -al
  5. total 4
  6. drwxr-xr-x 2 root wheel 3 Aug 29 23:15 .
  7. drwxr-xr-x 21 root wheel 512 Aug 29 23:12 ..
  8. -rw-r--r-- 1 root wheel 0 Aug 29 23:15 testfile

这个池还没有使用任何高级的 ZFS 功能和属性。如需在这个池上创建一个启用压缩功能的数据集:

  1. # zfs create example/compressed
  2. # zfs set compression=gzip example/compressed

example/compressed 数据集现在是一个 ZFS 压缩文件系统。试着复制一些大文件到 /example/compressed

如需禁用压缩:

  1. # zfs set compression=off example/compressed

如需卸载一个文件系统,使用 zfs umount,然后用 df 验证:

  1. # zfs umount example/compressed
  2. # df
  3. Filesystem 1K-blocks Used Avail Capacity Mounted on
  4. /dev/ad0s1a 2026030 235232 1628716 13% /
  5. devfs 1 1 0 100% /dev
  6. /dev/ad0s1d 54098308 1032864 48737580 2% /usr
  7. example 17547008 0 17547008 0% /example

如需重新挂载文件系统以使其再次被访问,请使用 zfs mount 并使用 df 验证:

  1. # zfs mount example/compressed
  2. # df
  3. Filesystem 1K-blocks Used Avail Capacity Mounted on
  4. /dev/ad0s1a 2026030 235234 1628714 13% /
  5. devfs 1 1 0 100% /dev
  6. /dev/ad0s1d 54098308 1032864 48737580 2% /usr
  7. example 17547008 0 17547008 0% /example
  8. example/compressed 17547008 0 17547008 0% /example/compressed

运行 mount 以显示池和文件系统:

  1. # mount
  2. /dev/ad0s1a on / (ufs, local)
  3. devfs on /dev (devfs, local)
  4. /dev/ad0s1d on /usr (ufs, local, soft-updates)
  5. example on /example (zfs, local)
  6. example/compressed on /example/compressed (zfs, local)

创建后像任何文件系统一样使用 ZFS 数据集。需要时,在每个数据集的基础上设置其他可用的特性。下面的例子创建一个名为 data 的新文件系统。它假定该文件系统包含重要的文件,并将其配置为存储每个数据块的两个副本:

  1. # zfs create example/data
  2. # zfs set copies=2 example/data

使用 df 来查看数据和空间的使用:

  1. # df
  2. Filesystem 1K-blocks Used Avail Capacity Mounted on
  3. /dev/ad0s1a 2026030 235234 1628714 13% /
  4. devfs 1 1 0 100% /dev
  5. /dev/ad0s1d 54098308 1032864 48737580 2% /usr
  6. example 17547008 0 17547008 0% /example
  7. example/compressed 17547008 0 17547008 0% /example/compressed
  8. example/data 17547008 0 17547008 0% /example/data

注意,池中的所有文件系统都有相同的可用空间。在这些例子中使用 df 显示,文件系统使用它们所需要的空间,并且都是从同一个池中提取。ZFS 摆脱卷和分区等概念,允许多个文件系统共享同一个池。

如果要销毁文件系统并销毁不再需要的池:

  1. # zfs destroy example/compressed
  2. # zfs destroy example/data
  3. # zpool destroy example

20.2.2. RAID-Z

磁盘故障。避免磁盘故障造成数据丢失的一个方法是使用 RAID。ZFS 在其池的设计中支持这一功能。RAID-Z 池需要三个或更多的磁盘,但比镜像池提供更多的可用空间。

这个例子创建一个 RAID-Z 池,指定要添加到池中的磁盘。

  1. # zpool create storage raidz da0 da1 da2

注意事项

Sun™ 建议在一个 RAID-Z 配置中使用的设备数量在 3 到 9 之间。对于需要一个由 10 个或更多的磁盘组成的单一磁盘池的环境,可以考虑将其分解成更小的 RAID-Z 组。如果有两个磁盘可用,如果需要的话,ZFS 镜像提供冗余功能。参考 zpool(8) 以了解更多细节。

前面的例子创建存储池 zpool。这个例子在该池中建立一个新的文件系统,名为 home

  1. # zfs create storage/home

如需启用压缩功能,并存储一个额外的目录和文件副本:

  1. # zfs set copies=2 storage/home
  2. # zfs set compression=gzip storage/home

为了使这个目录成为用户的新主目录,将用户数据复制到这个目录,并创建适当的符号链接:

  1. # cp -rp /home/* /storage/home
  2. # rm -rf /home /usr/home
  3. # ln -s /storage/home /home
  4. # ln -s /storage/home /usr/home

用户数据现在存储在新创建的 /storage/home 上。通过添加一个新用户并以该用户身份登录来测试。

创建一个文件系统快照,以便日后回滚:

  1. # zfs snapshot storage/home@08-30-08

ZFS创建的是数据集的快照,而不是单个目录或文件。

@字符是文件系统名称或卷名称之间的分隔符。在删除一个重要的目录之前,先备份文件系统,然后回滚到该目录仍然存在的早期快照:

  1. # zfs rollback storage/home@08-30-08

要列出所有可用的快照,在文件系统的 .zfs/napshot 目录下运行 ls 。例如,如需查快照:

  1. # ls /storage/home/.zfs/snapshot

写一个脚本,定期对用户数据进行快照。随着时间的推移,快照会耗费大量的磁盘空间。使用命令删除之前的快照:

  1. # zfs destroy storage/home@08-30-08

测试后,用这个命令使 /storage/home 成为真正的 /home

  1. # zfs set mountpoint=/home storage/home

运行 dfmount 以确认系统现在将该文件系统视为真正的 /home

  1. # mount
  2. /dev/ad0s1a on / (ufs, local)
  3. devfs on /dev (devfs, local)
  4. /dev/ad0s1d on /usr (ufs, local, soft-updates)
  5. storage on /storage (zfs, local)
  6. storage/home on /home (zfs, local)
  7. # df
  8. Filesystem 1K-blocks Used Avail Capacity Mounted on
  9. /dev/ad0s1a 2026030 235240 1628708 13% /
  10. devfs 1 1 0 100% /dev
  11. /dev/ad0s1d 54098308 1032826 48737618 2% /usr
  12. storage 26320512 0 26320512 0% /storage
  13. storage/home 26320512 0 26320512 0% /home

这样就完成了 RAID-Z 的配置。通过在 /etc/periodic.conf 中添加这一行,在每晚的 periodic(8) 运行中添加关于已创建文件系统的每日状态更新。

  1. daily_status_zfs_enable="YES"

20.2.3. 恢复 RAID-Z

每个软件RAID都有监控其 state 的方法。使用以下方法查看 RAID-Z 设备的状态。

  1. # zpool status -x

如果所有池都是 Online 的,而且一切正常,则显示消息:

  1. all pools are healthy

如果有一个问题,也许是一个磁盘处于 Offline 状态,池的状态将看起来像这样。

  1. pool: storage
  2. state: DEGRADED
  3. status: One or more devices has been taken offline by the administrator.
  4. Sufficient replicas exist for the pool to continue functioning in a
  5. degraded state.
  6. action: Online the device using 'zpool online' or replace the device with
  7. 'zpool replace'.
  8. scrub: none requested
  9. config:
  10. NAME STATE READ WRITE CKSUM
  11. storage DEGRADED 0 0 0
  12. raidz1 DEGRADED 0 0 0
  13. da0 ONLINE 0 0 0
  14. da1 OFFLINE 0 0 0
  15. da2 ONLINE 0 0 0
  16. errors: No known data errors

OFFLINE 表示管理员使用以下命令将 da1 脱机。

  1. # zpool offline storage da1

现在关闭计算机电源,更换 da1。打开计算机电源,将 da1 放回池中:

  1. # zpool replace storage da1

接下来,再次检查状态,这次不使用 -x 来显示所有池:

  1. # zpool status storage
  2. pool: storage
  3. state: ONLINE
  4. scrub: resilver completed with 0 errors on Sat Aug 30 19:44:11 2008
  5. config:
  6. NAME STATE READ WRITE CKSUM
  7. storage ONLINE 0 0 0
  8. raidz1 ONLINE 0 0 0
  9. da0 ONLINE 0 0 0
  10. da1 ONLINE 0 0 0
  11. da2 ONLINE 0 0 0
  12. errors: No known data errors

在这个例子中,一切正常。

20.2.4. 数据验证

ZFS 使用校验和来验证存储数据的完整性。创建文件系统时会自动启用该功能。

警告:

允许禁用校验和,但不建议这样做。校验和只占用很少的存储空间但可确保数据的完整性。大多数 ZFS 功能在禁用校验和的情况下将不能正常工作。禁用校验和不会明显地提高性能。

验证数据校验(称为刷新)以确保 storage 池的完整性:

  1. # zpool scrub storage

刷新的时间取决于存储的数据量。较大的数据量将需要相应的时间来验证。由于刷新是 I/O 密集型的,ZFS 允许一次只运行一个刷新。刷新完成后,用 zpool status 查看状态:

  1. # zpool status storage
  2. pool: storage
  3. state: ONLINE
  4. scrub: scrub completed with 0 errors on Sat Jan 26 19:57:37 2013
  5. config:
  6. NAME STATE READ WRITE CKSUM
  7. storage ONLINE 0 0 0
  8. raidz1 ONLINE 0 0 0
  9. da0 ONLINE 0 0 0
  10. da1 ONLINE 0 0 0
  11. da2 ONLINE 0 0 0
  12. errors: No known data errors

显示上一次刷新的完成日期有助于决定何时开始另一次刷新。例行刷新有助于保护数据免受隐藏的破坏,并确保池的完整性。

参考 zfs(8)zpool(8) 了解其他 ZFS 选项。