NETWORK ENGINEER BLOG

Tips and Reviews for Engineers

NetApp Ontap(ver8.1)の基本操作について

Aggregate の操作

disk 3本(dparity/parity/data)で構成される 64bit の[aggr1]を作成します。

> aggr create aggr1 -B 64 3

aggregate1 に disk を2本(data)追加します。

> aggr add aggr1 2
Addition of 2 disks to the aggregate has completed.

aggregate の基本情報を確認します。*1

> aggr status
           Aggr State           Status            Options
          aggr0 online          raid_dp, aggr     root
                                64-bit

aggregate を構成する device 等を確認します。

> sysconfig -r
aggregate aggr1 (online, raid_dp) (block checksums)
  Plex /aggr1/plex0 (online, normal, active, pool0)
    RAID group /aggr1/plex0/rg0 (normal, block checksums)

      RAID Disk Device  HA  SHELF BAY CHAN Pool Type  RPM  Used (MB/blks)
      --------- ------  ------------- ---- ---- ---- ----- --------------
      dparity   v4.19   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
      parity    v4.20   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
      data      v4.21   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984

aggregate aggr0 (online, raid_dp) (block checksums)
  Plex /aggr0/plex0 (online, normal, active, pool0)
    RAID group /aggr0/plex0/rg0 (normal, block checksums)

      RAID Disk Device  HA  SHELF BAY CHAN Pool Type  RPM  Used (MB/blks)
      --------- ------  ------------- ---- ---- ---- ----- --------------
      dparity   v4.16   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
      parity    v4.17   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
      data      v4.18   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
<...snip...>

aggregate のサイズを確認します。

> df -Ah aggr1
aggregate                total       used      avail capacity
aggr1                   2700MB      207MB     2492MB       8%
aggr1/.snapshot            0TB        0TB        0TB     ---%
FlexVolume の操作

aggr1 に volume[pocvol]をサイズ100m で作成します。

> vol create pocvol aggr1 100m

volume を Thin provisioning(guarantee=none)で作成します。

> vol create pocvol1 -s none aggr1 1000m

volume[pocvol]のサイズを 100m から 200m に変更します。

> vol size pocvol 200m
vol size: Flexible volume 'pocvol' size set to 200m.

volume[pocvol]の名前を[labvol]へ変更します。

> vol rename pocvol labvol

volume[pocvol]を削除します。まず対象の volume を offline へ移行します。

> vol offline pocvol
volume 'pocvol' is now offline.

offline 状態へ移行後、destroy コマンドを発行します。

> vol destroy pocvol
Are you sure you want to destroy volume 'pocvol'? y
volume 'pocvol' destroyed.

volume の基本情報を確認します。*2

> vol status
         volume State           Status            Options
           vol0 online          raid_dp, flex     root
                                64-bit

volume のサイズを確認します。

> df -h
Filesystem               total       used      avail capacity  Mounted on
/vol/vol0/               808MB      141MB      667MB      17%  /vol/vol0/
/vol/vol0/.snapshot       42MB       54MB        0MB     127%  /vol/vol0/.snapshot
/vol/pocvol/              95MB      116KB       94MB       0%  /vol/pocvol/
/vol/pocvol/.snapshot   5120KB        0TB     5120KB       0%  /vol/pocvol/.snapshot||<
snapshot の操作

volume[pocvol]の snapshot を作成します。

> snap create pocvol snap1

取得した snapshot から volume の状態をリストアします。

fas2020> snap restore -t vol /vol/pocvol

WARNING! This will revert the volume to a previous snapshot.
All modifications to the volume after the snapshot will be
irrevocably lost.

volume pocvol will be made restricted briefly before coming back online.

Are you sure you want to do this? y

The following snapshot is available for volume pocvol:

date            name
------------    ---------
May 17 10:32    snap1

Revert volume pocvol to snapshot snap1?
Please answer yes or no.

Revert volume pocvol to snapshot snap1? yes

You have selected volume pocvol, snapshot snap1

Proceed with revert? yes
volume pocvol: revert successful.

snapshot を自動取得する間隔を確認します。*3

> snap sched pocvol
volume pocvol: 0 2 6@8,12,16,20

スケジュールをリセットするには、以下を実行します。

> snap sched pocvol 0 0 0

ファイル単位で削除するには以下を実行します。

> snap delete pocvol nightly.1

ボリューム内の全ての snapshot を一括削除するには以下を実行します。

> snap delete -a -f pocvol

snapshot のリストを確認します。

> snap list pocvol
volume pocvol
working...

  %/used       %/total  date          name
----------  ----------  ------------  --------
  1% ( 1%)    0% ( 0%)  May 17 10:32  snap1

snapshot のスケジュールを確認します。

> snap sched pocvol
volume pocvol: 0 2 6@8,12,16,20
lun の操作

pocvol3 に lun[poclun3]をサイズ2G で作成します。

> lun create -s 2g -t vmware /vol/pocvol3/poclun3

lun[poclun]の名前を[lablun]へ変更します。

> lun move /vol/pocvol/poclun /vol/pocvol/lablun

lun[poclun3]を削除します。まず対象の lun を offline へ移行します。

> lun offline /vol/pocvol3/poclun3

offline 状態へ移行後、destroy コマンドを発行します。

> lun destroy /vol/pocvol3/poclun3

lun の基本情報を確認します。

> lun show /vol/pocvol3/poclun3
        /vol/pocvol3/poclun3           2g (2147483648)    (r/w, online)
igroup の操作

esxi5 という名前の igroup を作成し、iqn を登録します。タイプは vmware とします。

> igroup create -i -t vmware esxi5 iqn.1998-01.com.vmware:esxi06-70d75e37

既存 igroup[esxi5]へ iqn を追加する場合は、下記のようになります。

> igroup add esxi5 iqn.1998-01.com.vmware:localhost-7f8428ec

igroup[poc]の名前を[lab]へ変更します。

> igroup rename poc lab

既存 igroup[esxi5]から iqn を削除する場合は、下記のようになります。

> igroup remove esxi5 iqn.1998-01.com.vmware:localhost-7f8428ec

igroup が lun に関連付けられている場合は、下記のようなエラーが出力されます。

igroup remove: iqn.1998-01.com.vmware:localhost-7f8428ec: lun maps for this initiator group exist

強制的に削除する場合は、"-f" キーワードを使用します。

> igroup remove -f esxi5 iqn.1998-01.com.vmware:localhost-7f8428ec

lun[pocvol3]と igroup[esxi5]を mapping します。

> lun map /vol/pocvol3/poclun3 esxi5 0

igroup の基本情報を確認します。

> igroup show esxi5
    esxi5 (iSCSI) (ostype: vmware):
        iqn.1998-01.com.vmware:esxi06-70d75e37 (not logged in)
        iqn.1998-01.com.vmware:localhost-7f8428ec (not logged in)

lun との関連情報を確認します。

> lun show -m
lun path                            Mapped to          lun ID  Protocol
-----------------------------------------------------------------------
/vol/pocvol3/poclun3                esxi5                   0     iSCSI
disk の操作

disk 故障が発生した場合、下記のように[Failed]となります。

> sysconfig -r
<...snip...>
RAID Disk Device  HA  SHELF BAY CHAN Pool Type  RPM  Used (MB/blks)
--------- ------  ------------- ---- ---- ---- ----- --------------
Spare disks for block or zoned checksum traditional volumes or aggregates
spare     0a.27   0a    1   11  FC:A   0  ATA   7200 847555/1735794176
spare     0a.29   0a    1   13  FC:A   0  ATA   7200 847555/1735794176
spare     0b.23   0b    1   7   FC:A   0  ATA   7200 847555/1735794176

Broken disks

RAID Disk Device  HA  SHELF BAY CHAN Pool Type  RPM  Used (MB/blks)
--------- ------  ------------- ---- ---- ---- ----- --------------
failed    0a.26   0a    1   10  FC:A   0  ATA   7200 847555/1735794176

故障 disk(0a.26)を交換後、必要に応じて、以下を実行します。*4

> priv set diag
Warning: These diagnostic commands are for use by Network Appliance
         personnel only.
> disk unfail -s 0a.26

交換した disk は[not zeroed]状態のため、Zeroing を実行します。

> disk zero spares

出荷状態では data,parity,dparity の3本で構成されています。 disk の割り当てはシステムの設定により異なります。残りの disk は、全て spare として認識されます。

> sysconfig -r
aggregate aggr0 (online, raid_dp) (block checksums)
  Plex /aggr0/plex0 (online, normal, active, pool0)
    RAID group /aggr0/plex0/rg0 (normal, block checksums)

      RAID Disk Device  HA  SHELF BAY CHAN Pool Type  RPM  Used (MB/blks)
      --------- ------  ------------- ---- ---- ---- ----- --------------
      dparity   v4.16   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
      parity    v4.17   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
      data      v4.18   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984

RAID Disk       Device  HA  SHELF BAY CHAN Pool Type  RPM  Used (MB/blks)
---------       ------  ------------- ---- ---- ---- ----- --------------
Spare disks for block checksum
spare           v4.19   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.20   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.21   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.22   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.24   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.25   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.26   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.27   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.28   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.29   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
spare           v4.32   v4    ?   ?   FC:B   0  FCAL 15000 1020/2089984
その他

iSCSI サービスは、デフォルトで無効となっているため、有効にします。

> iscsi start
iSCSI service started

iSCSI サービスの起動状況を確認します。

> iscsi status
iSCSI service is running

*1:aggregate は RAID-DP で構成され、64bit で動作している事がわかります。

*2:aggregate1 に volume[vol0]が存在している事がわかります。

*3:デフォルト:[Weekly] [Nightly] [Hourely]@time,time2・・

*4:https://communities.netapp.com/thread/10933