Bare Metal Server

Prev Next

VPC環境で利用できます。

NAVERクラウドプラットフォームコンソールでベアメタルサーバを作成し管理する方法を説明します。

参考

予期せぬサーバ障害または予定された変更タスクなどの際に、中断せずにサービスを継続する保障ができるよう、サーバは基本的にゾーン間の冗長化構成をお勧めします。Load Balancer の概要を参照して冗長化設定を行います。

サーバ情報確認

ベアメタルサーバの情報を確認する方法は、一般サーバの情報を確認する方法と同じです。詳細は、サーバ情報確認をご参照ください。

一般サーバ作成

ベアメタルサーバを利用するには、NAVERクラウドプラットフォームコンソールでサーバを作成する必要があります。ベアメタルサーバを作成する方法は、次の通りです。

注意
  • ベアメタルサーバは作成制限があります。限度を変更する場合は、FAQを参照してカスタマーサポートまでお問い合わせください。
  • ベアメタルサーバは、停止中でも全体サーバ料金が課金されます。サーバを利用しないときには返却してください。
参考
  • サーバを作成するには、VPCと Subnetが作成されている必要があります。作成された VPCと Subnetがない場合、以下のガイドを参照して VPCと Subnetを作成してから、サーバを作成してください。
  • VPC環境では、以下のような一般ベアメタルサーバタイプが提供されます。ただし、提供できるスペックは未使用中の残存ベアメタルサーバやゾーンに応じて異なります。
    • Dual Intel Xeon Gold 6248R(3.0GHz)、48コア、512GB RAM、8x1920GB SSDローカルストレージ
    • Dual Intel Xeon Gold 5220(2.2GHz)、36コア、384GB RAM、8x1920GB SSDローカルストレージ
    • Dual Intel Xeon Silver 4214(2.2GHz)、24コア、256GB RAM、4x1920GB SSDローカルストレージ
    • Single Intel Xeon Silver 4215(2.6GHz)、8コア、128GB RAM、4x1920GB SSDローカルストレージ
  1. NAVERクラウドプラットフォームコンソールの Region メニューや Platform メニューから利用中の環境をクリックします。
  2. Services > Compute > Server > Bare Metal Server メニューを順にクリックします。
  3. [サーバ作成] ボタンをクリックします。
  4. サーバの作成画面が表示されたら、以下のステップを順に行います。

1. サーバイメージ選択

作成するサーバイメージを選択します。

参考
  • サーバイメージの詳しい説明は、様々なサーバイメージをご参照ください。
  • ベアメタルサーバの OSとして Oracle Linuxに対応していますが、Oracleデータベースのライセンスの確保、インストール、運用はサポートしていません。詳細は、Oracleのパートナー会社にお問い合わせください。
  1. サーバタイプを選択します。
    • Bare Metal Server(一般) : 一般のベアメタルサーバ
  2. サーバイメージリストから希望するサーバイメージの右側にある [次へ] ボタンをクリックします。
  3. 確認のポップアップ内容を確認した後、 [確認] ボタンをクリックします。

2. サーバ設定

サーバの設定情報を指定します。

  1. サーバを配置する VPCと Subnetを選択します。

    • ベアメタルサーバ用の Subnetにのみサーバを配置できます。
    • 外部プライベートネットワークと通信するためには、パブリック IPアドレスを割り当てられるように Public Subnetに配置する必要があります。
    • VPCまたは Subnetを新たに作成する必要がある場合は、 [VPC作成] / [Subnet作成] ボタンをクリックして、当該ページでタスクを行ってください。
  2. サーバタイプを選択します。

    • 使用目的に合った CPU数とメモリ容量を選択します。
  3. RAID(複数のディスクをまとめて使用する方式)のタイプを設定します。

    • RAID 5 : 一般的に使用される RAIDレベルであり、ウェブサービスなどの一般的なアプリケーションに適している
    • RAID 1+0 : DBMSのように高い性能と安定性が必要なアプリケーションに適している
  4. パーティションを設定します。

    • パーティション数 : ディスクを論理的に分割するパーティションの数を選択
    • パーティション設定 : 各パーティションのマウントポイントと容量を設定
      • マウントポイント : ディスクをマウント(接続)するディレクトリで、先頭を英字にする必要があり、英小文字と数字で入力可能
      • パーティション容量(GiB) : ディスクの容量で、使用可能な容量内で細分化
  5. 料金プランを選択します。

    • ベアメタルサーバは時間制料金プランのみ提供します。
    • サーバが停止ステータスでも課金されますので、使用しないときはサーバを返却してください。
  6. サーバ数とサーバ名を入力します。

    • サーバは最大5つまで作成できます。
    • 複数のサーバを作成する場合は、開始番号も入力する必要があります。開始番号は数字のみ入力可能で、「001」がデフォルトで入力されます。
    • サーバ名は3~15文字の英小文字、数字、ハイフン(-)を使用して入力でき、先頭は英字にする必要があります。サーバ名を入力しない場合、自動的に作成されます。
    • 入力したサーバ名で hostnameを設定しますを選択すると、サーバ OSに設定されたホスト名がサーバ名と同じく適用されます。
  7. サーバに割り当てるネットワークインターフェースを入力します。

    • eth0 IPアドレスは必ず登録する必要があり、その値はサーバのデフォルトのプライベート IPアドレスになります。
      • ご希望の IPアドレスを入力し、 [追加] ボタンをクリックします。IPアドレスは選択した Subnet帯域に含まれている必要があります。
      • IPアドレス入力欄を空欄にして [追加] ボタンをクリックすると、自動的に割り当てられます。
    • デフォルトの eth0以外に1つのネットワークインターフェースを追加で作成できます。ただし、同じゾーンにあるベアメタルサーバ用の Private Subnetが必要です。入力した値は、サーバの追加プライベート IPアドレスとなります。
参考

ネットワークインターフェースについては、以下の使用のコツをご参照ください。

  • 複数のサーバを使用目的に応じて直感的に区分するために、ネットワークインターフェースを活用できます。
    例) 10.1.1.1xは開発サーバ、10.1.1.2xは運用サーバに区分
  • 次のような場合、ネットワークインターフェースを複数作成することをお勧めします。
    • サーバで使用するアプリケーションの特性により、別の Subnetが必要な場合
    • 用途に応じて Subnetを分離して設計したが、1つのサーバに統合して使用する必要がある場合
  • ネットワークインターフェースは追加分である1つを含め、合計2つまで使用できます。
  1. サーバの返却保護有無を選択します。

    • 返却保護を設定すると、誤ってサーバを返却する事故を未然に防止できます。必須の役割を担うサーバである場合、返却保護を設定することをお勧めします。
  2. 必要に応じてメモを入力するか、自動実行スクリプトを選択してください。

    • 自動実行スクリプトを選択すると、サーバの作成が完了した後、スクリプトを自動的に実行してサーバの初期環境を設定できます。 Init Script メニューでスクリプトをあらかじめ作成しないと選択できません。
  3. すべての設定を完了したら、 [次へ] ボタンをクリックします。

3. 認証キー設定

保有している認証キーを選択するか、新しい認証キーを作成した後、 [次へ] ボタンをクリックします。

  • 新しい認証キーを作成するには、 新しい認証キー作成 を選択して認証キー名を入力した後、 [認証キー作成と保存] ボタンをクリックします。
参考

認証キーはサーバ接続のための管理者パスワードを確認する際に必要です。保存した.pemファイルを PCの安全な場所に保管してください。

4. ネットワークアクセス設定

保有中の ACGを選択したり、新しい ACGを作成して [次へ] ボタンをクリックします。

  • ACGは最大3個まで選択できます。
  • default-acgはデフォルトで提供される ACGです。
  • ネットワークインターフェースを新規に作成した場合にのみ設定でき、既存のネットワークインターフェースを使用すると、プリセットされた ACGが自動的に適用されます。
参考

ACG内部のルールは ACGメニューで変更できます。詳細は、ACG設定をご参照ください。

5. 最終確認

設定内容を確認した後、 [サーバ作成] ボタンをクリックします。

参考

サーバが作成されるまで数分から数十分程度かかります。サーバの作成が完了して運用が開始されると、サーバリストに 運用中 のステータスで表示されます。

一般サーバ管理

ベアメタルサーバの管理と設定変更の方法は、一般サーバの管理と設定変更の方法と同じです。詳細は、サーバ管理をご参照ください。

参考
  • ベアメタルサーバはローカルディスクの追加やサーバ仕様の変更ができません。
  • ハードウェア障害が発生するとデータ復旧ができない場合があります。そのため、重要データは定期的にバックアップするか、冗長化構成することをお勧めします。

GPU A100サーバ作成

ベアメタルサーバを利用するには、NAVERクラウドプラットフォームコンソールでサーバを作成する必要があります。ベアメタルサーバを作成する方法は、次の通りです。

注意
  • ベアメタルサーバは作成制限があります。限度を変更する場合は、FAQを参照してカスタマーサポートまでお問い合わせください。
  • ベアメタルサーバは、停止中でも全体サーバ料金が課金されます。サーバを利用しないときには返却してください。
参考
  • サーバを作成するには、VPCと Subnetが作成されている必要があります。作成された VPCと Subnetがない場合、以下のガイドを参照して VPCと Subnetを作成してから、サーバを作成してください。
  • VPC環境では、以下のような GPUベアメタルサーバタイプが提供されます。ただし、提供できるスペックは未使用中の残存ベアメタルサーバやゾーンに応じて異なります。
    • Tesla A100 GPU 8EA、Dual AMD Epyc Milan 7313(3.0GHz)、32コア、2048GB RAM、2x240GB SSDローカルストレージ、4x7.68TB NVMe SSDローカルストレージ
  1. NAVERクラウドプラットフォームコンソールの Region メニューや Platform メニューから利用中の環境をクリックします。
  2. Services > Compute > Server > Bare Metal Server メニューを順にクリックします。
  3. [サーバ作成] ボタンをクリックします。
  4. サーバの作成画面が表示されたら、以下のステップを順に行います。

1. サーバイメージ選択

作成するサーバイメージを選択します。

参考
  1. サーバタイプを選択します。
    • Bare Metal Server(GPU A100) : ローカル NVMeディスクを搭載した GPU A100サーバ
  2. サーバイメージリストから希望するサーバイメージの右側にある [次へ] ボタンをクリックします。
  3. 確認のポップアップ内容を確認した後、 [確認] ボタンをクリックします。

2. サーバ設定

サーバの設定情報を指定します。

  1. サーバを配置する VPCと Subnetを選択します。
    • ベアメタルサーバ用の Subnetにのみサーバを配置できます。
    • 外部プライベートネットワークと通信するためには、パブリック IPアドレスを割り当てられるように Public Subnetに配置する必要があります。
    • VPCまたは Subnetを新たに作成する必要がある場合は、 [VPC作成] / [Subnet作成] ボタンをクリックして、当該ページでタスクを行ってください。
参考

GPU A100は、KR-1でのみ作成できます。A100を作成する際は、KR-1の Subnetを選択します。

  1. サーバタイプを選択します。

    • 使用目的に合った CPU数とメモリ容量を選択します。
  2. 料金プランを選択します。

    • ベアメタルサーバは時間制料金プランのみ提供します。
    • サーバが停止ステータスでも課金されますので、使用しないときはサーバを返却してください。
  3. サーバ数とサーバ名を入力します。

    • サーバは最大5つまで作成できます。
    • 複数のサーバを作成する場合は、開始番号も入力する必要があります。開始番号は数字のみ入力可能で、「001」がデフォルトで入力されます。
    • サーバ名は3~15文字の英小文字、数字、ハイフン(-)を使用して入力でき、先頭は英字にする必要があります。サーバ名を入力しない場合、自動的に作成されます。
    • 入力したサーバ名で hostnameを設定しますを選択すると、サーバ OSに設定されたホスト名がサーバ名と同じく適用されます。
  4. 複数のサーバを群集化する Fabric Clusterを作成するために、Poolとクラスタモードを設定します。

    • Pool : GPU A100サーバの論理グループ。同一Pool内でのみクラスタを構成可能。
    • Fabric Cluster : サーバ内のクラスタ有無。 N(Single Mode) を選択するとシングルモード、 Y(Cluster Mode) を選択するとクラスタモードに設定。
  5. サーバに割り当てるネットワークインターフェースを入力します。

    • eth0 IPアドレスは必ず登録する必要があり、その値はサーバのデフォルトのプライベート IPアドレスになります。
      • ご希望の IPアドレスを入力し、 [追加] ボタンをクリックします。IPアドレスは選択した Subnet帯域に含まれている必要があります。
      • IPアドレス入力欄を空欄にして [追加] ボタンをクリックすると、自動的に割り当てられます。
    • デフォルトの eth0以外に1つのネットワークインターフェースを追加で作成できます。ただし、同じゾーンにあるベアメタルサーバ用の Private Subnetが必要です。入力した値は、サーバの追加プライベート IPアドレスとなります。
参考

ネットワークインターフェースについては、以下の使用のコツをご参照ください。

  • 複数のサーバを使用目的に応じて直感的に区分するために、ネットワークインターフェースを活用できます。
    例) 10.1.1.1xは開発サーバ、10.1.1.2xは運用サーバに区分
  • 次のような場合、ネットワークインターフェースを複数作成することをお勧めします。
    • サーバで使用するアプリケーションの特性により、別の Subnetが必要な場合
    • 用途に応じて Subnetを分離して設計したが、1つのサーバに統合して使用する必要がある場合
  1. サーバの返却保護有無を選択します。

    • 返却保護を設定すると、誤ってサーバを返却する事故を未然に防止できます。必須の役割を担うサーバである場合、返却保護を設定することをお勧めします。
  2. 必要に応じてメモを入力するか、自動実行スクリプトを選択してください。

    • 自動実行スクリプトを選択すると、サーバの作成が完了した後、スクリプトを自動的に実行してサーバの初期環境を設定できます。 Init Script メニューでスクリプトをあらかじめ作成しないと選択できません。
  3. すべての設定を完了したら、 [次へ] ボタンをクリックします。

3. 認証キー設定

保有している認証キーを選択するか、新しい認証キーを作成した後、 [次へ] ボタンをクリックします。

  • 新しい認証キーを作成するには、 新しい認証キー作成 を選択して認証キー名を入力した後、 [認証キー作成と保存] ボタンをクリックします。
参考

認証キーはサーバ接続のための管理者パスワードを確認する際に必要です。保存した.pemファイルを PCの安全な場所に保管してください。

4. ネットワークアクセス設定

保有中の ACGを選択したり、新しい ACGを作成して [次へ] ボタンをクリックします。

  • ACGは最大3個まで選択できます。
  • default-acgはデフォルトで提供される ACGです。
  • ネットワークインターフェースを新規に作成した場合にのみ設定でき、既存のネットワークインターフェースを使用すると、プリセットされた ACGが自動的に適用されます。
参考

ACG内部のルールは ACGメニューで変更できます。詳細は、ACG設定をご参照ください。

5. 最終確認

設定内容を確認した後、 [サーバ作成] ボタンをクリックします。

参考

サーバが作成されるまで数分から数十分程度かかります。サーバの作成が完了して運用が開始されると、サーバリストに 運用中 のステータスで表示されます。

GPU A100サーバ管理

NAVERクラウドプラットフォームで作成した GPU A100サーバを点検する方法について説明します。

GPUドライバと必須ソフトウェア

サーバの GPUドライバと必要なソフトウェアを点検します。点検方法は KVM A100の点検方法と同じです。詳細は、以下のガイドをご参照ください。
詳細な点検要素は、次の通りです。

Infiniband

Infinibandとは、高性能コンピューティングで使用される標準的なネットワーク通信技術で、高帯域幅と低遅延というメリットがあります。
GPU A100サーバ間の通信に使用されるため、必ず点検が必要です。Infinibandの点検方法は KVM A100の点検方法と同じです。
詳細は、以下のガイドをご参照ください。

GPU A100 NVMe Local Disk

GPU A100は、7.68TB容量の NVMe SSD 4枚を提供します。
当該ディスクはパーティションまたはマウントされていないステータスで提供されるため、ディスクの基本的な認識ステータスを確認し、パーティションおよびマウントを行う必要があります。
詳細な進行手順は、次の通りです。

1. NVMeディスク認識の確認

NVMeディスクが正常に認識されたか確認する方法は、次の通りです。

  1. nvme-cliパッケージをインストールします。
  2. nvme listコマンドを実行して、搭載された NVMeデバイス情報を確認します。
    # nvme list
    Node             SN                   Model                                    Namespace Usage                      Format           FW Rev
    ---------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
    /dev/nvme0n1     S4BGNC0R700330       SAMSUNG MZQLB7T6HMLA-00007               1          45.06  kB /   7.68  TB      4 KiB +  0 B   EDB5202Q
    /dev/nvme1n1     S4BGNC0R700328       SAMSUNG MZQLB7T6HMLA-00007               1          45.06  kB /   7.68  TB      4 KiB +  0 B   EDB5202Q
    /dev/nvme2n1     S4BGNW0R702764       SAMSUNG MZQLB7T6HMLA-00007               1          45.06  kB /   7.68  TB      4 KiB +  0 B   EDB5202Q
    /dev/nvme3n1     S4BGNA0R400116       SAMSUNG MZQLB7T6HMLA-00007               1          45.06  kB /   7.68  TB      4 KiB +  0 B   EDB5202Q
    

2. ファイルシステムの作成とマウント

ファイルシステムを作成し、ディスクをマウントします。以下の中から目的のタイプのファイルシステムを選択して構築できます。

注意

既に使用中の NVMeディスクでこのタスクを行うと、すべてのデータが失われる可能性があります。このユースケースでは、各 NVMeディスクを単一のパーティションとして使用することを想定しています。

xfs

xfsファイルシステムを作成してディスクをマウントする方法は、次の通りです。

  1. すべての NVMeデバイス(/dev/nvme0n1~/dev/nvme3n1)に対して mkfs.xfsコマンドを実行し、xfsファイルシステムでフォーマットします。
    mkfs.xfs: /dev/nvme0n1 appears to contain a partition table (gpt).
    mkfs.xfs: Use the -f option to force overwrite.  <--この警告が発生する場合、-f (--force)オプションを追加してください。
    
    # mkfs.xfs /dev/nvme0n1 -f
    meta-data=/dev/nvme0n1           isize=512    agcount=7, agsize=268435455 blks
                =                       sectsz=4096  attr=2, projid32bit=1
                =                       crc=1        finobt=0, sparse=0
    data     =                       bsize=4096   blocks=1875366486, imaxpct=5
                =                       sunit=0      swidth=0 blks
    naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
    log      =internal log           bsize=4096   blocks=521728, version=2
                =                       sectsz=4096  sunit=1 blks, lazy-count=1
    realtime =none                   extsz=4096   blocks=0, rtextents=0
    
    # blkid | grep /dev/nvme0n1
    /dev/nvme0n1: UUID="1068a11f-df24-48c4-8506-dd522fea6bd2" TYPE="xfs"
    
  2. フォーマットが完了した NVMeディスクをご希望のマウントポイントにマウントします。
    # mkdir /mnt/nvme-disk1
    # mount /dev/nvme0n1 /mnt/nvme-disk1
    # df /mnt/nvme-disk1
    Filesystem      1K-blocks  Used  Available Use% Mounted on
    /dev/nvme0n1   7499379032 33220 7499345812   1% /mnt/nvme-disk1
    

ext4

ext4ファイルシステムを作成してディスクをマウントする方法は、次の通りです。

  1. すべての NVMeデバイス(/dev/nvme0n1~/dev/nvme3n1)に対して mkfs.ext4コマンドを実行し、ext4ファイルシステムでフォーマットします。
    # mkfs.ext4 /dev/nvme1n1
    mke2fs 1.42.9 (28-Dec-2013)
    Discarding device blocks: done
    Filesystem label=
    OS type: Linux
    Block size=4096 (log=2)
    Fragment size=4096 (log=2)
    Stride=0 blocks, Stripe width=0 blocks
    234422272 inodes, 1875366486 blocks
    93768324 blocks (5.00%) reserved for the super user
    First data block=0
    Maximum filesystem blocks=4024434688
    57232 block groups
    32768 blocks per group, 32768 fragments per group
    4096 inodes per group
    Superblock backups stored on blocks:
            32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
            4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
            102400000, 214990848, 512000000, 550731776, 644972544
    
    Allocating group tables: done
    Writing inode tables: done
    Creating journal (32768 blocks): done
    Writing superblocks and filesystem accounting information: done
    
    # blkid | grep /dev/nvme1n1
    /dev/nvme1n1: UUID="fcc67093-6f37-4456-b5cf-70f2a6157495" TYPE="ext4"
    
  2. フォーマットが完了した NVMeディスクをご希望のマウントポイントにマウントします。
    # mkdir /mnt/nvme-disk2
    # mount -t ext4 /dev/nvme1n1 /mnt/nvme-disk2
    # df /mnt/nvme-disk2
    Filesystem      1K-blocks  Used  Available Use% Mounted on
    /dev/nvme1n1   7442192600 90136 7067012784   1% /mnt/nvme-disk2
    

3. fstabを利用した自動マウント

フォーマット後に mountコマンドでマウントされたディスクは、OSを再起動するたびに再マウントする必要があるため、fstabを設定して起動時にディスクが自動マウントされるように設定します。

注意

/etc/fstabファイルを間違って変更すると、サーバの起動に失敗する可能性があるのでご注意ください。

自動マウントされるように fstabを設定する方法は、次の通りです。

  1. blkidコマンドを実行し、パーティション別 UUIDを確認します。

    # blkid | grep '/dev/nvme'
    /dev/nvme0n1: UUID="1068a11f-df24-48c4-8506-dd522fea6bd2" TYPE="xfs"
    /dev/nvme1n1: UUID="fcc67093-6f37-4456-b5cf-70f2a6157495" TYPE="ext4"
    /dev/nvme2n1: UUID="844741dc-306c-44a2-a18c-9b1c780d36df" TYPE="xfs"
    /dev/nvme3n1: UUID="e101556f-69c3-4dc7-870a-0e037a97c49f" TYPE="xfs"
    
  2. /etc/fstabファイルを開き、マウント情報を追加して保存します。

    • CentOS
    # cat /etc/fstab 
    
    #
    # /etc/fstab
    # Created by anaconda on Thu Nov 24 12:05:24 2022
    #
    # Accessible filesystems, by reference, are maintained under '/dev/disk'
    # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
    #
    UUID=8518300e-9c84-470c-9d1f-4f6cd625752f /                       xfs     defaults        0 0
    UUID=240240cc-79d5-43af-a3e0-ae06070c682a /boot                   xfs     defaults        0 0
    UUID=E036-A50F          /boot/efi               vfat    defaults,uid=0,gid=0,umask=0077,shortname=winnt 0 0
    UUID=9505f0f2-3e43-4093-b627-ac62508f4ba0 swap                    swap    defaults        0 0
    
    <!-- マウント情報入力フォーマット: UUID={パーティション UUID}  {マウントポイント}  {ファイルシステムタイプ}  {マウントオプション} -->
    UUID=1068a11f-df24-48c4-8506-dd522fea6bd2 /mnt/nvme-disk1         xfs     defaults        0 0
    UUID=fcc67093-6f37-4456-b5cf-70f2a6157495 /mnt/nvme-disk2         ext4    defaults        0 0
    UUID=844741dc-306c-44a2-a18c-9b1c780d36df /mnt/nvme-disk3         xfs     defaults        0 0
    UUID=e101556f-69c3-4dc7-870a-0e037a97c49f /mnt/nvme-disk4         xfs     defaults        0 0
    
    • Ubuntu
    # /etc/fstab: static file system information.
    #
    # Use 'blkid' to print the universally unique identifier for a
    # device; this may be used with UUID= as a more robust way to name devices
    # that works even if disks are added and removed. See fstab(5).
    #
    # <file system> <mount point>   <type>  <options>       <dump>  <pass>
    # / was on /dev/sda3 during curtin installation
    /dev/disk/by-uuid/4723f105-37b0-4602-8cc2-173419cdd0d8 / xfs defaults 0 1
    # /boot was on /dev/sda2 during curtin installation
    /dev/disk/by-uuid/c9216d88-ddd1-4aac-a4d5-da645234a7bb /boot ext4 defaults 0 1
    # /boot/efi was on /dev/sda1 during curtin installation
    /dev/disk/by-uuid/2753-311A /boot/efi vfat defaults 0 1
    /swap.img       none    swap    sw      0       0
    
    <!-- マウント情報入力フォーマット: /dev/disk/by-uuid/{パーティション UUID}  {マウントポイント}  {ファイルシステムタイプ}  {マウントオプション} -->
    /dev/disk/by-uuid/1068a11f-df24-48c4-8506-dd522fea6bd2 /mnt/nvme-disk1         xfs     defaults        0 1
    /dev/disk/by-uuid/fcc67093-6f37-4456-b5cf-70f2a6157495 /mnt/nvme-disk2         ext4    defaults        0 1
    /dev/disk/by-uuid/844741dc-306c-44a2-a18c-9b1c780d36df /mnt/nvme-disk3         xfs     defaults        0 1
    /dev/disk/by-uuid/e101556f-69c3-4dc7-870a-0e037a97c49f /mnt/nvme-disk4         xfs     defaults        0 1