このチュートリアルは、GPUクラスタのGPUノードに最適なベアメタルインスタンス(本チュートリアルでは BM.GPU4.8 を使用)を クラスタ・ネットワーク でノード間接続する、機械学習ワークロードを実行するためのGPUクラスタを構築する際のベースとなるインフラストラクチャを、予め用意された Terraform スクリプトを活用して自動構築し、Dockerコンテナ上で NCCL(NVIDIA Collective Communication Library) のGPU間通信性能を NCCL Tests で検証します。
この自動構築は、 Terraform スクリプトを リソース・マネージャ に読み込ませて作成する スタック を使用する方法と、 Terraform 実行環境を用意して Terraform CLIを使用する方法から選択することが出来ます。

このチュートリアルで作成する環境は、ユーザ管理、ホスト名管理、共有ファイルシステム、プログラム開発環境等、必要なソフトウェア環境をこの上に整備し、ご自身の要件に沿ったGPUクラスタを構築する際の基礎インフラストラクチャとして利用することが可能です。
なお、これらのクラスタ管理に必要なソフトウェアの導入までを自動化する HPCクラスタスタック も利用可能で、詳細は GPUクラスタを構築する(スタティッククラスタ自動構築編) を参照してください。

本チュートリアルで作成するGPUクラスタ構築用の Terraform スクリプトは、そのひな型が GitHub のパブリックレポジトリから公開されており、適用すると以下の処理を行います。

  • VCNと関連するネットワークリソース構築
  • Bastionノード構築
  • GPUノード用 インスタンス構成 作成
  • クラスタ・ネットワーク とGPUノード構築
  • GPUクラスタ内のノード間SSHアクセスに使用するSSH鍵ペア作成・配布
  • GPUノードの全ホスト名を記載したホストリストファイル(/home/opc/hostlist.txt)作成
  • 構築したBastionノード・GPUノードのホスト名・IPアドレス出力

Bastionノードは、接続するサブネットをパブリックとプライベートから選択することが可能(※1)で、以下のBastionノードへのログイン方法に合わせて選択します。

  • インターネット経由ログイン -> パブリックサブネット接続
  • 拠点間接続経由ログイン > プライベートサブネット接続

※1)構築方法に Terraform CLIを採用する場合は、パブリックサブネット接続のみ選択可能です。

システム構成図(パブリック)


システム構成図(プライベート)

Bastionノード構築は、 cloud-init 設定ファイル( cloud-config )を含み、 cloud-init がBastionノードデプロイ時に以下の処理を行います。

  • タイムゾーンをJSTに変更
  • ホームディレクトリ領域のNFSエクスポート
  • GPUノードのDNS名前解決をショートホスト名で行うための resolv.conf 修正

またGPUノード用 インスタンス構成 は、 cloud-config を含み、 cloud-init がGPUノードデプロイ時に以下の処理を行います。

  • タイムゾーンをJSTに変更
  • Docker Community Edition インストール
  • NVIDIA Container Toolkit インストール
  • NVMe SSDローカルディスク領域ファイルシステム作成
  • firewalld 停止
  • ルートファイルシステム拡張
  • クラスタ・ネットワーク 接続用ネットワークインターフェース作成
  • BastionノードのDNS名前解決をショートホスト名で行うための resolv.conf 修正
  • Bastionノードホームディレクトリ領域のNFSマウント

所要時間 : 約2時間

前提条件 : GPUクラスタを収容するコンパートメント(ルート・コンパートメントでもOKです)の作成と、このコンパートメントに対する必要なリソース管理権限がユーザーに付与されていること。

注意 : チュートリアル内の画面ショットについては、OCIの現在のコンソール画面と異なっている場合があります。


0. 事前準備

0-0. 概要

本章は、GPUクラスタを構築する際事前に用意しておく必要のあるリソースを作成します。
この手順は、構築手法に リソース・マネージャ を使用する方法を採用するか、 Terraform CLIを使用する方法を採用するかで異なります。

[ リソース・マネージャ を使用する方法]

  • 構成ソース・プロバイダ 作成
  • スタック 作成

[ Terraform CLIを使用する方法]

  • Terraform 実行環境構築
  • Terraform スクリプト作成

以降では、2つの異なる構築手法毎にその手順を解説します。

0-1. リソース・マネージャを使用する方法

0-1-1. 構成ソース・プロバイダ作成

本章は、ひな型となる Terraform スクリプトを GitHub パブリックレポジトリから取り込むための 構成ソース・プロバイダ を作成します。

構成ソース・プロバイダ の作成は、 ここ を参照してください。

0-1-2. スタック作成

本章は、GPUクラスタを構築するための リソース・マネージャスタック を作成します。

  1. OCIコンソールにログインし、GPUクラスタをデプロイするリージョンを選択後、 開発者サービスリソース・マネージャスタック とメニューを辿ります。

  2. 表示される以下画面で、スタックの作成 ボタンをクリックします。

    画面ショット

  3. 表示される以下 スタック情報 画面で、以下の情報を入力し、下部の ボタンをクリックします。
    • Terraformの構成のオリジン : ソース・コード制御システム
    • ソースコード管理タイプ : GitHub
    • 構成ソース・プロバイダ : 0-1-1. 構成ソース・プロバイダ作成 で作成した 構成ソース・プロバイダ
    • リポジトリ : tutorial_cn_rm
    • ブランチ : master
    • 名前 : スタックに付与する名前(任意)
    • 説明 : スタックに付与する説明(任意)

    画面ショット

  4. 表示される 変数の構成 画面で、各画面フィールドに以下の情報を入力し、下部の ボタンをクリックします。
    4.1 General options フィールド
    • Compartment : GPUクラスタをデプロイするコンパートメント
    • Availability Domain : GPUクラスタをデプロイする可用性ドメイン
    • SSH public key : Bastionノードにログインする際使用するSSH秘密鍵に対応する公開鍵
      • 公開鍵ファイルのアップロード( SSHキー・ファイルの選択 )と公開鍵のフィールドへの貼り付け( SSHキーの貼付け )が選択可能
    • Private bastion : Bastionノードをプライベートサブネットに接続するかどうかを指定(デフォルト:パブリックサブネット接続)
      (パブリックサブネットに接続する場合はチェックオフ/プライベートサブネットに接続する場合はチェック)

    画面ショット
    4.2 Compute/GPU node options フィールド

    • Display name postfix : GPUノードホスト名の接尾辞(※2)
    • Shape : BM.GPU4.8
    • Node count : GPUノードのノード数(デフォルト:2)
    • Image OCID : GPUノードのイメージOCID(※3)
    • Boot volume size : GPUノードのブートボリュームサイズ(デフォルト:100GB)
    • cloud-config : GPUノードの cloud-init 設定ファイル( cloud-config )(※4)
    • NPS for BM.GPU4.8 : GPUノードの NPS 設定値 (デフォルト:NPS4) (※5)
    • SMT : GPUノードの SMT 設定値 (デフォルト:有効) (※5)

    画面ショット

    ※2) 例えば gpu4-ol79 と指定した場合、GPUノードのホスト名は inst-xxxxx-gpu4-ol79 となります。( xxxxx はランダムな文字列)
    ※3)以下のOCIDを指定します。

    No.
    (※6)
    Oracle Linux
    バージョン
    OCID
    7 8.9 ocid1.image.oc1..aaaaaaaa2uaq7zbntzrc5hwoyytmpifjmrjhcfgbotyb5gbfq4cnro46cn3q
    11 8.8 ocid1.image.oc1..aaaaaaaaeka3qe2v5ucxztilltohgmsyr63s3cd55uidtve4mtietoafopeq
    8 7.9 ocid1.image.oc1..aaaaaaaacvmchv5h7zp54vyntetzkia3hrtr5tyz7j6oiairdfjw3rutgb3q

    ※4)以下をテキストファイルとして保存し、ブラウザから読み込みます。

    #cloud-config
    timezone: Asia/Tokyo
    yum_repos:
    #
    # To install docker community edition
      ol7_developer:
        name: Oracle Linux $releasever Development Packages ($basearch)
        baseurl: https://yum$ociregion.$ocidomain/repo/OracleLinux/OL7/developer/$basearch/
        enabled: true
        gpgcheck: true
        gpgkey: file:///etc/pki/rpm-gpg/RPM-GPG-KEY-oracle
      docker-ce-stable:
        name: Docker CE Stable - $basearch
        baseurl: https://download.docker.com/linux/centos/$releasever/$basearch/stable
        enabled: true
        gpgcheck: true
        gpgkey: https://download.docker.com/linux/centos/gpg
    #
    # To install NVIDIA container toolkit
      libnvidia-container:
        name: libnvidia-container
        baseurl: https://nvidia.github.io/libnvidia-container/stable/centos7/$basearch
        enabled: true
        gpgcheck: true
        gpgkey: https://nvidia.github.io/libnvidia-container/gpgkey
      libnvidia-container-experimental:
        name: libnvidia-container-experimental
        baseurl: https://nvidia.github.io/libnvidia-container/experimental/centos7/$basearch
        enabled: true
        gpgcheck: true
        gpgkey: https://nvidia.github.io/libnvidia-container/gpgkey
    packages:
    #
    # Install Docker community edition and NVIDIA container toolkit
      - docker-ce
      - nvidia-container-toolkit
    runcmd:
    #
    # Mount NVMe local storage
      - vgcreate nvme /dev/nvme0n1 /dev/nvme1n1 /dev/nvme2n1 /dev/nvme3n1
      - lvcreate -l 100%FREE nvme
      - mkfs.xfs -L localscratch /dev/nvme/lvol0
      - mkdir -p /mnt/localdisk
      - echo "LABEL=localscratch /mnt/localdisk/ xfs defaults,noatime 0 0" >> /etc/fstab
      - mount /mnt/localdisk
    #
    # Stop firewalld
      - systemctl disable --now firewalld
    #
    # Expand root file system to those set by instance configuration
      - /usr/libexec/oci-growfs -y
    #
    # Add public subnet to DNS search
      - sed -i '/^search/s/$/ public.vcn.oraclevcn.com/g' /etc/resolv.conf
      - chattr -R +i /etc/resolv.conf
    #
    # NFS mount setting
      - echo "bastion:/home /home nfs defaults,vers=3 0 0" >> /etc/fstab
      - mount /home
    

    ※5)詳細は、 パフォーマンス関連Tips集パフォーマンスに関連するベア・メタル・インスタンスのBIOS設定方法 を参照してください。

    ※6)OCI HPCテクニカルTips集クラスタネットワーキングイメージの選び方1. クラスタネットワーキングイメージ一覧 のイメージNo.です。

  5. 表示される 確認 画面で、これまでの設定項目が意図したものになっているかを確認し、以下 作成されたスタックで適用を実行しますか。 フィールドの 適用の実行 をチェックオフし、下部の 作成 ボタンをクリックします。

    画面ショット

    ここで 適用の実行 をチェックした場合、 作成 ボタンのクリックと同時に スタック の適用が開始され、GPUクラスタの構築が始まりますが、このチュートリアルでは後の章で改めて スタック の適用を行います。

これで、以下画面のとおりGPUクラスタ構築用 スタック が作成されました。

画面ショット

0-2. Terraform CLIを使用する方法

0-2-1. Terraform実行環境構築

本章は、 Terraform CLIを使用してGPUクラスタのライフサイクル管理を実行する Terraform 実行環境を構築します。
この実行環境は、インターネットに接続された LinuxWindowsMac の何れかのOSが稼働している端末であればよく、以下のような選択肢が考えられます。

  • OCI上の Linux が稼働するVMインスタンス
  • ご自身が使用する Windows / Mac パソコン
  • ご自身が使用する Windows / Mac パソコンで動作する Linux ゲストOS

本チュートリアルは、この Terraform 実行環境のOSに Oracle Linux 8を使用します。

Terraform 実行環境は、以下のステップを経て構築します。

  • Terraform インストール
  • Terraform 実行環境とOCI間の認証関係締結(APIキー登録)

具体的な Terraform 実行環境構築手順は、チュートリアル TerraformでOCIの構築を自動化する2. Terraform環境の構築 を参照してください。
また、関連するOCI公式ドキュメントは、 ここ を参照してください。

0-2-2. Terraformスクリプト概要

本チュートリアルで使用するGPUクラスタ構築用の Terraform スクリプトは、そのひな型を GitHub のパブリックレポジトリで公開しており、以下のファイル群で構成されています。

ファイル名 用途
cn.tf インスタンス構成クラスタ・ネットワーク の定義
outputs.tf 構築したリソース情報の出力
terraform.tfvars Terraform スクリプト内で使用する変数値の定義
variables.tf Terraform スクリプト内で使用する変数の型の定義
instance.tf Bastionノードの定義
provider.tf テナンシ ・ユーザ・ リージョン の定義
vcn.tf 仮想クラウド・ネットワーク と関連するネットワークリソースの定義

これらのうち自身の環境に合わせて修正する箇所は、基本的に terraform.tfvarsprovider.tf に集約しています。

また、これらのファイルと同じディレクトリに user_data ディレクトリが存在し、 cloud-init 設定ファイル( cloud-config )を格納しています。
この cloud-config を修正することで、構築するGPUクラスタのOSレベルのカスタマイズをご自身の環境に合わせて追加・変更することも可能でます。

0-2-3. Terraformスクリプト作成

  1. Terraform スクリプトの作成は、まず以下の GitHub レポジトリからひな型となる Terraform スクリプトを Terraform 実行環境にダウンロードしますが、

    https://github.com/fwiw6430/tutorial_cn

    これには、以下コマンドを Terraform 実行環境のopcユーザで実行するか、

     $ sudo dnf install -y git
     $ git clone https://github.com/fwiw6430/tutorial_cn
    

    GitHubTerraform スクリプトレポジトリのページからzipファイルを Terraform 実行環境にダウンロード・展開することで行います。

  2. ダウンロードした Terraform スクリプトのうち、 terraform.tfvarsprovider.tf 内の以下 Terraform 変数を自身の環境に合わせて修正します。
    この際、これらファイル内の Terraform 変数は、予めコメント( # で始まる行)として埋め込まれていたり、キーワード xxxx で仮の値が入力されているため、コメント行を有効化して自身の値に置き換える、等の修正を行います。

    [ provider.tf ]

    変数名 設定値 確認方法
    tenancy_ocid 使用するテナントのOCID ここ を参照
    user_ocid 使用するユーザのOCID ここ を参照
    private_key_path OCIに登録したAPIキーの秘密キーのパス -
    fingerprint OCIに登録したAPIキーのフィンガープリント ここ を参照
    region GPUクラスタをデプロイするリージョン識別子 ここ を参照

    [ terraform.tfvars ]

    変数名 設定値 確認方法
    compartment_ocid GPUクラスタをデプロイするコンパートメントのOCID ここ を参照
    ad GPUクラスタをデプロイする可用性ドメイン識別子 (※7)
    ssh_key Bastionノードログインに使用するSSH秘密鍵に対する公開鍵 -
    cn_display_name GPUノードホスト名の接尾辞 (※8)
    comp_shape GPUノードに使用するシェイプ
    BM.GPU4.8
    -
    cn_node_count GPUノードのノード数 -
    comp_image GPUノードに使用するOSイメージのOCID (※9)
    comp_boot_vol_size GPUノードのブートボリュームのサイズ(GB) -
    comp_cloud_config user_data ディレクトリに格納するGPUノード用 cloud-config ファイル名
    cloud-init_cngpu.cfg
    -
    comp_nps_gpu40 GPUノード ( BM.GPU4.8 の場合) の NPS BIOS設定値 (※10)
    comp_nps_gpu80 GPUノード ( BM.GPU.A100-v2.8 の場合) の NPS BIOS設定値 (※10)
    comp_smt GPUノードの SMT BIOS設定値 (※10)
         

    ※7)OCIコンソールメニューから コンピュートインスタンス を選択し インスタンスの作成 ボタンをクリックし、表示される以下 配置 フィールドで確認出来ます。

    画面ショット

    ※8)例えば gpu4-ol79 と指定した場合、GPUノードのホスト名は inst-xxxxx-gpu4-ol79 となります。( xxxxx はランダムな文字列)
    ※9)コメントとして埋め込まれているOSイメージOCIDから、コメント文の記載を参考に適切なOSイメージOCIDのコメントを外して使用します。詳細は、 OCI HPCテクニカルTips集クラスタネットワーキングイメージの選び方1. クラスタネットワーキングイメージ一覧 を参照してください。
    ※10)詳細は、 パフォーマンス関連Tips集パフォーマンスに関連するベア・メタル・インスタンスのBIOS設定方法 を参照してください。


1. GPUクラスタ構築

1-0. 概要

本章は、先に作成した スタック / Terraform スクリプトを使用し、GPUクラスタを構築します。
この手順は、構築手法に リソース・マネージャ を使用する方法を採用するか、 Terraform CLIを使用する方法を採用するかで異なり、以降では2つの異なる構築手法毎にその手順を解説します。

1-1. リソース・マネージャを使用する方法

  1. 以下 スタックの詳細 画面で、 適用 ボタンをクリックします。

    画面ショット

  2. 表示される以下 適用 サイドバーで、 適用 ボタンをクリックします。

    画面ショット

  3. 表示される以下 ジョブ詳細 ウィンドウで、左上のステータスが 受入れ済進行中 と遷移すれば、 スタック の適用が実施されています。

    画面ショット

    表示される以下 ログ フィールドで、リソースのデプロイ状況を確認します。

    画面ショット

    この適用が完了するまでの所要時間は、GPUノードのノード数が2ノードの場合で10分程度です。

    ステータスが 成功 となれば、GPUクラスタのデプロイが完了しており、以下のように ログ フィールドの最後にBastionノードとGPUノードのホスト名とIPアドレスが出力されます。

     Outputs:
    
     Bastion_instances_created = {
       "display_name" = "bastion"
       "private_ip" = "10.0.1.138"
       "public_ip" = "123.456.789.123"
     }
     Compute_in_cn_created = {
       "inst-9fhuq-gpu4-ol79" = {
         "display_name" = "inst-9fhuq-gpu4-ol79"
         "private_ip" = "10.0.2.10"
       }
       "inst-dz99s-gpu4-ol79" = {
         "display_name" = "inst-dz99s-gpu4-ol79"
         "private_ip" = "10.0.2.73"
       }
     }
    

1-2. Terraform CLIを使用する方法

Terraform 実行環境で、以下コマンドを実行します。

$ cd tutorial_cn
$ terraform init
$ terraform apply --auto-approve

最後のコマンドによる Terraform スクリプトの適用完了までの所要時間は、GPUノードのノード数が2ノードの場合で10分程度です。

Terraform スクリプトの適用が正常に完了すると、以下のようにコマンド出力の最後にBastionノードとGPUノードのホスト名とIPアドレスが出力されます。

Apply complete! Resources: 16 added, 0 changed, 0 destroyed.

Outputs:

Bastion_instances_created = {
  "display_name" = "bastion"
  "private_ip" = "10.0.1.138"
  "public_ip" = "123.456.789.123"
}
Compute_in_cn_created = {
  "inst-9fhuq-gpu4-ol79" = {
    "display_name" = "inst-9fhuq-gpu4-ol79"
    "private_ip" = "10.0.2.10"
  }
  "inst-dz99s-gpu4-ol79" = {
    "display_name" = "inst-dz99s-gpu4-ol79"
    "private_ip" = "10.0.2.73"
  }
}

2. GPUクラスタ確認

2-0. 概要

本章は、デプロイされたGPUクラスタ環境を確認します。

この際、作成されたGPUノードの全ホスト名を記載したホストリストファイルを使用し、BastionノードからGPUクラスタ内の全GPUノードにSSHでコマンドを発行、その環境を確認します。
なおこのホストリストファイルは、Bastionノードと全GPUノードに /home/opc/hostlist.txt として存在します。

2-1. Bastionノードログイン

Bastionノードは、パブリックサブネット接続の場合はGPUクラスタ構築完了時に表示されるパブリックIPアドレスに対してインターネット経由SSHログインし、プライベートサブネット接続の場合はGPUクラスタ構築完了時に表示されるプライベートIPアドレスに対して拠点間接続経由SSHログインしますが、これには構築時に指定したSSH公開鍵に対応する秘密鍵を使用して以下コマンドで行います。

$ ssh -i path_to_ssh_secret_key opc@123.456.789.123

2-2. cloud-init完了確認

cloud-init は、GPUノードが起動してSSHログインできる状態であっても、その処理が継続している可能性があるため、以下コマンドをBastionノードのopcユーザで実行し、そのステータスが done となっていることで cloud-init の処理完了を確認します。
この際、ノード数分の接続するかどうかの確認に対して全て yes を入力します。

$ for hname in `cat /home/opc/hostlist.txt`; do echo $hname; ssh $hname "sudo cloud-init status"; done
inst-zvc5c-gpu4-ol79
The authenticity of host 'inst-zvc5c-gpu4-ol79 (10.0.2.159)' cannot be established.
ECDSA key fingerprint is SHA256:6zl4kIFKqpBrRlw/JCfStS05rdCu7Eif/4e3OWvbOsc.
Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
Warning: Permanently added 'inst-zvc5c-gpu4-ol79,10.0.2.159' (ECDSA) to the list of known hosts.
status: done
inst-wf3wx-gpu4-ol79
The authenticity of host 'inst-wf3wx-gpu4-ol79 (10.0.2.31)' cannot be established.
ECDSA key fingerprint is SHA256:jWTGqZjG0dAyrbP04JGC8jJX+uqDwMFotLXirA7L+AA.
Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
Warning: Permanently added 'inst-wf3wx-gpu4-ol79,10.0.2.31' (ECDSA) to the list of known hosts.
status: done
$

ステータスが running の場合は、 cloud-init の処理が継続中のため、処理が完了するまで待ちます。

2-3. GPUノードファイルシステム確認

GPUノードは、以下のようにルートファイルシステムがデフォルトの50 GBから指定したサイズに拡張され、NVMe SSDローカルディスクが /mnt/localdisk にマウントされ、Bastionノードの /home/home としてマウントされています。

$ for hname in `cat /home/opc/hostlist.txt`; do echo $hname; ssh $hname "df -h / /mnt/localdisk /home"; done
inst-kicav-gpu4-ol79
Filesystem              Size  Used Avail Use% Mounted on
/dev/sda3               192G   23G  170G  12% /
/dev/mapper/nvme-lvol0   25T   34M   25T   1% /mnt/localdisk
bastion:/home            36G  9.1G   27G  26% /home
inst-0vdz8-gpu4-ol79
Filesystem              Size  Used Avail Use% Mounted on
/dev/sda3               192G   23G  170G  12% /
/dev/mapper/nvme-lvol0   25T   34M   25T   1% /mnt/localdisk
bastion:/home            36G  9.1G   27G  26% /home
$

2-4. GPUノードBIOS設定確認

以下コマンドをBastionノードのopcユーザで実行し、GPUノードのBIOSで指定した NPSSMT 設定が指定したとおりになっていることを確認します。

$ for hname in `cat /home/opc/hostlist.txt`; do echo $hname; ssh $hname "lscpu | grep -i -e numa -e thread"; done
inst-kicav-gpu4-ol79
Thread(s) per core:  2
NUMA node(s):        8
NUMA node0 CPU(s):   0-17,36-53
NUMA node1 CPU(s):   18-35,54-71
inst-0vdz8-gpu4-ol79
Thread(s) per core:  2
NUMA node(s):        8
NUMA node0 CPU(s):   0-17,36-53
NUMA node1 CPU(s):   18-35,54-71
$

3. NCCL Tests実行

本章は、 NGC Catalog から提供される TensorFlow NGC Container を起動し、このコンテナに含まれる NCCL とコンテナ上でビルドする NCCL Tests を使用し、Dockerコンテナ上で NCCL のGPU間通信性能を NCCL Tests で検証します。

  1. 全GPUノードのrootユーザで以下コマンドを実行し、Dockerランタイムを起動します。

     $ systemctl start docker
    
  2. 標準ベンチマーク実行方法NCCL Tests実行方法 の手順に従い、 NCCL Tests を実行します。


4. GPUクラスタ削除

4-0. 概要

本章は、先に作成した スタック / Terraform スクリプトを使用し、GPUクラスタを削除します。
この手順は、構築手法に リソース・マネージャ を使用する方法を採用するか、 Terraform CLIを使用する方法を採用するかで異なり、以降では2つの異なる構築手法毎にその手順を解説します。

4-1. リソース・マネージャを使用する方法

  1. 以下 スタックの詳細 画面で、 破棄 ボタンをクリックします。

    画面ショット

  2. 表示される以下 破棄 サイドバーで、 破棄 ボタンをクリックします。

    画面ショット

  3. 表示される以下 ジョブ詳細 ウィンドウで、左上のステータスが 受入れ済進行中 と遷移すれば、 スタック の破棄が実施されています。

    画面ショット

    表示される以下 ログ フィールドで、リソースの削除状況を確認します。

    画面ショット

    この破棄が完了するまでの所要時間は、GPUノードのノード数が2ノードの場合で5分程度です。

    ステータスが 成功 となれば、GPUクラスタの削除が完了しています。

4-2. Terraform CLIの場合

本章は、 Terraform スクリプトを Terraform CLIで破棄し、GPUクラスタを削除します。

Terraform 実行環境の tutorial_cn ディレクトリで以下コマンドを実行し、削除が正常に完了したことをメッセージから確認します。

$ terraform destroy --auto-approve
:
Destroy complete! Resources: 18 destroyed.
$

この破棄が完了するまでの所要時間は、GPUノードのノード数が2ノードの場合で5分程度です。

これで、このチュートリアルは終了です。

更新日時: