Docker
を使ってFACE01
を使う
ここではDocker
を使って煩雑な環境構築なしにFACE01
を使用する手順を解説します。
こちらで用意している`Dockerイメージ`を使ってFACE01を使うのが一番簡単でローカル環境も汚しません⭐️''
M1, M2 Mac用のDockerイメージは用意されていません。FACE01_DEV/docker/Dockerfile_no_gpuファイルを使ってDockerイメージを作成してください。
詳しくはISSUE#5を参照してください。
Docker image
をプル
Dockerイメージ
をダウンロード(プル)しましょう。
docker pull tokaikaoninsho/face01_gpu
使用するPCがNVIDIA GPUを使用しているなら、`face01_gpu`のような名前のついた`Docker image`を使用してください。
そうでなければ、`face01_no_gpu`のような名前のついた`Docker image`を使用してください。
When using face01_gpu
まずお使いのPCでNvidia GPU
が使用可能かチェックしましょう。
lspci | grep -i nvidia
Docker Imageをダウンロード(プル)する
docker pull tokaikaoninsho/face01_gpu
DockerイメージのTAG, IMAGE IDを確認しましょう
docker images
DockerでGUIが使えるようにxhostの設定をします
xhost +local:
よくわからない場合はDockerでGUIアプリケーションを開く基本的な押さえどころを参考にしてください。
ディスプレイマネージャとしてwayland
を使用している場合
ご用意している
docker イメージ
はX11
環境で作成しております。ですのでお使いのディスプレイマネージャがX11
あるいはXWayland
であれば使用できますが、Wayland
には対応していません。様々な事情によりご自身でイメージをビルドしていただく必要がある場合はDocker imageをビルドするをご参照ください。
image id
を指定してコンテナを起動します
NVIDIA製GPUがない場合は
--gpu all
を省略してください。
docker run --rm -it \
--gpus all \
-e DISPLAY=$DISPLAY \
-v /tmp/.X11-unix:/tmp/.X11-unix \
<image id>
開発用としてコンテナを起動させたい場合には、--rm
を除去し、永続化のためのフォルダを指定してください。
例えば以下のようにします。(必要に応じて細部を変更してください。)
docker run -it \
--gpus all \
-e DISPLAY=$DISPLAY \
-v /tmp/.X11-unix:/tmp/.X11-unix \
-v /path/to/host/folder:/path/to/container/folder \
<image id>
ここで、'/path/to/host/folder'はホスト側の永続化したいデータを保存するフォルダパスを指定し、'/path/to/container/folder'はコンテナ内でそのデータを利用するためのフォルダパスを指定します。
例えば、ホストの'/home/user/dataフォルダ'をコンテナ内の'/mnt/data'にマウントしたい場合は、以下のようになります。
docker run -it \
--gpus all \
-e DISPLAY=$DISPLAY \
-v /tmp/.X11-unix:/tmp/.X11-unix \
-v /home/user/data:/mnt/data \
<image id>
具体例
コンテナIDがce2952ad62d6
、/home/user/ドキュメント/FACE01_mnt_Folder
を/home/docker/test/
に接続する場合は以下のようになります。
user@user:~$ docker run -it \
--gpus all \
-e DISPLAY=$DISPLAY \
-v /tmp/.X11-unix:/tmp/.X11-unix \
-v /home/user/ドキュメント/FACE01_mnt_Folder:/home/docker/test/ ce2952ad62d6
注意点として、例えばコンテナ内の/home/docker/
に接続してしまうと、/home/docker/FACE01_DEV/
ディレクトリが消えてしまいます。/home/docker/
ディレクトリに接続する場合は、/home/docker/test/
などのように新しいディレクトリにするようにしましょう。
NOTE
Webカメラなどを接続して使用する場合、以下のコマンドを実行してください。
この場合/dev/video0
を指定していますが、ご利用の環境によってはパスがちがう可能性があります。
docker run --rm -it \
--gpus all \
-e DISPLAY=$DISPLAY \
--device /dev/video0:/dev/video0:mwr \
-v /tmp/.X11-unix/:/tmp/.X11-unix: <image id>
もしデバイスパスがちがう場合は以下を試してください。
ls /dev/video*
絶対に忘れてはいけないポイント
Python仮想環境をアクティベート
Python仮想環境を起動してください。
# Activate venv (IMPORTANT!)
. bin/activate
Python仮想環境のアクティベートを忘れないようにしましょう。
例:
# Docker imageを確認する
user@user:~/bin/FACE01_DEV/assets$ docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
tokaikaoninsho/face01_no_gpu 3.0.03_3 87c09dec0a45 4 days ago 13.4GB
tokaikaoninsho/face01_gpu 3.0.03_3 ce2952ad62d6 4 days ago 22.3GB
tokaikaoninsho/face01_no_gpu 3.0.03_2 6f03f200582d 5 days ago 13.2GB
tokaikaoninsho/face01_gpu 3.0.03_2 c4203ae49bec 6 days ago 22.1GB
face01_gpu 3.0.03_1 abd4c0896c00 7 days ago 21.9GB
tokaikaoninsho/face01_gpu 3.0.03_1 abd4c0896c00 7 days ago 21.9GB
# xhostにlocalを加える
user@user:~/bin/FACE01_DEV/assets$ xhost +local:
non-network local connections being added to access control list
# localが加わっているか確認
user@user:~/bin/FACE01_DEV/assets$ xhost
access control enabled, only authorized clients can connect
LOCAL:
SI:localuser:user
# コンテナをGUIモードで起動
user@user:~/bin/FACE01_DEV/assets$ docker run --rm -it \
--gpus all -e DISPLAY=$DISPLAY \
-v /tmp/.X11-unix:/tmp/.X11-unix ce2952ad62d6
==========
== CUDA ==
==========
CUDA Version 11.6.1
Container image Copyright (c) 2016-2023, NVIDIA CORPORATION & AFFILIATES. All rights reserved.
This container image and its contents are governed by the NVIDIA Deep Learning Container License.
By pulling and using the container, you accept the user and conditions of this license:
https://developer.nvidia.com/ngc/nvidia-deep-learning-container-license
A copy of this license is made available in this container at /NGC-DL-CONTAINER-LICENSE for your convenience.
*************************
** DEPRECATION NOTICE! **
*************************
THIS IMAGE IS DEPRECATED and is scheduled for DELETION.
https://gitlab.com/nvidia/container-images/cuda/blob/master/doc/support-policy.md
# Python仮想環境をアクティベートする
docker@bb030de27861:~/FACE01_DEV$ . bin/activate
# 試しにエグザンプルコードを使ってみる
(FACE01_DEV) docker@bb030de27861:~/FACE01_DEV$ python example/simple.py
# config.iniファイルをgeditで開き、編集する
(FACE01_DEV) docker@bb030de27861:~/FACE01_DEV$ gedit config.ini
# GUIウィンドウを作成するエグザンプルコードを使ってみる
(FACE01_DEV) docker@bb030de27861:~/FACE01_DEV$ python example/display_GUI_window.py
xhost
使い終わったらxhost
からlocal
を削除しましょう
xhost -local:
トラブルシューティング
Dockerコンテナを機動したがエグザンプルコードが動かない
プルしたイメージが最新か確認してください
Python仮想環境を起動したか確認してください
xhost
のlocal
を追加したか確認してください
エグザンプルコードは起動したが処理がおそすぎる
Nvidia GPUを搭載したPCかどうかを確認してください
コンテナとホストのCUDAドライバを確認してください
ホストのCUDAドライバのバージョンによってはコンテナ内のCUDAドライババージョンをサポートしていない場合があります。
config.ini
のuse_pipe
をFalse
に設定してください。
ごく稀に、ホストOSとDocker内のCUDAドライバの相性問題が発生することがあります。
そんなときはlibcudart.so.11.0などが見つからないエラーが出力されるを参照してください。
その他
こちらのトラブルシューティングも参考にしてください。
それでも解決しない時
Issueに投稿してください