読者です 読者をやめる 読者になる 読者になる

プログラミングとかLinuxとかの備忘録

プログラミング、Linuxでハマった箇所や環境構築のメモ

Ubuntu16.04でのbondingとWake on Lanの設定

NIC冗長化

設定前

eno1の方のIPを固定してそっちを使ってる

$ sudo nmcli device
DEVICE   TYPE      STATE         CONNECTION
eno1     ethernet  connected     eno1
enp14s0  ethernet  disconnected  --
lo       loopback  unmanaged     --

設定

bondingデバイスの作成

$ sudo nmcli connection add type bond con-name bond0 ifname bond0 mode active-backup
Connection 'bond0' (d1619bdf-38b7-4f20-8a0d-fa9f419951ad) successfully added.

$ nmcli connection show
NAME                UUID                                  TYPE            DEVICE
eno1   bcd81468-59c2-401e-bfb8-33b23c2b7d57  802-3-ethernet  eno1
bond0  d1619bdf-38b7-4f20-8a0d-fa9f419951ad  bond            --

enp14s0をスレーブに追加する

$ sudo nmcli connection add type bond-slave ifname enp14s0 master bond0
Connection 'bond-slave-enp14s0' (3405d7d6-6e5a-4f8f-82c9-f4c386feae85) successfully added.

$ nmcli connection show
NAME                UUID                                  TYPE            DEVICE
eno1                bcd81468-59c2-401e-bfb8-33b23c2b7d57  802-3-ethernet  eno1
bond-slave-enp14s0  3405d7d6-6e5a-4f8f-82c9-f4c386feae85  802-3-ethernet  --
bond0               d1619bdf-38b7-4f20-8a0d-fa9f419951ad  bond            --

bond0の設定

$ sudo nmcli connection modify bond0 ipv4.addresses 192.168.1.12/24
$ sudo nmcli connection modify bond0 ipv4.method manual
$ sudo nmcli connection modify bond0 ipv4.gateway 192.168.1.1
$ sudo nmcli connection modify bond0 ipv4.dns 192.168.1.1

enp14s0だけをつないだbond0を起動する

$ sudo nmcli connection modify bond-slave-enp14s0 connection.autoconnect yes
$ sudo nmcli connection modify bond0 connection.autoconnect yes
$ sudo nmcli connection up bond0

これで,bond0を使ってSSH等で接続できるようになったのでeno1も追加する

$ sudo nmcli connection delete eno1
$ sudo nmcli connection add type bond-slave ifname eno1 master bond0
$ sudo nmcli connection modify bond-slave-eno1 connection.autoconnect yes

$ sudo nmcli connection down bond0 && sudo nmcli connection up bond0

接続状態を確認する

$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eno1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eno1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 38:d5:47:c7:c0:ad
Slave queue ID: 0

Slave Interface: enp14s0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 38:d5:47:c7:c0:ae
Slave queue ID: 0

Wake on Lan

Wake on Lanは実デバイス(eno1enp14s0)で有効になっている必要がある
以下のように1 (default)となっていれば何も設定する必要はない

$ nmcli -f "802-3-ethernet.wake-on-lan" con show bond-slave-eno1
802-3-ethernet.wake-on-lan:             1 (default)

MACアドレスを調べる

$ nmcli -f "GENERAL.HWADDR" device show eno1
GENERAL.HWADDR:                         38:D5:47:C7:C0:AD

enp14s0で調べても同じMACアドレスが表示された. 本当は38:d5:47:c7:c0:aeのはずなので,bodingしていることと関係がある?

$ nmcli -f "GENERAL.HWADDR" device show enp14s0
GENERAL.HWADDR:                         38:D5:47:C7:C0:AD

とりあえずeno1Wake on Lanができれば良いことにしておく

これで,クライアントから以下のコマンドを実行すれば起動できる

$ sudo ether-wake -i eno1 38:D5:47:C7:C0:AD

もし起動できない場合はUEFIWake by PCIeみたいな項目をEnableにする

Ryzen5 1600にArch Linuxをインストールする

構成

項目 型番
CPU AMD Ryzen5 1600
M/B MSI TOMAHAWK B350
RAM SanMax SMD4-U8GM-24R-D
サウンド Onkyo SE200PCI

Install

インストールガイド - ArchWikiに全部書いてあるので,コマンドのみ

$ ls /sys/firmware/efi/efivars
$ loadkeys jp106

...
$ parted /dev/sda
(parted)$ mklabel gpt
(parted)$ mkpart ESP fat32 1MiB 513MiB
(parted)$ set 1 boot on
(parted)$ mkpart primary xfs 513MiB 100%
(parted)$ print
Number Start  End   Size  File system Name Flags
 1     1049kB 538MB 537MB fat32            boot, esp
 2     538MB  120GB 119GB xfs
(parted)$ quit

$ mkfs.fat -F32 /dev/sda1
$ mkfs.xfs /dev/sda2

$ mount /dev/sda2 /mnt
$ mkdir /mnt/boot
$ mount /dev/sda1 /mnt/boot

$ ping archlinuxjp.org
...ok

$ timedatectl set-ntp true

$ vim /etc/pacman.d/mirrorlist
## Japan
http://ftp.tsukuba.wide.ad.jp/Linux/archlinux/$repo/os/$arch
http://ftp.jaist.ac.jp/pub/Linux/ArchLinux/$repo/os/$arch
$ pacstrap /mnt base base-devel

$ genfstab -U /mnt >> /mnt/etc/fstab
$ arch-chroot /mnt
$ ln -sf /usr/share/zoneinfo/Asia/Tokyo /etc/localtime
$ hwclock --systohc --utc

$ pacman -S vim

$ vim /etc/locale.gen
en_US.UTF-8 UTF-8
ja_JP.UTF-8 UTF-8
$ locale-gen
Generating locales...
  en_US.UTF-8... done
    ja_JP.UTF-8... done
Generation complete.
$ echo LANG=en_US.UTF-8 > /etc/locale.conf
$ echo KEYMAP=jp106 > /etc/vconsole.conf
$ echo ホスト名 > /etc/hostname
$ vim /etc/hosts
127.0.1.1   ホスト名.localdomain    ホスト名

$ mkinitcpio -p linux
$ passwd

$ ls /sys/firmware/efi/efivars
...
$ bootctl --path=/boot Install
$ vim /boot/loader/loader.conf
default arch
timeout 3
editor 0

$ blkid -s PARTUUID -o value /dev/sda2
UUID文字列
$ vim /boot/loader/entries/arch.conf
title   Arch Linux
linux   /vmlinuz-linux
initrd  /initramfs-linux.img
options root=PARTUUID=UUID文字列 rw

$ exit
$ umount -R /mnt
$ reboot

初期設定

ユーザ追加・sudo有効化

$ useradd ユーザ名
$ gpasswd -a ユーザ名 wheel
$ passwd ユーザ名

$ pacman -S sudo
$ EDITOR=vim visudo
%wheel ALL=(ALL) ALL    # コメント解除する

これ以降はユーザ権限で設定を行う

DHCP有効化

デフォルトで起動しているものと思っていたが,起動していなかったので

$ sudo systemctl start dhcpcd

yaourt

$ sudo vim /etc/pacman.conf
[archlinuxfr]
SigLevel = Never
Server = http://repo.archlinux.fr/$arch

$ sudo pacman --sync --refresh yaourt

Xorg

あたりを参考に

$ pacman -S xorg-server xorg-server-utils xorg-xinit xorg-xclock xterm

$ lspci | grep -e VGA -e 3D
25:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Cape Verde PRO [Radeon HD 7750/8740 / R7 250E]
$ sudo pacman -S xf86-video-amdgpu

グラフィックドライバをロードするために,再起動する

$ reboot

Xfce

Xfce - ArchWiki

$ sudo pacman -S xfce4 xfce4-goodies gamin

$ vim ~/.xinitrc
#!/bin/bash
exec startxfce4

キーボードレイアウトの設定

Xorg でのキーボード設定 - ArchWiki

$ sudo vim /etc/X11/xorg.conf.d/00-keyboard.conf
Section "InputClass"
    Identifier "system-keyboard"
    MatchIsKeyboard "on"
    Option "XkbLayout" "jp,us"
    Option "XkbModel" "pc106"
    Option "XkbVariant" ",dvorak"
    Option "XkbOptions" "grp:alt_shift_toggle"
EndSection

$ sudo reboot

日本語入力

xprofile - ArchWiki

$ sudo pacman -S fcitx-mozc fcitx-im fcitx-configtool

$ vim ~/.xprofile
export GTK_IM_MODULE=fcitx
export QT_IM_MODULE=fcitx
export XMODIFIERS=”@im=fcitx”

$ vim ~/.xinitrc
[ -f /etc/xprofile ] && . /etc/xprofile
[ -f ~/.xprofile ] && . ~/.xprofile
fcitx-autostart &

$ sudo reboot

ALSAの設定

alsa-utilsのインストール

$ sudo pacman -S alsa-utils

バイスの確認

サウンドボード(ice1724)から音を鳴らしたい

$ alsamixer
カード: ONKYO SE200PCI                      F1:  ヘルプ
チップ: ICE1724 - multitrack                F2:  システム情報
  表示: F3:[再生] F4: 録音  F5: 全て        F6:  サウンドカード選択
  項目: Front [dBゲイン: -18.00, -18.00]    Esc: 終了

ロードされているモジュールを確認する

$ cat /proc/asound/modules
0 snd_hda_intel
1 snd_hda_intel
2 snd_ice1724

おそらく

  1. オンボード
  2. HDMI
  3. サウンドボード

snd_ice1724をデフォルト(0)のデバイスに設定する

UEFIオンボードを無効化(Disable)し、以下のファイルで読み込み順を指定する

$ sudo vim /etc/modprobe.d/alsa-base.conf
options snd slots=snd_ice1724,snd_hda_intel
options snd_ice1724 index=0
options snd_hda_intel index=1

再起動後,

$ cat /proc/asound/modules
0 snd_ice1724
1 snd_hda_intel

となり,無事に再生できた.

一応,失敗した設定例も下に乗せておく.

失敗1:snd_ice1724をデフォルト(0)に固定する

オンボードを有効にした状態

$ cat /proc/asound/modules
0 snd_hda_intel
1 snd_hda_intel
2 snd_ice1724

では,snd_hda_intelが2つ存在し,

$ sudo vim /etc/modprobe.d/alsa-base.conf
options snd slots=snd_ice1724,snd_hda_intel
options snd_ice1724 index=0
options snd_hda_intel index=1

$ sudo vim /etc/modprobe.d/alsa-base.conf
options snd slots=snd_ice1724,snd_hda_intel,snd_hda_intel
options snd_ice1724 index=0
options snd_hda_intel index=1
options snd_hda_intel index=2

等を設定してもsnd_ice1724がデフォルトにならなかった

失敗2:環境変数を使ってデフォルトPCMを選択する

Select the default PCM via environment variable - ArchWikiの通りに設定するとice1724から音が出るようになったが複数同時再生(Firefox+SMPlayer)ができなかった

$ sudo vim /etc/asound.conf
pcm.!default {
    type plug
    slave.pcm {
        @func getenv
        vars [ ALSAPCM ]
        default "hw:2,0"
    }
}

ここで,hw:2,0

$ aplay -l
カード 2: SE200PCI [ONKYO SE200PCI], デバイス 0: ICE1724 [ICE1724]
  サブデバイス: 0/1
  サブデバイス #0: subdevice #0

でしらべた

失敗3:~/.asoundrcでデバイスを指定する

Alternative method - ArchWiki の通りに設定した場合も同時再生ができなかった

この設定では,はじめに音声再生を始めたソフトがハードウェアがデバイスを専有してしまうため同時再生できないらしい.

$ vim ~/.asoundrc
pcm.!default {
    type hw
    card 2
}

ctl.!default {
    type hw
    card 2
}

renameコマンドでファイルをリネームする

Ubunturenameコマンドが正規表現を使ってファイルをリネームするとは違っていたのでメモ

vild.hatenablog.com

使い方

$ rename <expression> <replacement> <file>...

なので

拡張子変更

$ ls
aaa.sh  abc.sh  sh_script.txt

$ rename .sh .txt *.sh
$ ls
aaa.txt  abc.txt  sh_script.txt

最初の1つしか置換されないので注意が必要

$ ls
aaa.sh.sh

$ rename .sh .txt aaa.sh.sh

$ ls
aaa.txt.sh

文字列の削除

空の文字列('')で置換する

$ ls
aaa_bak.sh

$ rename _bak '' aaa_bak.sh

$ ls
aaa.sh

prefixの追加

正規表現が使えないのでファイル名にprefixを追加したい場合はlsを用いて

$ ls
aaa.sh  aaa_sh.txt
$ ls /path/to/dir/*
/path/to/dir/aaa.sh  /path/to/dir/aaa_sh.txt

$ rename /path/to/dir/ /path/to/dir/prefix_ $(ls /path/to/dir/*)

$ ls /path/to/dir/
/path/to/dir/prefix_aaa.sh  /path/to/dir/prefix_aaa_sh.txt

するしかない??

Ubuntu16.04にTheanoをインストールする

Ubuntu16.04でのDeepLearning用環境構築
で構築した環境にTheanoをPython3用に追加する

インストール

$ python3 --version
Python 3.5.2

$ sudo apt-get -y install \
    python3-dev \
    libopenblas-dev

$ pip3 install --user --upgrade pip
$ pip3 install --user numpy scipy nose sphinx pydot-ng
$ pip3 install --user theano

確認

ubuntu14.04 theanoとかgpgpu環境構築メモ - 備忘録とか日常とか
check.pyをpython3用に書き換えて実行する

変更点

  • print => print()
  • xrange => range
$ THEANO_FLAGS=floatX=float32,device=gpu python3 ~/check.py
...
Used the gpu

続 GPGPU用マシンにCUDAをインストール - まんぼう日記
も実行してみる

$ THEANO_FLAGS=floatX=float32,device=gpu python3 ~/.local/lib/python3.5/site-packages/theano/misc/check_blas.py
...
We executed 10 calls to gemm with a and b matrices of shapes (5000, 5000) and (5000, 5000).
Total execution time: 0.39s on GPU.

まとめ

動いた!!


References

gvfs-trashのCPU使用率が異常に高い

CPU使用率が常に100%付近に張り付いていたのでtopしてみるとgvfs-trashCPU使用率が95~100%をうろうろしていた

gvfsd-trash and Nautilus causing 100% cpu usage, unusable system
を参考にして、下のコマンドを実行してみても効果が無かった
(xfceなので~/.gconf等は無かった)

$ rm -rf ~/.gnome
$ sudo reboot

NAS上の大量のログファイルをファイルマネージャで削除していたのを思い出し

$ rm -rf /path/to/share/.Trash-1000
$ sudo reboot

すると高負荷にはならなくなった

Ubuntu16.04でのDeepLearning用環境構築

Ubuntuのインストール前に,SecureBootを無効にしておいた方が良いかもしれない
本記事では,途中で気づいたのでその時に無効にした

構成

ハードウェア

  • CPU: i7-6850K
  • M/B: ASUS X99-E WS
  • GPU: ELSA GD1080-8GERXG *2

ソフトウェア

  • Ubuntu 16.04 LTS
  • CUDA 8.0
  • cuDNN 5.1
  • TensorFlow 0.12.1
  • Caffe 1.0.0-rc4
  • Chainer 1.21.0 (たぶん)

初期設定

ネットワーク

$ sudo apt-get -y install resolvconf

$ sudo nmcli con mod eno1 ipv4.method manual
$ sudo nmcli con mod eno1 ipv4.address 192.168.1.23/24
$ sudo nmcli con mod eno1 ipv4.dns 192.168.1.1
$ sudo nmcli con mod eno1 ipv4.gateway 192.168.1.1

$ sudo nmcli con down eno1 && sudo nmcli con up eno1

アップデート

$ sudo apt-get update
$ sudo apt-get -y upgrade
$ sudo apt-get -y dist-upgrade

OpenSSHのインストール

$ sudo apt-get -y install openssh-server

$ sudo systemctl start sshd
$ sudo systemctl enable sshd

CUDA

確認

以下のコマンドで,何も出てこないことを確認する

$ sudo dpkg -l | grep nvidia
$ sudo dpkg -l | grep cuda

Nvidiaドライバのインストール

リポジトリ(Proprietary GPU Drivers : “Graphics Drivers” team)
を登録して,ドライバをインストールする
途中で,secure bootを無効にするかを聞かれたが,無効にせずに続行した

$ sudo add-apt-repository ppa:graphics-drivers/ppa
$ sudo apt-get update

$ sudo apt-get -y install nvidia-370

再起動し,GPUが認識されているかを確認すると下のメッセージが表示され,GPUが認識されなかった

$ sudo reboot

$ nvidia-smi
NVIDIA-SMI has failed because it couldn\'t communicate with the NVIDIA driver

BIOSでSecure Bootを無効化(Boot->Secure Bootで,OS TypeOther OSに変更)すると認識できるようになった

$ nvidia-smi
Mon Jan 16 17:24:34 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 370.28                 Driver Version: 370.28                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1080    Off  | 0000:05:00.0      On |                  N/A |
| 43%   37C    P8     9W / 220W |     52MiB /  8110MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  GeForce GTX 1080    Off  | 0000:06:00.0     Off |                  N/A |
| 43%   32C    P8     8W / 220W |      1MiB /  8113MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|    0      1176    G   /usr/lib/xorg/Xorg                              50MiB |
+-----------------------------------------------------------------------------+

CUDA本体のインストール

CUDA 8.0 Downloads | NVIDIA DeveloperLinux -> x86_64 -> Ubuntu -> 16.04 -> runfile(local)の順に進み,Downloadからダウンロードし,指示通りにインストールする

debパッケージを使用すると,下のエラーが出たのでrunfileを使用することにしている

$ sudo apt-get update (省略) W: Invalid 'Date' entry in Release file /var/lib/apt/lists/partial/developer.download.nvidia.com_compute_cuda_repos_ubuntu1604_x86%5f64_Release

$ chmod u+x cuda_8.0.44_linux-run
$ sudo ./cuda_8.0.44_linux-run

Do you accept the previously read EULA?
accept/decline/quit: accept

Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 367.48?
(y)es/(n)o/(q)uit: n

Install the CUDA 8.0 Toolkit?
(y)es/(n)o/(q)uit: y

Enter Toolkit Location
 [ default is /usr/local/cuda-8.0 ]:

Do you want to install a symbolic link at /usr/local/cuda?
(y)es/(n)o/(q)uit: y

Install the CUDA 8.0 Samples?
(y)es/(n)o/(q)uit: y

Enter CUDA Samples Location
 [ default is "ホームディレクトリ" ]:

***WARNING: Incomplete installation! This installation did not install the CUDA Driver. A driver of version at least 361.00 is required for CUDA 8.0 functionality to work.
To install the driver using this installer, run the following command, replacing <CudaInstaller> with the name of this run file:
    sudo <CudaInstaller>.run -silent -driver

Logfile is /tmp/cuda_install_1804.log

メッセージ通りに,以下のコマンドでインストールする

$ sudo ./cuda_8.0.44_linux-run -silent -driver
$ sudo reboot

パスを通す

$ echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
$ echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc

$ source ~/.bashrc
$ sudo ldconfig

$ which nvcc

インストールの確認

ホームディレクトリにインストールしたサンプルコードを実行する

$ sudo apt-get install mesa-common-dev freeglut3-dev

$ cd NVIDIA_CUDA-8.0_Samples/5_Simulations/nbody
$ make

$ ./nbody -benchmark -numbodies=256000 -device=0
Run "nbody -benchmark [-numbodies=<numBodies>]" to measure performance.
        -fullscreen       (run n-body simulation in fullscreen mode)
        -fp64             (use double precision floating point values for simulation)
        -hostmem          (stores simulation data in host memory)
        -benchmark        (run benchmark to measure performance)
        -numbodies=<N>    (number of bodies (>= 1) to run in simulation)
        -device=<d>       (where d=0,1,2.... for the CUDA device to use)
        -numdevices=<i>   (where i=(number of CUDA devices > 0) to use for simulation)
        -compare          (compares simulation results running once on the default GPU and once on the CPU)
        -cpu              (run n-body simulation on the CPU)
        -tipsy=<file.bin> (load a tipsy model file for simulation)

NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.

> Windowed mode
> Simulation data stored in video memory
> Single precision floating point simulation
> 1 Devices used for simulation
gpuDeviceInit() CUDA Device [0]: "GeForce GTX 1080
> Compute 6.1 CUDA device: [GeForce GTX 1080]
number of bodies = 256000
256000 bodies, total time for 10 iterations: 2365.614 ms
= 277.036 billion interactions per second
= 5540.718 single-precision GFLOP/s at 20 flops per interaction

Python

インストールの確認のためにPythonの環境を構築しておく

$ python --version
Python 2.7.12

$ sudo apt-get -y install python-pip python-dev

cuDNN

NVIDIA cuDNN | NVIDIA DeveloperからcuDNN v5.1 (Jan 20, 2017), for CUDA 8.0cuDNN v5.1 Library for Linuxをダウンロードする(要登録)

$ tar xf cudnn-8.0-linux-x64-v5.1.tgz
$ sudo mv cuda/include/cudnn.h /usr/local/cuda/include
$ sudo mv cuda/lib64/libcudnn* /usr/local/cuda/lib64/

TensorFlow

Bazelのインストール

Installing Bazel - Bazelを参考にインストールを行う.

$ sudo apt-get -y install openjdk-8-jdk
$ echo "deb [arch=amd64] http://storage.googleapis.com/bazel-apt stable jdk1.8" | sudo tee /etc/apt/sources.list.d/bazel.list
$ curl https://bazel.build/bazel-release.pub.gpg | sudo apt-key add -

$ sudo apt-get update
$ sudo apt-get -y install bazel

TensorFlow本体のインストール

cuDNNのバージョンを確認しておく.今回は5.1.5

$ ls /usr/local/cuda/lib64/ | grep libcudnn
libcudnn.so
libcudnn.so.5
libcudnn.so.5.1.5
libcudnn_static.a

./configureのところでcuDNNのバージョンに5.1とかを入れると,下のエラーがでたので気をつける Invalid path to cuDNN toolkit. Neither of the following two files can be found: /usr/local/cuda-8.0/lib64/libcudnn.so.5.0 /usr/local/cuda-8.0/libcudnn.so.5.0 .5.0

$ sudo apt-get -y install python-numpy

$ git clone https://github.com/tensorflow/tensorflow
$ sudo mv tensorflow /usr/local/src/

$ cd /usr/local/src/tensorflow

./configureする

$ ./configure
Please specify the location of python. [Default is /usr/bin/python]:
Please specify optimization flags to use during compilation [Default is -march=native]:
Do you wish to use jemalloc as the malloc implementation? [Y/n]
jemalloc enabled
Do you wish to build TensorFlow with Google Cloud Platform support? [y/N]
No Google Cloud Platform support will be enabled for TensorFlow
Do you wish to build TensorFlow with Hadoop File System support? [y/N]
No Hadoop File System support will be enabled for TensorFlow
Do you wish to build TensorFlow with the XLA just-in-time compiler (experimental)? [y/N]
No XLA support will be enabled for TensorFlow
Found possible Python library paths:
  /usr/local/lib/python2.7/dist-packages
  /usr/lib/python2.7/dist-packages
Please input the desired Python library path to use.  Default is [/usr/local/lib/python2.7/dist-packages]

Using python library path: /usr/local/lib/python2.7/dist-packages
Do you wish to build TensorFlow with OpenCL support? [y/N]
No OpenCL support will be enabled for TensorFlow

CUDAサポートはyにする

Do you wish to build TensorFlow with CUDA support? [y/N] y
CUDA support will be enabled for TensorFlow
Please specify which gcc should be used by nvcc as the host compiler. [Default is /usr/bin/gcc]:

CUDAのバージョンを指定

Please specify the CUDA SDK version you want to use, e.g. 7.0. [Leave empty to use system default]: 8.0
Please specify the location where CUDA  toolkit is installed. Refer to README.md for more details. [Default is /usr/local/cuda]:

cuDNNのバージョンを指定

Please specify the Cudnn version you want to use. [Leave empty to use system default]: 5.1.5
Please specify the location where cuDNN 5.1.5 library is installed. Refer to README.md for more details. [Default is /usr/local/cuda]:
Please specify a list of comma-separated Cuda compute capabilities you want to build with.
You can find the compute capability of your device at: https://developer.nvidia.com/cuda-gpus.
Please note that each additional compute capability significantly increases your build time and binary size.

GTX 1018を使用するので6.1を指定

[Default is: "3.5,5.2"]: 6.1
INFO: Starting clean (this may take a while). Consider using --expunge_async if the clean takes more than several minutes.
.......
INFO: All external dependencies fetched successfully.
Configuration finished

ビルド

$ bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package

$ bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg
$ sudo pip install /tmp/tensorflow_pkg/tensorflow-0.12.1-cp27-cp27mu-linux_x86_64.whl

テストコードを動かしてみる

チュートリアル(Deep MNIST for Experts  |  TensorFlow) のコードがTensorFlowを遊び倒す! 2-1. MNIST For Experts - Platinum Data Blog by BrainPad にいい感じでまとまっているので,これを実行する.

そのままだとエラーが出たので

  1. 4行目をimport input_dataからfrom tensorflow.examples.tutorials.mnist import input_dataに変更する
  2. strides...の後のコメント直前に紛れ込んでいる全角スペースを消す
    return tf.nn.max_pool(x,
                          ksize=[1, 2, 2, 1],
                          strides=[1, 2, 2, 1], # 真ん中2つが縦横のストライド
                          padding='SAME')

テストコードを実行

$ time python test_mnist.py
2017-01-31 15:54:53: I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcublas.so.8.0 locally
2017-01-31 15:54:53: I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcudnn.so.5 locally
2017-01-31 15:54:53: I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcufft.so.8.0 locally
2017-01-31 15:54:53: I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcuda.so.1 locally
2017-01-31 15:54:53: I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcurand.so.8.0 locally
Successfully downloaded train-images-idx3-ubyte.gz 9912422 bytes.
Extracting MNIST_data/train-images-idx3-ubyte.gz
Successfully downloaded train-labels-idx1-ubyte.gz 28881 bytes.
Extracting MNIST_data/train-labels-idx1-ubyte.gz
Successfully downloaded t10k-images-idx3-ubyte.gz 1648877 bytes.
Extracting MNIST_data/t10k-images-idx3-ubyte.gz
Successfully downloaded t10k-labels-idx1-ubyte.gz 4542 bytes.
Extracting MNIST_data/t10k-labels-idx1-ubyte.gz
2017-01-31 15:55:05: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.2 instructions, but these are available on your machine and could speed up CPU computations.
2017-01-31 15:55:05: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use AVX instructions, but these are available on your machine and could speed up CPU computations.
2017-01-31 15:55:05: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use AVX2 instructions, but these are available on your machine and could speed up CPU computations.
2017-01-31 15:55:05: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use FMA instructions, but these are available on your machine and could speed up CPU computations.
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:885] Found device 0 with properties:
name: GeForce GTX 1080
major: 6 minor: 1 memoryClockRate (GHz) 1.7335
pciBusID 0000:06:00.0
Total memory: 7.92GiB
Free memory: 7.81GiB
2017-01-31 15:55:07: W tensorflow/stream_executor/cuda/cuda_driver.cc:590] creating context when one is currently active; existing: 0x3f8d150
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:885] Found device 1 with properties:
name: GeForce GTX 1080
major: 6 minor: 1 memoryClockRate (GHz) 1.7335
pciBusID 0000:05:00.0
Total memory: 7.92GiB
Free memory: 7.81GiB
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:906] DMA: 0 1
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:916] 0:   Y Y
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:916] 1:   Y Y
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:975] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1080, pci bus id: 0000:06:00.0)
2017-01-31 15:55:07: I tensorflow/core/common_runtime/gpu/gpu_device.cc:975] Creating TensorFlow device (/gpu:1) -> (device: 1, name: GeForce GTX 1080, pci bus id: 0000:05:00.0)

(省略)

step 19700, training accuracy 1
step 19800, training accuracy 1
step 19900, training accuracy 1
2017-01-31 16:07:51: W tensorflow/core/common_runtime/bfc_allocator.cc:217] Ran out of memory trying to allocate 3.90GiB. The caller indicates that this is not a failure, but may mean that there could be performance gains if more memory is available.
test accuracy 0.9933

real    1m52.055s
user    2m30.684s
sys     0m34.948s

一応GPUを使って動いてそう.

Caffe

Caffe | Installation: Ubuntuに書いている通りに依存関係をインストールする

$ sudo apt-get -y install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
$ sudo apt-get -y install --no-install-recommends libboost-all-dev

$ sudo apt-get -y install libatlas-base-dev libopenblas-dev

その他必要なものをインストール

$ sudo apt-get -y install cmake
$ sudo apt-get -y install liblmdb-dev libgflags-dev libgoogle-glog-dev doxygen
$ sudo apt-get -y install python-skimage

Caffe | Installationの通りにビルドする

$ git clone https://github.com/BVLC/caffe
$ sudo mv caffe /usr/local/src/

$ cd /usr/local/src/caffe
$ mkdir build
$ cd build
$ cmake ..
$ make all -j$(nproc)
$ make pycaffe -j$(nproc)
$ make install

テスト

$ make runtest
$ make pytest

テストコードを動かしてみる

Caffe | LeNet MNIST Tutorialの通りに実行する

$ cd /usr/local/src/caffe
$ ./data/mnist/get_mnist.sh
$ ./examples/mnist/create_mnist.sh

学習用のスクリプトを動かす

$ ./examples/mnist/train_lenet.sh

学習中にnvidia-smiしてみるとGPUが使用されていることがわかる

$ nvidia-smi
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 370.28                 Driver Version: 370.28                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1080    Off  | 0000:05:00.0     Off |                  N/A |
| 43%   42C    P2    36W / 220W |      2MiB /  8111MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  GeForce GTX 1080    Off  | 0000:06:00.0     Off |                  N/A |
| 43%   45C    P2    99W / 220W |    245MiB /  8113MiB |     72%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|    1      1320    C   ./build/tools/caffe                            243MiB |
+-----------------------------------------------------------------------------+

インストール

よくわからなかったので,とりあえずシンボリックリンクを貼ってパスを通しておく

$ sudo ln -s /usr/local/src/caffe/build/install /usr/local/caffe

~/.bashrcでパスを通す

$ vim ~/.bashrc
export PATH='/usr/local/caffe/bin:$PATH'
export LD_LIBRARY_PATH='/usr/local/caffe/lib:$LD_LIBRARY_PATH'
export PYTHONPATH="/usr/local/caffe/python:$PYTHONPATH"

Chainer

依存関係のインストール

$ sudo apt-get install libhdf5-dev python-5py

ダウンロード

$ git clone https://github.com/pfnet/chainer.git
$ sudo mv chainer /usr/local/src/

ビルド

README.mdを参考に,以下の作業を行う

cuDNNを参照できるように~/.bashrcに追加する

$ export CFLAGS=-I/usr/local/cuda/include
$ export LDFLAGS=-L/usr/local/cuda/lib64
$ export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH

依存関係をインストール

$ sudo pip install cython pillow h5py

chainer本体をインストール

$ cd /usr/local/src/chainer
$ sudo CUDA_PATH=/usr/local/cuda pip install -e .

確認

$ python
>>> import chainer
>>>

サンプルを動かす

$ python /usr/local/src/chainer/examples/mnist/train_mnist.py --gpu 0
GPU: 0
# unit: 1000
# Minibatch-size: 100
# epoch: 20

Downloading from http://yann.lecun.com/exdb/mnist/train-images-idx3-ubyte.gz...
Downloading from http://yann.lecun.com/exdb/mnist/train-labels-idx1-ubyte.gz...
Downloading from http://yann.lecun.com/exdb/mnist/t10k-images-idx3-ubyte.gz...
Downloading from http://yann.lecun.com/exdb/mnist/t10k-labels-idx1-ubyte.gz...
epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.190653    0.0928411             0.9429         0.97                      12.4203
2           0.0732004   0.0702411             0.9773         0.9784                    14.8764
3           0.0492653   0.0659305             0.984616       0.9805                    17.2205
4           0.0347082   0.0761442             0.988432       0.98                      19.5639
5           0.0270766   0.0734653             0.991231       0.9775                    21.9413
6           0.0251563   0.072476              0.991882       0.9805                    24.2833
7           0.0199481   0.0731711             0.993382       0.9806                    26.6206
8           0.0196817   0.10124               0.993565       0.9754                    28.953
9           0.0164322   0.0876729             0.994548       0.9809                    31.2958
10          0.0154422   0.122923              0.995282       0.9742                    33.6844
11          0.0168969   0.110708              0.994832       0.9767                    36.0464
12          0.0107279   0.0856068             0.996665       0.9813                    38.3777
13          0.0117293   0.0990945             0.996215       0.9795                    40.7093
14          0.00978297  0.120509              0.996566       0.9777                    43.0557
15          0.0117472   0.107208              0.996866       0.9789                    45.4293
16          0.0113395   0.0992631             0.996682       0.981                     47.7726
17          0.00929236  0.0937098             0.997383       0.9828                    50.1157
18          0.0103718   0.104585              0.997149       0.9796                    52.4636
19          0.00638133  0.0990586             0.997999       0.981                     54.8122
20          0.00843088  0.105776              0.997666       0.9823                    57.1418

を実行中にnvidia-smiで確認する

$ nvidia-smi
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 370.28                 Driver Version: 370.28                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1080    Off  | 0000:05:00.0     Off |                  N/A |
| 43%   42C    P0    45W / 220W |      2MiB /  8111MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  GeForce GTX 1080    Off  | 0000:06:00.0     Off |                  N/A |
| 43%   36C    P2    41W / 220W |    117MiB /  8113MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|    1      3023    C   python                                         115MiB |
+-----------------------------------------------------------------------------+

最後に

とりあえず,インストールとサンプルの実行はできた


References

debian jessieにsyncthingをインストールする

debian jessie (CUI)にsyncthingをインストールし,syncthingサーバ的に使う

リポジトリの追加

https://apt.syncthing.net/
を参考にリポジトリを追加し,パッケージをインストールする

$ curl -s https://syncthing.net/release-key.txt | sudo apt-key add -
$ echo "deb https://apt.syncthing.net/ syncthing stable" | sudo tee /etc/apt/sources.list.d/syncthing.list

$ sudo aptitude update
$ sudo aptitude -y install syncthing syncthing-inotify

メソッドドライバ/usr/lib/apt/methods/httpsが見つかりません

と言われる場合,下のパッケージを追加してhttpsを使用できるようにする

$ sudo aptitude -y install apt-transport-https

初期設定

syncthingを使用するユーザ権限で起動する

$ syncthing
(省略)
[V37P3] 12:53:37 INFO: Detected 0 NAT devices
[V37P3] 12:53:48 INFO: Joined relay relay://111.221.44.148:17607

Ctrl+Cで停止し,生成された設定ファイル~/.config/syncthing/config.xmlを編集する

外部からWebUIにアクセスする

26行目あたりのにある
>address<127.0.0.1:8384>/address<をサーバのIPに変更する

ファイアウォールを使用している場合は,ポートを開放する

$ sudo firewall-cmd --add-port=8384/tcp --zone=public --permanent

systemdを使用して実行する

Starting Syncthing Automatically — Syncthing v0.14 documentation
を参考に設定する

ユーザ名がhogeの場合

$ curl -o syncthing@.service https://raw.githubusercontent.com/syncthing/syncthing/master/etc/linux-systemd/system/syncthing%40.service
$ mv syncthing@.service /etc/systemd/system/syncthing@hoge.service

$ systemctl restart syncthing@hoge
$ systemctl enable syncthing@hoge

これでシステム起動時にも自動でサービスが起動する