loopback block device で遊ぶ

linux にはいろんな仮想ブロックデバイスが存在して、ものによっては機能がかぶっていたりする。 今回は、ファイルをブロックデバイスとして見せる、loopback block device で遊んでみた。

まずは伝統的な loop モジュールによるもの。 arch で使うには modprobe loop が必要だった。 あとは、losetup /dev/loop0 /tmp/disk とかして使う。

もう一つは、lio を使う方法。 lio は iSCSI の実装として有名だけど、データのストア先が backstore として、またデータ入出力のインターフェースとして fabric module (または frontend)が提供されている。 backstore として block device を指定することもできるし、ファイルを指定することもできる。 fabric module には通常 iSCSI を指定して iSCSI target としてエクスポートするが、tcm_loop を使うことで、 backstore を通常の SCSIバイスとしてローカルマシンに見せることができる。 ここで backstore をファイルにして frontend を tcm_loop とすることで loopback block device として使える。

lio を使うには arch では targetcli-fb を AUR からインストールする。

あとは targetcli を root で起動してポチポチしていけば良い。

cd /backstores/fileio
create name=disk file_or_dev=/tmp/disk
cd /loopback
create
cd ***
cd luns
create /backstores/fileio/disk
exit

これで /dev/sdb とかが生えてくる。

さて、fio で簡単に2つの実装をテストしてみた。 設定は以下。

[rw]
size=250M
readwrite=randrw
nrfiles=8
ioengine=libaio
iodepth=16
direct=1
overwrite=1
runtime=180
time_based
numjobs=4
group_reporting

バックストア先のファイルは 1.5G で tmpfs 上に乗せている。 したがって、純粋にそれぞれの実装によるオーバーヘッドだけが見えるはず。 ファイルシステムには xfs を使った。

結果は以下。

  • loop
rw: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=16
...
fio-2.20
Starting 4 processes
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
Jobs: 4 (f=32): [m(4)][100.0%][r=442MiB/s,w=442MiB/s][r=113k,w=113k IOPS][eta 00m:00s]
rw: (groupid=0, jobs=4): err= 0: pid=2200: Sun Jun  4 01:16:32 2017
   read: IOPS=122k, BW=478MiB/s (501MB/s)(83.0GiB/180001msec)
    slat (usec): min=1, max=20022, avg= 4.76, stdev=50.93
    clat (usec): min=0, max=26792, avg=248.51, stdev=254.66
     lat (usec): min=4, max=26795, avg=253.46, stdev=259.78
    clat percentiles (usec):
     |  1.00th=[   41],  5.00th=[   88], 10.00th=[  151], 20.00th=[  203],
     | 30.00th=[  241], 40.00th=[  255], 50.00th=[  262], 60.00th=[  270],
     | 70.00th=[  278], 80.00th=[  286], 90.00th=[  294], 95.00th=[  302],
     | 99.00th=[  322], 99.50th=[  330], 99.90th=[  510], 99.95th=[10048],
     | 99.99th=[10176]
   bw (  KiB/s): min=105520, max=206152, per=0.02%, avg=122299.23, stdev=17817.78
  write: IOPS=122k, BW=478MiB/s (501MB/s)(83.0GiB/180001msec)
    slat (usec): min=1, max=20050, avg= 6.49, stdev=53.88
    clat (usec): min=0, max=29928, avg=260.77, stdev=274.08
     lat (usec): min=10, max=29937, avg=267.45, stdev=279.42
    clat percentiles (usec):
     |  1.00th=[   87],  5.00th=[   98], 10.00th=[  187], 20.00th=[  213],
     | 30.00th=[  245], 40.00th=[  258], 50.00th=[  266], 60.00th=[  274],
     | 70.00th=[  278], 80.00th=[  286], 90.00th=[  298], 95.00th=[  310],
     | 99.00th=[  498], 99.50th=[  596], 99.90th=[ 1480], 99.95th=[10048],
     | 99.99th=[10176]
   bw (  KiB/s): min=107472, max=206120, per=0.02%, avg=122354.26, stdev=17781.92
    lat (usec) : 2=0.01%, 4=0.01%, 10=0.05%, 20=0.11%, 50=0.54%
    lat (usec) : 100=5.80%, 250=28.75%, 500=64.21%, 750=0.41%, 1000=0.04%
    lat (msec) : 2=0.02%, 4=0.01%, 10=0.01%, 20=0.05%, 50=0.01%
  cpu          : usr=12.74%, sys=40.54%, ctx=18171368, majf=0, minf=43
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.1%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=22007682,22017735,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=16

Run status group 0 (all jobs):
   READ: bw=478MiB/s (501MB/s), 478MiB/s-478MiB/s (501MB/s-501MB/s), io=83.0GiB (90.1GB), run=180001-180001msec
  WRITE: bw=478MiB/s (501MB/s), 478MiB/s-478MiB/s (501MB/s-501MB/s), io=83.0GiB (90.2GB), run=180001-180001msec

Disk stats (read/write):
  loop0: ios=21995434/22005502, merge=0/0, ticks=5134440/5127490, in_queue=10299120, util=100.00%
  • lio
rw: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=16
...
fio-2.20
Starting 4 processes
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
Jobs: 4 (f=32): [m(4)][100.0%][r=179MiB/s,w=179MiB/s][r=45.9k,w=45.8k IOPS][eta 00m:00s]
rw: (groupid=0, jobs=4): err= 0: pid=7267: Sun Jun  4 01:31:19 2017
   read: IOPS=53.6k, BW=210MiB/s (220MB/s)(36.8GiB/180001msec)
    slat (usec): min=1, max=19641, avg=32.46, stdev=21.93
    clat (usec): min=3, max=873729, avg=561.32, stdev=1187.46
     lat (usec): min=12, max=873734, avg=594.14, stdev=1187.82
    clat percentiles (usec):
     |  1.00th=[  438],  5.00th=[  454], 10.00th=[  462], 20.00th=[  486],
     | 30.00th=[  556], 40.00th=[  564], 50.00th=[  572], 60.00th=[  580],
     | 70.00th=[  588], 80.00th=[  596], 90.00th=[  620], 95.00th=[  652],
     | 99.00th=[  692], 99.50th=[  708], 99.90th=[ 1048], 99.95th=[ 1400],
     | 99.99th=[ 5088]
   bw (  KiB/s): min=19544, max=114648, per=0.02%, avg=53734.31, stdev=6185.94
  write: IOPS=53.6k, BW=210MiB/s (220MB/s)(36.8GiB/180001msec)
    slat (usec): min=2, max=18805, avg=35.23, stdev=26.63
    clat (usec): min=2, max=873700, avg=559.72, stdev=1189.48
     lat (usec): min=22, max=873706, avg=595.30, stdev=1189.95
    clat percentiles (usec):
     |  1.00th=[  438],  5.00th=[  454], 10.00th=[  462], 20.00th=[  486],
     | 30.00th=[  548], 40.00th=[  564], 50.00th=[  572], 60.00th=[  572],
     | 70.00th=[  588], 80.00th=[  596], 90.00th=[  620], 95.00th=[  652],
     | 99.00th=[  692], 99.50th=[  708], 99.90th=[ 1048], 99.95th=[ 1400],
     | 99.99th=[ 4960]
   bw (  KiB/s): min=20088, max=112888, per=0.02%, avg=53746.07, stdev=6192.19
    lat (usec) : 4=0.01%, 10=0.01%, 20=0.01%, 50=0.01%, 100=0.02%
    lat (usec) : 250=0.15%, 500=22.32%, 750=77.30%, 1000=0.09%
    lat (msec) : 2=0.09%, 4=0.01%, 10=0.01%, 20=0.01%, 50=0.01%
    lat (msec) : 100=0.01%, 250=0.01%, 1000=0.01%
  cpu          : usr=7.29%, sys=45.40%, ctx=19322396, majf=0, minf=52
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.1%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=9654368,9656263,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=16

Run status group 0 (all jobs):
   READ: bw=210MiB/s (220MB/s), 210MiB/s-210MiB/s (220MB/s-220MB/s), io=36.8GiB (39.5GB), run=180001-180001msec
  WRITE: bw=210MiB/s (220MB/s), 210MiB/s-210MiB/s (220MB/s-220MB/s), io=36.8GiB (39.6GB), run=180001-180001msec

Disk stats (read/write):
  sdb: ios=9647282/9649318, merge=2/9, ticks=221083/231767, in_queue=428717, util=96.83%

理由は追えていないが、loop のほうが lio に倍以上 IOPS 出ていて面白い。 マシンは、Sony Corporation SVP1121A1J/VAIO, BIOS R1045V7 を使った。 kernel は 4.11.3-1-ARCH。


追記

ramdisk backstore を使ってみた。 ほぼ fileio と変わらないので、lio 自体で律速されているようだ。

rw: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=16                                                                                        
...                                            
fio-2.20                                       
Starting 4 processes                           
rw: Laying out IO files (8 files / total 250MiB)                                               
rw: Laying out IO files (8 files / total 250MiB)                                               
rw: Laying out IO files (8 files / total 250MiB)                                               
rw: Laying out IO files (8 files / total 250MiB)                                               
Jobs: 4 (f=32): [m(4)][100.0%][r=191MiB/s,w=193MiB/s][r=48.9k,w=49.3k IOPS][eta 00m:00s]       
rw: (groupid=0, jobs=4): err= 0: pid=627: Sun Jun  4 03:37:05 2017                             
   read: IOPS=57.7k, BW=225MiB/s (236MB/s)(39.6GiB/180001msec)                                 
    slat (usec): min=3, max=12337, avg=30.54, stdev=19.99                                      
    clat (usec): min=3, max=12778, avg=521.58, stdev=98.27                                     
     lat (usec): min=38, max=12805, avg=552.46, stdev=101.85                                   
    clat percentiles (usec):                   
     |  1.00th=[  426],  5.00th=[  430], 10.00th=[  434], 20.00th=[  442],                     
     | 30.00th=[  524], 40.00th=[  532], 50.00th=[  532], 60.00th=[  532],                     
     | 70.00th=[  540], 80.00th=[  556], 90.00th=[  572], 95.00th=[  604],                     
     | 99.00th=[  628], 99.50th=[  636], 99.90th=[  732], 99.95th=[ 1096],                     
     | 99.99th=[ 2320]                         
   bw (  KiB/s): min=47520, max=70648, per=0.02%, avg=57715.31, stdev=5761.57                  
  write: IOPS=57.7k, BW=225MiB/s (236MB/s)(39.6GiB/180001msec)                                 
    slat (usec): min=3, max=10906, avg=32.38, stdev=23.06                                      
    clat (usec): min=3, max=12780, avg=520.53, stdev=101.82                                    
     lat (usec): min=39, max=12804, avg=553.25, stdev=106.00                                   
    clat percentiles (usec):                   
     |  1.00th=[  426],  5.00th=[  430], 10.00th=[  434], 20.00th=[  442],                     
     | 30.00th=[  524], 40.00th=[  532], 50.00th=[  532], 60.00th=[  532],                     
     | 70.00th=[  540], 80.00th=[  556], 90.00th=[  564], 95.00th=[  604],                     
     | 99.00th=[  628], 99.50th=[  636], 99.90th=[  732], 99.95th=[ 1112],                     
     | 99.99th=[ 3120]                         
   bw (  KiB/s): min=47432, max=70792, per=0.02%, avg=57724.14, stdev=5769.25                  
    lat (usec) : 4=0.01%, 50=0.01%, 100=0.01%, 250=0.01%, 500=23.08%                           
    lat (usec) : 750=76.82%, 1000=0.04%        
    lat (msec) : 2=0.05%, 4=0.01%, 10=0.01%, 20=0.01%                                          
  cpu          : usr=7.49%, sys=46.22%, ctx=20795324, majf=0, minf=52                          
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%                 
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%                
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.1%, 32=0.0%, 64=0.0%, >=64=0.0%                
     issued rwt: total=10383664,10385405,0, short=0,0,0, dropped=0,0,0                         
     latency   : target=0, window=0, percentile=100.00%, depth=16                              

Run status group 0 (all jobs):                 
   READ: bw=225MiB/s (236MB/s), 225MiB/s-225MiB/s (236MB/s-236MB/s), io=39.6GiB (42.5GB), run=180001-180001msec                                                                                
  WRITE: bw=225MiB/s (236MB/s), 225MiB/s-225MiB/s (236MB/s-236MB/s), io=39.6GiB (42.5GB), run=180001-180001msec                                                                                

Disk stats (read/write):                       
  sdb: ios=10377752/10379508, merge=0/7, ticks=196560/194066, in_queue=371003, util=100.00%    

perf top で様子を見てみた。 この感じだとロックコンテンションが性能に影響を与えているようだ。

  • loop
Samples: 838K of event 'cycles', Event count (approx.): 110568441611
Overhead  Shared Object                  Symbol
   3.79%  [kernel]                       [k] memcpy_erms
   2.08%  fio                            [.] get_io_u
   1.79%  [kernel]                       [k] __radix_tree_lookup
   1.74%  [kernel]                       [k] _raw_spin_lock
   1.25%  [kernel]                       [k] __sched_text_start
   1.20%  [kernel]                       [k] _raw_spin_lock_irqsave
   1.16%  [kernel]                       [k] kmem_cache_alloc
   1.03%  [kernel]                       [k] sbitmap_get
   1.00%  fio                            [.] io_u_queued_complete
   1.00%  [loop]                         [k] loop_queue_work
   0.89%  fio                            [.] fio_gettime
   0.86%  [kernel]                       [k] iomap_dio_bio_end_io
   0.85%  [kernel]                       [k] do_io_submit
   0.84%  [kernel]                       [k] aio_complete
   0.83%  [kernel]                       [k] __slab_free
   0.76%  [kernel]                       [k] enqueue_entity
   0.76%  [kernel]                       [k] find_get_entry
   0.75%  [kernel]                       [k] __fget
   0.75%  [kernel]                       [k] gup_pte_range
   0.74%  [kernel]                       [k] __switch_to
   0.70%  [kernel]                       [k] iomap_dio_actor
   0.69%  [kernel]                       [k] dequeue_entity
   0.68%  [kernel]                       [k] _raw_spin_unlock_irqrestore
   0.67%  [kernel]                       [k] set_next_entity
  • lio
Samples: 850K of event 'cycles', Event count (approx.): 183184369456
Overhead  Shared Object                            Symbol
  18.53%  [kernel]                                 [k] native_queued_spin_lock_slowpath
   2.10%  [kernel]                                 [k] _raw_spin_lock_irqsave
   1.90%  [kernel]                                 [k] memcpy_erms
   1.22%  [kernel]                                 [k] _raw_spin_unlock_irqrestore
   0.96%  [kernel]                                 [k] __sched_text_start
   0.88%  [kernel]                                 [k] read_tsc
   0.88%  [kernel]                                 [k] _raw_spin_lock
   0.73%  [kernel]                                 [k] __radix_tree_lookup
   0.72%  [kernel]                                 [k] kmem_cache_alloc
   0.68%  zsh                                      [.] execbuiltin
   0.67%  [kernel]                                 [k] _raw_spin_lock_irq
   0.65%  [kernel]                                 [k] enqueue_entity
   0.63%  [kernel]                                 [k] __percpu_counter_add
   0.63%  [kernel]                                 [k] set_next_entity
   0.63%  [kernel]                                 [k] ktime_get
   0.61%  [kernel]                                 [k] dequeue_entity
   0.60%  [kernel]                                 [k] __switch_to
   0.59%  zsh                                      [.] bin_read
   0.59%  zsh                                      [.] bin_print
   0.59%  [kernel]                                 [k] update_curr
   0.57%  [kernel]                                 [k] _mix_pool_bytes
   0.55%  [kernel]                                 [k] kmem_cache_free
   0.55%  [kernel]                                 [k] cfq_completed_request
   0.53%  [kernel]                                 [k] pick_next_task_fair

blk-mq を有効にしたら少し改善した。 loop はデフォルトで mq を使っていた。

cat /sys/block/loop0/queue/scheduler 
[mq-deadline] none
rw: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=16
...
fio-2.20
Starting 4 processes
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
rw: Laying out IO files (8 files / total 250MiB)
Jobs: 4 (f=32): [m(4)][100.0%][r=320MiB/s,w=320MiB/s][r=81.8k,w=81.8k IOPS][eta 00m:00s]
rw: (groupid=0, jobs=4): err= 0: pid=685: Sun Jun  4 05:06:29 2017
   read: IOPS=90.7k, BW=354MiB/s (372MB/s)(62.3GiB/180002msec)
    slat (usec): min=2, max=10340, avg=17.83, stdev=18.18
    clat (usec): min=1, max=10751, avg=331.24, stdev=82.57
     lat (usec): min=13, max=10770, avg=349.35, stdev=85.77
    clat percentiles (usec):
     |  1.00th=[  239],  5.00th=[  251], 10.00th=[  258], 20.00th=[  278],
     | 30.00th=[  318], 40.00th=[  330], 50.00th=[  342], 60.00th=[  354],
     | 70.00th=[  362], 80.00th=[  370], 90.00th=[  382], 95.00th=[  390],
     | 99.00th=[  406], 99.50th=[  414], 99.90th=[  442], 99.95th=[  532],
     | 99.99th=[ 1544]
   bw (  KiB/s): min=77056, max=118824, per=0.02%, avg=90792.63, stdev=12202.74
  write: IOPS=90.8k, BW=355MiB/s (372MB/s)(62.3GiB/180002msec)
    slat (usec): min=3, max=10087, avg=20.06, stdev=16.31
    clat (usec): min=3, max=10749, avg=331.87, stdev=84.35
     lat (usec): min=14, max=10773, avg=352.20, stdev=87.32
    clat percentiles (usec):
     |  1.00th=[  241],  5.00th=[  251], 10.00th=[  258], 20.00th=[  278],
     | 30.00th=[  318], 40.00th=[  330], 50.00th=[  342], 60.00th=[  354],
     | 70.00th=[  362], 80.00th=[  370], 90.00th=[  382], 95.00th=[  390],
     | 99.00th=[  406], 99.50th=[  414], 99.90th=[  442], 99.95th=[  548],
     | 99.99th=[ 1544]
   bw (  KiB/s): min=76792, max=118288, per=0.02%, avg=90829.20, stdev=12165.43
    lat (usec) : 2=0.01%, 4=0.01%, 10=0.01%, 20=0.01%, 50=0.01%
    lat (usec) : 100=0.01%, 250=4.06%, 500=95.88%, 750=0.03%, 1000=0.01%
    lat (msec) : 2=0.02%, 4=0.01%, 10=0.01%, 20=0.01%
  cpu          : usr=12.31%, sys=45.85%, ctx=31964284, majf=0, minf=46
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.1%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=16331936,16338526,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=16

Run status group 0 (all jobs):
   READ: bw=354MiB/s (372MB/s), 354MiB/s-354MiB/s (372MB/s-372MB/s), io=62.3GiB (66.9GB), run=180002-180002msec
  WRITE: bw=355MiB/s (372MB/s), 355MiB/s-355MiB/s (372MB/s-372MB/s), io=62.3GiB (66.9GB), run=180002-180002msec

Disk stats (read/write):
  sdb: ios=16331311/16337886, merge=0/8, ticks=180867/176570, in_queue=413730, util=93.08%

EdgeRouter PoE の復旧

EdgeRouter の SNMP が取れなくなっていたので、ログを見たら IO エラーが出ていたので USB フラッシュが死んだらしい。 ネットワークは生きていたので、再起動とかはしないで、代替の USB フラッシュドライブとシリアルケーブルを購入しておいた。 購入した USB フラッシュは、SanDisk の SDCZ33-016G-J57。どうも相性問題があるらしくフォーラムから動きそうなフラッシュを購入したが結果としては、相性問題に当たってしまった。

公式のレスキュー方法は以下にあるが、TFTP を使ったりしてちょっと面倒くさい。 https://help.ubnt.com/hc/en-us/articles/204959514-EdgeRouter-Last-resort-recovery-of-failed-EdgeOS-device

ソースコードは以下にあって、やっていることは適当にパーティション作って、公式の tar からファイルをコピーすれば良いらしい。 https://github.com/vyos/emrk

パーティションは、msdos で作って、1st primary を fat32 で1セクタから150MB、2nd を ext3 でディスクいっぱいに設定した。 デフォルトでは1900MBになっていて謎だが、特に問題なく動いている。

後は、vmlinux.64{,.md5} を1stに、squashfs.img{,md5}を2ndにコピーして、version ファイルと writable ディレクトリとして w を作っておけば良い。

さて、これで動いてくれると嬉しかったのだが、USB フラッシュを挿入して起動したところ、シリアル経由でブートを覗いていたら、USB フラッシュが認識できずにブートに失敗していた。

ワークアラウンドは u-boot で usb reset をブート前にすれば良い。

https://community.ubnt.com/t5/EdgeMAX/New-U-Boot-image-for-better-USB-drive-compatibility/td-p/850744

シリアル経由で、u-boot を設定する。

setenv oldbootcmd '[copy from bootcmd]'
setenv bootcmd 'sleep 10;usb reset;sleep 10;$(oldbootcmd)'
saveenv

これで復旧完了。

bindgen を使って rust binding を生成する

Rust は C API をゼロオーバーヘッドで呼び出せたりして便利なんだけど、当然バインディングは行わないといけない。 crates.io を探せばおおよそのものは見つかるけど、見つからなかったり、見つかっても古かったりして更新したいときがある。

そんなときは、bindgen (https://github.com/Yamakaky/rust-bindgen) をつかってヘッダーファイルから生成すると便利。 ただし Yamakaky の方は Clang 3.9 に対応していなくて実行するとエラーが出たりする。 手元の環境は Arch Linux で Clang が 3.9 なので残念ながらうまく行かなかった。

一方、Servo の方に fork があって (https://github.com/servo/rust-bindgen) そちらは 3.9 に対応している。 ただし Yamakaky の方と微妙に使い勝手が違う。具体的には --match オプションがない。 (でも --whitelist-* オプションがないから実は困らない気がしてきた。)

そんなわけで、Clang 3.8 をいれて bindgen をビルドする方法を書いておく。

LLVM/CLang のオフィシャルページから 3.8.1 の llvm と clang のソースをダウンロードして、 手順通り (https://clang.llvm.org/get_started.html) にビルドする。 llvm の tools/clang に clang のソースを展開して、configure && make で OK。

あとは llvm のビルドディレクトリに lib/libclang.so ができるのでそいつを指定して以下を実行。

$ LIBCLANG_PATH=$BUILD/lib/ cargo install bindgen

あとはライブラリパスを指定して、bindgen が実行できる。

$ LD_LIBRARY_PATH=$BUILD/lib/ ~/.cargo/bin/bindgen foo.h > foo.rs

VAIO Pro 11 に gentoo をインストールした

一度 Gentoo というものを使ってみたかったのでチャンレンジしてみた。 インストール元は、Arch Linux が入っていたので、そこから LVM を Gentoo 用に切り出して、stage3 を使ってインストールした。

Kernel config は Sony Vaio Pro SVP-1x21 のページを参考にポチポチやればよかった。 あとは、systemd を使いたかったので emerge でインストールする。また、systemd-boot を利用するために USE フラグで gnuefi を有効にする必要がある。

あとはガーッとインストールして、/dev/sda3 を /boot にマウントして、bootctl install すればOK。

今回は LVM の上にインストールしたので、initramfs を作る必要があるっぽい。 genkernel-next を emerge して genkernel --lvm initrmfs を実行する。

最後に、systemd-boot 用の設定を書く。 /boot/loader/entries/gentoo.conf とかを作り、以下のように設定する。

title Gentoo Linux
linux /vmlinuz-4.6.3-gentoo
options initrd=initramfs-genkernel-x86_64-4.6.3-gentoo dolvm root=/dev/mapper/arch-gentoo rw rootflags=subvol=@ init=/usr/lib/systemd/systemd

でこれでリブートすると、なぜか journald がこけたりする。 どうやら /etc/machine-id がないのがダメみたいで、systemd-machine-id-setup を実行したら作ってくれた。

UML で hostfs と overlayfs を使う

User mode linux で hostfs でホストのファイルシステムを参照しつつ、書き込みは別の場所にしたかったので overlayfs を使ってみました。

User mode linux (UML) は linux kernel をいろいろ頑張って普通のプロセスとして実行するものです。 ptrace とかで頑張っているらしいけど、ちゃんと調べていないです。

hostfs は UML からホストのファイルシステムを透過的に見せる薄いファイルシステムで kernel の fs/hostfs 以下で実装されています。

overlayfs は unionfs とか言われるやつで二つの FS を組み合わせて ro なベースイメージに差分だけ別の箇所に書くみたいなことに使うようです。 組込デバイスで使ったり、Docker では storage backend として aufs を使っています。 aufs は out-of-tree ですけど overlayfs は kernel tree に含まれています。

先ずは UML をビルドします。今回は githublinusリポジトリから HEAD をもってきました。 menuconfig するときに File systems から Overlay filesystem support を有効にしておきます。 あと、いらなそうな機能は削っておくとビルドが早いです。

git clone https://github.com/torvalds/linux.git
cd linux
make defconfig ARCH=um
make manuconfig ARCH=um
make ARCH=um

ビルドが終わると vmlinux という実行ファイルができるので、次のように実行します。

./vmlinux rootfstype=hostfs init=/bin/sh mem=128M

あとは UML の中で、overlayfs を使ってみます。

mount -t tmpfs none /tmp
cd tmp
mkdir l u w m
mount -t hostfs -o/,ro none /tmp/l
mount -t overlay -olowerdir=/tmp/l,upperdir=/tmp/u,workdir=/tmp/w none /tmp/m

適当なファイルを読んでみましょう。

cat /tmp/m/etc/hosts

すると以下のように失敗すると思います。

cat: /tmp/m/etc/hosts: No such file or directory

ホスト側と UML から strace してみます。

strace /bin/cat /tmp/m/etc/hosts
  • ホスト
strace -p $UML_PID

すると、UML 側では以下のように open に失敗しています。

open("/tmp/m/etc/hosts", O_RDONLY)      = -1 ENOENT (No such file or directory)

ホスト側では以下のようになっています。

open(" \205Ui/etc/hosts", O_RDONLY)     = -1 ENOENT (No such file or directory)

なんかすごく怪しいですね。

カーネルを見てみると、open は fs/hostfs/hostfs_kern.c の hostfs_open でやっています。

 name = dentry_name(file_dentry(file));
    if (name == NULL)
        return -ENOMEM;

    fd = open_file(name, r, w, append);

dentry_name は __dentry_name を呼び出していて、以下のようになっています。

 char *p = dentry_path_raw(dentry, name, PATH_MAX);
    char *root;
    size_t len;

    root = dentry->d_sb->s_fs_info;
...
        strcpy(name + len, p);

    return name;
}

fs_info には mount 時の起点のパスが入るようになっています。 今は -o/,ro としたので / が入るはずです。 上では p には /etc/hosts が入っており、root には / が入るはずです。

しかし実際には fs_info に謎の \205Ui というデータが入ってしまっています。

cat は呼べているため overlayfs 側の問題のように見えます。 git log してみると、怪しいコミットがありました。

overlayfs: Make f_path always point to the overlay and f_inode to the underlay

どうやら file->f_path が hostfs のものでなく overlayfs のものになっているため、superblock に入っている fs_info が別のものを指すようになったようです。

これに対して、fs: add file_dentry() で正しい dentry を参照するための 関数が導入されています。 また、続くコミットで、nfs, ext4 が修正されています。 が、何故かそれだけで、btrfs や f2fs は独自に改修しています。

原因は分かったので、適当にパッチ を当てたツリーを使ってビルドしたら正しく動きました。

UMLメーリングリストにパッチを投稿したら以下の返信がありましたが、なんでそうしなかったのかよくわからないです。

User-mode Linux kernel port / Mailing Lists

Is there a reason why not all instances of file->f_path.dentry have been replaced by file_dentry()? I smell more fallout...

現状では overlayfs は ext4 や btrfs で動かすのが安全そうです。

VyOS で unbound を利用する

VyOS というより EdgeOS なのだけれど。

自宅の環境はプロバイダのルータと自前ルータ(EdgeRouter)の二段構えなのだが、EdgeRouter の DNS のフォワード先はプロバイダのルータにしていた。 しかしプロバイダのルータの DNS がたまに応答しなくなったり不安定だったので、EdgeRouter 自身に unbound を立てることにした。

とりあえず以下を参考にして apt を使えるようにする。

EdgeMAX - Add other Debian packages to EdgeOS – Ubiquiti Networks Support and Help Center

しかる後、unbound をインストールする。

sudo apt-get update
sudo apt-get install unbound

ここでポート 53 を dnsmasq が listen しているので unbound の起動がコケる。 /etc/unbound/unbound.conf を適当に書き換えてポート番号を変えておく。

server:
   ...
   interface: 127.0.0.1
   port: 10053

そして起動する。

sudo service unbound restart

あとは、configure で dnsmasq の設定をする。 非標準ポートなので options で指定して、/etc/resolv.conf を見ないように no-resolv も入れておく。

set service dns forwarding options server=127.0.0.1#10053
set service dns forwarding options no-resolv
commit
save

/etc/dnsmasq.conf を見て設定が正しいか確認しておくと良いだろう。

unbound が働いているかどうかは、sudo unbound-control stats をしてみればわかる。

systemd-networkd では netdev だけではデバイスは UP しないらしい

LXC 用の Bridge インターフェースを systemd-networkd で管理しようとして、.netdev ファイルを以下のように作った。

[NetDev]
Name=br0
Kind=bridge

この bridge に対して physical デバイスで以下のように接続しておいた。

[Match]
Name=en*

[Network]
...
Bridge=br0

これだけだと、ip link でみてみると link が DOWN になっていて、接続が出来ない。

以下のような空の .network ファイルを bridge に対して設定してやったらめでたく UP になってくれた。

[Match]
Name=br0