けんども日記: カテゴリ: software

カテゴリ: software のエントリを新しい順に 20 件まで表示します。 21 件以上ある場合、それらは省略されます。

2010-06-14

RHEL5.5 で PacketiX VPN を使ったIPv6トンネル接続実験サービスに接続

久々にサーバの設定ネタなのだけれども、RHEL5.5でソフトイーサ株式会社及び筑波大学システム情報工学研究科産学間連携推進室のグローバル・固定 IPv6 アドレス割当型トンネル接続実験サービスを使ってみたメモ。

クライアント接続とブリッジ接続の2つがあり、今回は1台でだけで割り当てられたIPv6アドレスを使いたかったので、クライアント接続で試すことにした。 今回は PacketiX VPN Client 3.0 をダウンロードし、ソフトイーサ株式会社のマニュアルを見ながら導入。 PacketiX VPN のサーバ版は有償らしいのだけれども、クライアントやブリッジは無償で利用できる。

make して質問に答えると vpnclient と vpncmd という実行ファイルが生成されるので、 vpnclient ディレクトリごと /usr/local/ に設置して、起動スクリプトを用意すれば導入は完了。RHEL5.5では gcc などの開発環境の他に ncurses-devel, readline-devel, libtermcap-devel, openssl-devel, zlib-devel などが必要である。

$ tar zxf vpnclient-v3.00-6890-rtm-2010.03.15-ja-linux-x86-32bit.tar.gz
$ cd vpnclient/
$ make
# mv vpnclient/ /usr/local/
# cd /usr/local/vpnclient/
# chown -R root:root .
# chmod 600 *
# chmod 700 vpnclient vpncmd

起動スクリプト /etc/init.d/vpnclient は以下の内容で用意。

#!/bin/sh
# chkconfig: 2345 99 01
# description: PacketiX VPN Client 3.0

DAEMON=/usr/local/vpnclient/vpnclient
LOCK=/var/lock/subsys/vpnclient

test -x $DAEMON || exit 0

case "$1" in
start)
$DAEMON start
touch $LOCK
;;
stop)
$DAEMON stop
rm $LOCK
;;
restart)
$DAEMON stop
sleep 3
$DAEMON start
;;
*)
echo "Usage: $0 {start|stop|restart}"

exit 1
esac
exit 0

/etc/init.d/vpnclient start で vpnclient を起動させてから vpncmd コマンドで設定する。「2. VPN Client の管理」を選択し、localhost に接続する。

# ./vpncmd 
vpncmd コマンド - PacketiX VPN コマンドライン管理ユーティリティ
PacketiX VPN コマンドライン管理ユーティリティ (vpncmd コマンド)
Version 3.00 Build 6890   (Japanese)
Compiled 2010/03/15 05:56:28 by yagi at pc25
Copyright (C) 2004-2010 SoftEther Corporation. All Rights Reserved.

vpncmd プログラムを使って以下のことができます。

1. VPN Server または VPN Bridge の管理
2. VPN Client の管理
3. VPN Tools コマンドの使用 (証明書作成や通信速度測定)

1 - 3 を選択: 2

接続先の VPN Client が動作しているコンピュータの IP アドレスまたはホスト名を指定してください。
何も入力せずに Enter を押すと、localhost (このコンピュータ) に接続します。
接続先を入力: 

VPN Client "localhost" に接続しました。

VPN Client>

VPN Client> というプロンプトになったら、ここからクライアントの設定や確認ができる。最初は Check コマンドを実行すると、この環境で利用できるかをチェックしてくれる。

VPN Client>Check
Check コマンド - PacketiX VPN の動作が可能かどうかチェックする
---------------------------------------------------
PacketiX VPN 動作環境チェックツール

Copyright (C) 2004-2010 SoftEther Corporation.
All Rights Reserved.

この動作環境チェックツールを実行したシステムがテストに合格した場合は、PacketiX 
VPN ソフトウェアが動作する可能性が高いです。チェックにはしばらく時間がかかる場
合があります。そのままお待ちください...


'カーネル系' のチェック中...
              [合格] ○
'メモリ操作系' のチェック中...
              [合格] ○
'ANSI / Unicode 文字列処理系' のチェック中...
              [合格] ○
'ファイルシステム' のチェック中...
              [合格] ○
'スレッド処理システム' のチェック中...
              [合格] ○
'ネットワークシステム' のチェック中...
              [合格] ○

すべてのチェックに合格しました。このシステム上で PacketiX VPN Server / Bridge 
が正しく動作する可能性が高いと思われます。

コマンドは正常に終了しました。

続いて、仮想のVPN Clientが使うLANカードを作成。今回は v6ip という名前にした。

VPN Client>NicCreate 
NicCreate コマンド - 新規仮想 LAN カードの作成
仮想 LAN カードの名前: v6ip

コマンドは正常に終了しました。

VPN Client>

ここでシェルに戻って ifconfig で確認すると、vpn_v6ip というインターフェイスが立ち上がっているのが確認できる。 続いて、接続アカウントの設定。接続の名前はわかりやすいように v6ip_client にした。登録時の情報と、先ほど作成したLANカード名を入力。

VPN Client>AccountCreate
AccountCreate コマンド - 新しい接続設定の作成
接続設定の名前: v6ip_client

接続先 VPN Server のホスト名とポート番号: v6ip.tsukuba.wide.ad.jp:443

接続先仮想 HUB 名: ACVPN

接続するユーザー名: アカウント

使用する仮想 LAN カード名: v6ip

コマンドは正常に終了しました。

VPN Client>

次は先ほどの設定のパスワードを設定。

VPN Client>AccountPasswordSet
AccountPasswordSet コマンド - 接続設定のユーザー認証の種類をパスワード認証に設定
接続設定の名前: v6ip_client

パスワードを入力してください。キャンセルするには Ctrl+D キーを押してください。

パスワード: **************
確認入力  : **************


standard または radius の指定: standard

コマンドは正常に終了しました。

VPN Client>

AccountConnect コマンドで接続名を指定して接続。

VPN Client>AccountConnect v6ip_client
AccountConnect コマンド - 接続設定を使用して VPN Server へ接続を開始
コマンドは正常に終了しました。

AccountList コマンドで状態が「接続完了」ならば接続されており、より詳細な情報は AccountStatusGet で確認できる。

VPN Client>AccountList v6ip_client
AccountList コマンド - 接続設定一覧の取得
項目               |値
-------------------+----------------------------------------------
接続設定名         |v6ip_client
状態               |接続完了
接続先 VPN サーバー|v6ip.tsukuba.wide.ad.jp:443 (直接 TCP/IP 接続)
仮想 HUB 名        |ACVPN
仮想 LAN カード名  |v6ip
コマンドは正常に終了しました。

VPN Client>

これで先ほど立ち上がった vpn_v6ip インターフェイスにグローバルユニキャストアドレスが付与される。/etc/init.d/vpnclient start 時に自動的に接続されるようにするには AccountStartupSet で設定できる。

PacketiX VPN を使ってみたのは初めてなのだけれども、NAT環境下やHTTP Proxyを経由しても使えるというのはおもしろい。NATのセッションを維持するための接続維持機能もあったりするので、いろいろな環境で使えそう。

Pingで確認する限りでは、IIJ方面は近いが、OCNやフリービット(Feel6)方面は100msを超えてしまう。DKNのプライマリDNSはOCNなので、しばらく使ってみて安定して使えるようならば、セカンダリDNSサーバ用に使いたいと思っている。

2009-12-07

RHEL5.4でKVMのゲストが固まる現象(解決済)

RHEL5.4でKVMを導入した当初、KVM上のゲスト(ゲストもRHEL5.4)ゲストが固まる現象が発生していた。ゲストを起動してから数日(1〜4日くらい)で固る。固まるとKVMのホスト側ではゲストに割り当てたCPUをいっぱいに使った状態になり、 virsh console や virt-manager では操作不能。virsh shutdown でも停止できず、virsh destroy で強制終了せざるを得ない状態だった。障害が発生すると監視システムがアラートを出すので、寝ている間もしょっちゅう起こされていた。

そのゲストはx86版、インストールしているパッケージはいわゆるLAMPという構成で、たいしてアクセスもないので普段の負荷はきわめて低い。ディスクはLVMで割り当てていた。新規インストールではなく、Xen環境からディスクイメージをddでコピーしてからKernelとinitrdイメージを差し替えるような方法で構築していたので、その辺も疑っていた。そこで、新たな仮想マシンにRHEL5.4を新規にインストールしてみるものの、同じ構成で動かしてみると、同じく数日で固まる。NICやディスクのvirtioを使うのをやめてみても変化なし。

Virtualization Guide の KVM guest timing management の章に気になることがかかれていた。不正確な時計とカウンタによってゲストが停止したり、クラッシュしたりするかもしれないと。。

KVM uses the constant Time Stamp Counter (TSC) feature of many modern CPUs. Some CPUs do not have a constant Time Stamp Counter which will affect the way guests running on KVM keep time. Guest’s running without accurate timekeeping can have serious affects on some networked applications as your guest will run faster or slower than the actual time.

Guests can have several problems caused by inaccurate clocks and counters:

↑の後にはCPUが対応しているかの確認方法やコンスタントTSC非対応のCPUの場合はゲストでNTPDを動かすようにかかれている。

最近のCPUのコンスタントTSC機能により、ゲストはホスト側に合わせて時計の維持を行うらしい。確かに、完全仮想化ながらKVMのゲストでは時計が狂わない。このコンスタントTSCに対応しているかどうかは次のように確認できる。

$ grep constant_tsc /proc/cpuinfo
flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca
cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm syscall nx lm
constant_tsc pni monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr lahf_lm
flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca
cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm syscall nx lm
constant_tsc pni monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr lahf_lm

注)適当に改行を入れております

私の環境では対応しているので、不正確な時計により固まるのは該当しないような気がするのだけれど、同じページにゲストでコンスタントTSCを無効にする起動パラメタもかかれており、試しに無効にしてみた。ゲストのGRUBの /kernel のオプションを追加して起動。そして、ゲストではNTPDを動かすことにした。このオプションはアーキテクチャやRHELのバージョンによって異なるので注意!

divider=10 clocksource=acpi_pm lpj=n

この状態起動して1ヶ月近くたつが、あれだけ固まっていたのが嘘のように全く固まらない。ちょっと納得がいかないけれども。。

2009-09-30

KVMの仮想環境でNICによるパフォーマンスの違い

RHEL5.4のKVMでは仮想マシン(ゲスト)のデフォルトのNICはRealtek rtl8139 がエミュレーションされているのだけれども、それ以外にも選択ができる。それらについて比べてみたところ、ずいぶんと違いが出た。

ホスト、ゲストともにx86_64版RHEL5.4でnetperfを使って測定。なお、肝心のホストのハードウエア情報は残念ながら公開できないが、大きな違いがでたため、ハードウエア環境が違っても参考になると思われる。

選択可能なNICのモデルは rtl8139、e1000、virtio 以外にもあるのだけれんども、今回はこの3つのみで試した。netperfにはホスト以外のオプションは与えていない。まずはKVMのホストからゲストがダウンロードする際の速度。

nerperfのサーバがKVMホスト、クライアントがKVMゲストの場合
NICのモデル結果
rtl8139157Mbps
e1000463Mbps
virtio3979Mbps

今度はその逆。KVMのゲストからホストがダウンロードする際のパフォーマンス。

nerperfのサーバがKVMゲスト、クライアントがKVMホストの場合
NICのモデル結果
rtl813915Mbps
e10001352Mbps
virtio3101Mbps

ゲストとゲスト同士というのは値を控えていないのだけれど、これもvirtioのパフォーマンスが高く、rtl8139は極端に低い値となった。これ以外にKVMゲストと外部ホストとのパフォーマンスなども気になるところだが、それはまた機会があれば試したい。

ゲストのNICを変更するのはGUIのvirt-manager のほかに virsh でもできる。

# virsh edit GUEST

のように実行するとゲストの設定を編集できる。デフォルトのrtl8139が使われている状態では特にモデルは指定されていないので、 <interface type='network'> から </interface> の間に次のようなNICのモデルを挿入すればOK。

<model type='virtio' />

ナレッジベースにもあるように、 virt-install 時に --os-variant=virtio26 オプションを指定すれば最初からvirtioが使えるようになるので 、ゲストが対応しているのであればこのオプション付きでインストールしたほうがよいかもしれない。

NICのほかにディスクでもvirtioがつかえるのだけれんども、私の環境ではちがいはわからななかった。測定方法の問題かもしれない。

2009-09-04

RHEL5.4でKVM

9月2日にRHEL5.4がリリースされた。運用中のRHEL5環境のアップデートがすべて終わったので、今度は先日組んだばかりのPCへ新たにRHELをインストールしてKVMを試すことにした。というのは、RHEL5.4はx86_64版しかKVMに対応していないという先日の失敗があり、5.4のリリースにあわせて急きょx86_64と仮想化の両方に対応したCPUで新たにPCを組んだ。最近は仮想化に対応したCPUも非常に安くなったのはうれしい。

気になっていたのが仮想マシンでRHNを利用する方法だった。これについてはXenの時とほぼ同じ以下のような方法でできた。

  1. サブスクリプションのチャンネルは RHEL Virtualization と Red Hat Network Tools for RHEL Server が必要。インストール時にKVMを選択していれば自動でサブスクライブされると思われるが、念のため確認しておく。
  2. RHNにて、KVMのホストへ Virtualization というエンタイトルメントを割り当てる。
  3. ホストに rhn-virtualization-host パッケージが必要。これをインストールすると、cronで2分おきに仮想マシンの情報がRHNへ通知される。
  4. 仮想マシンで rhnreg_ks コマンドを使用して登録。このコマンドのオプションにはプロファイル名とRHNのログイン情報を指定する。

Xenの時は後になって rhn_register で登録できるようになったが、KVMのゲストでは rhnreg_ks でないとうまくいかなかった。

登録後はRHNの「仮想システム」のページで確認ができ、XenなのかKVMなのかは区別されず、一緒に表示される。

仮想マシンのディスクについてはLVMにしておくと何かと便利なのでLVMで試してみたところ、SELinuxの制限で起動できない。 /dev/mapper/ボリュームグループ-ロジカルボリューム のコンテキストのタイプは fixed_disk_device_t なのだが、これに対して qemu_t ドメインのアクセス権がないらしい。 chcon で /dev/mapper/ボリュームグループ-ロジカルボリューム のコンテキストを virt_image_t へ変更することにした。それではOS再起動時に元に戻ってしまうので semanage fcontext で対応した。

仮想化のドキュメントは Virtualization-en-US パッケージらしいのだけれども、現時点ではこれが更新されていないのが残念。。

2009-11-10 追記。。次のURIでKVM対応の Virtualization Guide が公開されている。 http://www.redhat.com/docs/en-US/Red_Hat_Enterprise_Linux/5.4/html/Virtualization_Guide/index.html

2009-07-10

RHEL5.4 Beta

Red Hat Enterprise Linux 5.4 Betaが公開されたので、先日から例のXeonマシンで試用している。

5.4の目玉はKVM。少し前からFedoraでKVMを試したりしていたのだけれど、やっぱり本命はRHELでKVMを動かすことだったし、今後Xen環境をKVMに置き換えたいこともあり、これは試さずにはいられない。

ところが、Fedoraと同じようにしてもKVMは動かない。そもそもx86にはKVM関連のパッケージが存在すらしていないので、よく確認してみたところ、次のようにあり、KVM関連のパッケージはx86_64版にのみ存在していた。

The KVM feature is supported on x86_64 architecture hardware platforms that employ Intel VT or AMD-V virtualization technologies.

実は、仮想化には対応しているものの、64bitに非対応のCPUのため、この環境ではRHEL5.4のKVMは無理らしい。x86のFedoraでは動いたのに!!

ちなみに、RHEL5.4 BetaにFedoraのKernelとKVMパッケージを追加するとちゃんとKVMは動作する。でも、それではRHELを使う意味がない。

このマシンにはかなり費用をつぎ込んでおり、あきらめたくはない。CPUは仮想化に対応しているため、Xenでは完全仮想化が可能だった。Xenの完全仮想化もパフォーマンスはよいので、このマシンでも結局Xenを使うことになると思われる。まぁ、DomUとして動かす環境が準仮想化に対応していれば無理に完全仮想化する必要はないけど。

その他気づいた点といえば、Xorgのドライバが更新されたためか、ワイドの液晶モニタでも何も設定せずに最適な解像度で表示できるようになったのはちょっと感動。ただ、しばらくFedoraで遊んでいるといろいろ古くさく感じてしまうのは仕方がない。

2007-11-30

ATOK X3 for Linux

3年ぶりにLinux版ATOKの新バージョンが発売された。今日の朝10時からダウンロード販売が開始されるとのことで、10時を回った時点で早速購入。ダウンロード版はATOKの登録ユーザであれば4725円で購入でき、153MBほどのtarballで配布されていた。

今回インストールするのはRHEL5.1 Desktopで、先日5から5.1へアップデートしたばかりの環境。ATOK X3 for Linuxの動作環境は5.1ではなくてただの5なので少々心配していたのだけど、難なく使うことができた。インストールは一緒に配布されているシェルスクリプトを実行し、そこで旧バージョンのATOKはアンインストールされた。今回もiiimf。今回は32ビット版RPMパッケージに加えて64ビット版もあり、debパッケージも用意されていた(こちらは32ビット版のみ)。

デフォルトの日本語入力の切り替えは半角/全角キーかCtrl+Spaceキーなのだが、Ctrl+SpaceキーはEmacsのキーとかぶるので厳しい。ジャストシステムのサポートサイトを見ると、すでにFAQが公開されており、そこへShift+Spaceキーで切り替えるようにする方法が掲載されている。前バージョンではこの設定は起動スクリプトに記述したが、今回は /etc/iiim/js_triggerkeys.conf を以下のようにすることで対応できる。

Shift+space yes

旧バージョンのATOKも十分賢かったので、まだ使い始めて間がないこともあり、それほど大きな違いは感じない。それは単に私が使いこなせていないだけだろうけど、さらに変換精度が上がった気はする(もう旧バージョンがアンインストールされてしまっているので今更比較できない)。単漢字の変換の時に表示される「単漢字情報」は便利だと思った。

ところで、RHEL5ではiiimfがRPMパッケージでインストールされている状態で yum update などとするとiiimfをscimに置き換えようとしてしまう。これを防止するには、 /etc/yum.conf へ以下のように除外パッケージとして指定すればOK。

exclude=scim*

2007-04-10

RHEL5 で Xen を使って仮想化

最近 Xen 環境を再構築したら、以前とは少々事情が違ったので、ちょっと加筆・修正しました (209-03-03)。

Fedora Core 6 で Xen を使っているシステムを Red Hat Enterprise Linux v. 5 へ置き換えているのだけんども、まだ情報が少なくて FC6 ほど簡単にはいかなかった。。今回の目的は domain0、domainU ともに RHEL5 へ移行すること。

まず、domainU (ゲスト) のセットアップ。FC6 同様に virt-install や virt-manager を使って簡単にインストールができそうなのだが、問題はその際指定する install location で、FC6 ではここで HTTP や FTP サーバの URI を入力すればよかった。しかし、RHEL は HTTP や FTP で自由に公開されているわけではない。。。ドキュメントをみてみると、ここで NFS サーバを指定することもできるようなので、CD-ROM のイメージをマウントしてそれを NFS で共有することにした。 1 枚目だけでは途中でパッケージが見つからないというエラーが発生してしまうので、5 枚分 (x86 の場合) のファイルをすべて 1 カ所にコピーしてそれを使うことにした。1 枚目はまるごとコピーして、2 枚目以降は Server と VT ディレクトリをコピー (今回クラスタ機能は使わないので Cluster は無視) し、それを NFS で共有するとうまくいった。RHEL5.1 以降では DVD のイメージがあるのでそれを使えば簡単。 NFS の場合は install location へ以下のように指定する。

nfs:NFSサーバのホスト名またはIPアドレス:共有ディレクトリのパス

続いて、domainU (ゲスト) の RHEL を RHN に登録する方法について。 まさかこれらにもサブスクリプションが必要??などと費用的に心配になりながら Red Hat のサイトやドキュメントを読んでいると、RHN を通じてゲストの管理ができるようなことがかかれていた。試行錯誤の結果、以下の通り実行すればゲストでも RHN を使ってパッケージの追加やアップデートが可能になった。

  1. domain0 となるホストで「RHEL Virtualizationr」というチャンネルを購読する。インストール時に仮想化のパッケージ群を選択していたためか、これは最初から購読されていた。
  2. domain0 となるホストで「Red Hat Network Tools for RHEL Server」というチャンネルを購読する。更に、Domain0で「仮想化 」エンタイトルメントを割り当てる。
  3. 上記チャンネルに含まれる rhn-virtualization-host というパッケージを yum でインストール。
  4. rhn-virtualization-host をインストールすると、cron で定期的にゲストの情報が RHN へ送信される。
  5. ゲストにて RHN へ登録。このとき、rhn_register を使うと Installation Number を要求されてしまうのでだめ (=サブスクリプションが必要になる)。以下のように rhnreg_ks (rhn-setup パッケージ) を使って RHN のユーザ情報とプロファイル名を送信すれば登録完了。Domain0 で必要なチャンネルとエンタイトルメントの設定が整えば DomainU 上で rhn_register を実行すれば OK。
  6. あとはゲストでも yum で update や install ができるようになる。

仮想環境は RHN > システム > Virtual Systems で確認できる。ここへゲストを表示させるためにはホスト (domain0) へ rhn-virtualization-host を入れておく必要がある。また、ゲストを RHN へ登録すればここでもソフトウェアチャンネルの割り当てを確認できる。

2007-03-25

RHEL Desktop 5 への移行

メインのデスクトップ環境を RHEL WS 4 から RHEL Desktop 5 へ移行した。サブのデスクトップ環境は openSUSE で、この環境が快適なのでメイン環境も openSUSE にしようと思ったりもしたのだけんども、openSUSE は日本語フォントにアンチエイリアスをかけた状態が RHEL に比べてあまりきれいではないので今回はやめることにした。

RHEL はそんなにパッケージが多くない (RHEL5 で少し増えたが、それでも Fedora と比べるとずっと少ない)。RHEL4 の頃は Fedora Core からパッケージを借りて、XFce を使ったりもしていたのだけんども、これでは RHEL を使っているメリットがあまりないような気がしたので、今回はできる限り純正のパッケージを使うことにした。そのため、デスクトップ環境は GNOME になった。XFce の方が使いやすいし軽かったのだけど。。

気になった点をいくつか。

2007-03-15

RHEL5 リリース!

待ちに待った Red Hat Enterprise Linux 5 (RHEL5) がリリースされた模様。RHN から ISO イメージをダウンロードできる。

14 日といわれていたので、昨日から 1 時間おきくらいに RHN をチェックしていたのだけんども、先ほど 0:40 分頃に確認した際には「Download Software 」の一覧に現れていた。いや、もうかなり興奮気味です。

今までの ES のサブスクリプションでダウンロードできるようになったのは、当然ながら RHEL5。 32-bit x86、64-bit x86_64、Itanium、IBM POWER の 5 つのアーキテクチャが公開されている。ついでに ES のサブスクリプションで RHEL 2.1、3、4 の AS も入手可能になった様子。

一方、今までの WS のサブスクリプションでダウンロードできるようになったのは、Red Hat Enterprise Linux Desktop という製品だった。32-bit x86 と 64-bit x86_64 の 2 つのアーキテクチャが公開されている。ついでに WS のサブスクリプションで Red Hat Desktop 3 と 4 も入手可能になった。

とりあえずデスクトップ環境のアップグレードから先に行いたいので Desktop の方をダウンロード中なのだけんども、いつもに増してスピードが出ないので、それなりに時間が掛かりそう。

2006-11-20

RHEL5 Client Beta 2

もう待ちくたびれて最近は Fedora Core で遊んでいたりしていたのだけんども、やっぱり本命が出るとベータ版ながらうれしい。先日公開されたばかりの Red Hat Enterprise Linux (RHEL) 5 Client の Beta 2 をインストールしてみた。

まずは RHN から ISO イメージのダウンロード。Client はバイナリディスクが 6 枚分もあり、これを焼くのが面倒なので CD を焼く必要がない VMware 上で試した。インストールを開始してまもなく Installation Number というのを聞かれたので、ML でアナウンスされていた Installation Number を入力。ここで入力する文字は Beta 1 のとは異なる。 しかし、 Virtualization のナンバを入れたのに、 なぜか反映されず。。2006-12-09 追記: 反映されなかったのは恐らく PAE 非対応環境だったため。

まず印象的なのは壁紙などの赤色。GRUB の背景、起動 (rhgb)、ログイン画面、デスクトップ壁紙などが全部赤い。軽く使ってみた限りでは FC6 とそんなに変わらない気がする。

RHN に登録し、必要なサブスクリプションを割り当てれば RHN を通じてソフトウェアの入手ができるようになる。コマンドラインでの操作は RHEL4 までの up2date ではなく、yum になった。 xen を試してみようと思って、 yum install xen を試みても、パッケージが見つからない。emacs を入れようと思って yum install emacs もだめ。 emacs がないのは致命的 orz と思いながら RHN を見ていると、「Red Hat Enterprise Linux Desktop」というベースチャンネルの下に更にチャンネルがあり、 xen は「RHEL Desktop Virtualization」に、emacs は「RHEL Desktop Workstation」に含まれていた。Workstation の方には開発用パッケージが含まれている。これらのチャンネルにチェックを入れると yum で追加が可能になった。

2006-07-16

VMware Server で快適なテスト環境を

今まで VMware Workstatiosn 4.5 を使ってきたのだが、ホストが 2.6 系カーネルだと動作が怪しく、最近はあまり使わなくなってきてしまった。Workstation よりも高機能な VMware Server が無償で利用できるようになったので、そちらに移行することにした。今回はソフトウェアの動作確認やテスト環境として使っている低スペックの実機を VMware の仮想マシンへ移行するという目的でもあった。無駄に動いているマシンを減らし、仮想マシンにしてしまえば消費電力を抑えることができる。

VMware Server のホストとなるのは先日セットアップした SUSE Linux 10.1 の環境。 2006-05-28 に苦戦したやつで、メモリを 2GB 積んでいるのは複数の仮想マシンを立ち上げても快適に使えるようにするため。

SUSE Linux 10.1 へのインストールは難なく終了。ホストでは vmware というコマンドで操作や管理ができるコンソール (VMware Server Console) が立ち上がる。Workstation と異なるのは、コンソールを閉じても仮想マシンの動作に支障がないこと。 X を終了してしまっても問題ない。また、コンソールは他のマシンからも開くことができる。クライアントに VMware-server-console というパッケージを入れ、vmware-server-console で立ち上げることができる。ネットワーク経由とはいえ、割と快適に使える。ただし、X を立ち上げて大きめの動画を再生したりするのは向かない。少しはまったのは、ホストが SUSE の場合はこの際使うポートが異なるということ。接続の際、IP アドレス:904 というようにポートを指定しなければならない。

しばらく使って気付いた点をいくつか。

正直、かなり快適。ハードウェアに依存しないテストならこれで十分だし、低スペックなマシンを使うよりも、ある程度のスペックのホストで動かす仮想マシンの方がパフォーマンスが高い (その内容にもよるのだろうけど) 。

2006-02-26

XFce でパネルにタスクバーを表示

XFce は軽くて快適なのだが、最近になってひとつ気になる点があった。それは、タスクバーとパネルが表示されるため、デスクトップが狭くなってしまうということ。これをまとめることはできないのだろうか。タスクバーとパネルを一列に表示してそれっぽくしてみたのだけど、どうもイマイチ。

これを解決してくれるのが xfce4-taskbar-plugin。これを使えばパネルにタスクバーを表示できるようになる。どうせなら RPM でインストールしたい思って探してみると、Fedora Core の extra パッケージになっているので、ここの SRPM から作ることにした (XFce 本体もここの SRPM から rpmbuild したのだけど) 。

結果、とても快適になった。標準のタスクバーだと「常にタスクをまとめる」にチェックを入れなくても一定以上のウインドウを立ち上げると勝手にまとまってしまったのだが、このタスクバーだと「group options」を「never」にしておけばまとまることはない。

2006-01-14

APC AP9617 を apcupsd で利用する

ハードウェアは好きなのだけんども、使いこなせていないものが多い。テープドライブだってそうだし、今回の UPS 用拡張カードもそのうちのひとつ。

昨年 10 月、APC の UPS に同社の Network Management Card (AP9617) を取り付けたのだが、取り付けてウェブブラウザで管理画面を開いてみただけで、それ以外は試していない。これを使えば、シリアルケーブルで接続しなくても UPS の情報を取得できたり、メールや SNMP Trap でイベントを通知したりなんかもできる。なかなか高機能なのだ。

私は UPS との接続は、できる限りシリアルケーブルを利用している (UPS に多数のコンピュータを接続できるように Share UPS 8-Port Interface Expander を使用)。しかし、中にはシリアルポートに空きのないコンピュータもあるので、そんなときこそ AP9617 が役に立つ。まずは AP9617 の管理画面で SNMP の設定をする。 コミュニティ名、許可する IP アドレス、アクセスタイプを設定すればよい。

続いて、コンピュータ側の設定。ディストリビューションは Debian GNU/Linux 3.1。 apcupsd をインストールし、apcupsd.conf を書き換えてみる。

UPSCABLE ether
UPSTYPE snmp
DEVICE 192.168.XXX.XXX:161:APC:public

# DEVICE の書式は IPアドレス:ポート:MIB:コミュニティ名

(以下略)

しかし、プロセスは立ち上がるものの、情報が取得できていない様子。 /var/log/apcupsd.events を見てみると、、

Connection from 127.0.0.1 refused by tcp_wrappers.

なので、 /etc/hosts.allow に以下を追加。

apcupsd: 127.0.0.1

apcupsd を再起動し、 /sbin/apcaccess を実行すると、無事に情報が取得できることを確認。けっこうはまってしまった。ウェブ上に AP9617 と apcupsd の組み合わせ例が見つからなかったので、最初はだめかと思ったけど、やれやれ。

2005-10-22

VMware Player と Workstation を同一マシンに入れると?

VMware Workstation 4.5 for Linux を使っている。しかし、これは 2.6 系のカーネルに標準対応しておらず、ホスト OS を RHEL4 にしてからは動作があやしい (ゲストの OS については 2.6 でも問題ないようなのだけど)。しかも、このソフトのためだけに GTK+1 の動作環境を残しているという状態なので、できれば最新版にアップグレードしたい。しかし、それなりに費用がかかるので、仕方なしに使い続けていた。

slashdot.jp によると、無料で使える VMware Player が出たらしいので早速試してみることにした。Player では新たな仮想マシンを作ることはできないが、既存の仮想マシンのイメージを利用することができるという。

RHEL4 なので、RPM パッケージからインストールすることにした。ところが、VMware Workstation 4.5 と競合するといったメッセージが出てしまい、そのまま rpm コマンドでインストールすることができない。 --force を付けて無理矢理インストールしてみることにした。 vmware-config.pl で初期設定を行うと起動できる状態となった。インタフェイスはとてもシンプルで、 Workstation と比べると機能がとても少ない。サスペンドやスナップショット機能もない。

ここで既に入っていた Workstation を起動させてみようとしたが、起動不可能。 Workstation を上書きでインストールすると起動できるようになったが、今度は Player が起動不可。どうも同じ名前のファイルを使うらしいし、モジュールも競合するっぽい。 Player はあきらめることにした。 2 台目以降のマシンに入れてみるというのはよいかもしれないけど。

2005-10-10

RHEL4 のサブスクリプションが切れる

Red Hat Enterprise Linux (以下 RHEL) WS のサブスクリプションが切れてしまった。

# up2date-nox -u
This system may not be updated until it is associated with a channel.

Errata が出た分は既にアップデート済みで up2date する必要はないのだが、試してみるとこのとおり。ウェブブラウザで Red Hat Network にログインしても、チャンネルがないとかでパッケージはもちろん、 CD イメージもダウンロード不可能。先日 RHEL4 Update 2 が出てすぐに CD イメージをダウンロードしておいてよかった。。

米 Red Hat で買えば WS の Basic Edition が 179 ドル。 Basic Edition というのは、最も簡単なサポートしか受けられないものだが、もちろん 1 年間のアップデートは受けられる。しかし、テープドライブを 6 台ほど買っているうちに、少々厳しくなってしまった orz

RHEL4 に関しては Update 2 が出て間がないので、しばらくは大量の更新が出ることはないと思われる。たまに出るような Errata であれば、 SRPM からバイナリパッケージを作ってアップデートすれば問題ないだろう。もちろん、近いうちにはブスクリプションを購入する予定。もしこれが用途が公開サーバだったら、セキュリティ上こんなことを blog のネタにしたりはしないのだけど。。

Information

サイト内検索

けんども日記

直近 10 件
RSS
RSS 1.0
Home@けんどもネット
diary.php(v2): 2005-06-11
Copyright © 2003-2005 Kendomo.net.