-天気予報コム-

Flag counter

« 2010年8月 | トップページ | 2010年10月 »

2010年9月

LPICレベル2 202リベンジ計画発動

 前回ネタはこちら。
http://platon.cocolog-nifty.com/lovelovejank/2009/10/lpic-b04c.html

 今年は資格を全然取ってないのでそろそろと受験しようかと目論んでます。
 ターゲットはLPICレベル2。前回はこんな結果で2科目のウチ1科目(202)が不合格だったのでリベンジです。
http://platon.cocolog-nifty.com/lovelovejank/2009/03/lpic-level2-646.html

 次回休暇(11/4-11/16)で受験予定なので、結構残り時間が少ないです。いまからCLUB JAPANで参考書と問題集をEMSで送付依頼(只今送料半額セール中)しまいたがいつ届くのやら。多分、10月半到着でしょう。
 楽天で受験用のバウチャー(\15000)を注文ましたが、「2011年9月13日」まで有効なので受験は最悪次々回回しでも大丈夫です。が、1年一資格を目標にしているのでココはなんとしてもゲットしたいです。
 とりあえず、残業時間が減っている分目的意識を持って勉強に充当しようと考えてます。
 前回の試験で弱点はmailとDNSサーバ、Networking Configuration、System Security周りだと分かっているので、ココを集中して勉強するかな。
 ってかWebサーバとNetwork Troubleshooting以外はダメダメなんですけど(汗)。ま、出題範囲も変わっているので、対策も組み直さないとね。
 DNSサーバは今の仕事でも内部に構築が必要だと思っているし挑戦するかな。
 ともあれバウチャーが届き次第、早速受験の予約を入れるつもりです。

VIASOカードのサービス改悪(リボ払いでのポイント増加終了、海外旅行保険自動付帯終了、「モバイルSuica」&「SMART ICOCA」でのポイント付加除外)

 前回ネタはこちら。っていうか今回のネタも随分古いんですけど、実は。
http://platon.cocolog-nifty.com/lovelovejank/2009/03/viasoedy-9de6.html


VIASOカードのサービス改悪が続いてます。

「2009年12月ご請求分より、「リボ払い・分割払い」ご利用分の「ポイント2倍付与サービス」を終了させていただきます。」とのこと。
リンクはこちら
http://www.cr.mufg.jp/member/point/nicos/viaso/info_sv.html
魚拓はこちら
http://megalodon.jp/2010-0925-0625-33/www.cr.mufg.jp/member/point/nicos/viaso/info_sv.html


ポイントプログラム対象から『「Edy」チャージご利用分(2009年6月ご請求分より)、 「モバイルSuica」、「SMART ICOCA」ご利用分(2010年6月ご請求分より)』が除外されました。
リンクはこちら。
http://www.cr.mufg.jp/member/point/nicos/viaso/excluding.html
魚拓はこちら。
http://megalodon.jp/2010-0925-0625-55/www.cr.mufg.jp/member/point/nicos/viaso/excluding.html


 で、一番私にとって痛かったのが、これ。海外旅行保険自動付帯の終了。『2010年7月1日よりNICOSカード(※)「海外旅行傷害保険サービス」は日本出国前にNICOSカードで海外旅行代金等をお支払いいただくことが必要となりました。また、一部の保険金額について引下げとさせていただきました。』とのこと。
 海外旅行保険自動付帯が目的でこのカードに加入したのに、このサービスを止められたらカードを使う意味がなくなってしまいます。

リンクはこちら。
http://www.cr.mufg.jp/member/service/life/insurance/nicos/injury_ab.html
魚拓はこちら。
http://megalodon.jp/2010-0925-0633-34/www.cr.mufg.jp/member/service/life/insurance/nicos/injury_ab.html

 まぁ、 別に持っているクレジットカードは旅行の支払いが当該カードじゃなくても自動付帯するので、これを使うことになるかな……。
http://www.aplus.co.jp/kojin/guide/h_kaigai.html

年会費無料で海外旅行保険自動付帯に対応するクレジットカードをまた探さないとなぁ……。

自作タバスコ

 最近自作してなかったのですが、街で青唐辛子ペーストを売っていたので、塩とりんご酢を足してチリペッパーソース、一般的な商標名で言うところのタバスコを作ってみました。8週間寝かせたらできあがりのようです。まぁ、チリペッパーソースのストックはあるので別に必要なかったのですけどパソコンに限らず自作が趣味なのでやってみましたという感じです。

Cimg2598


あと、おまけ。先日塀の中からお出かけする機会があったので、そのときの写真です。
現場事務所の食堂の昼飯。米がタイ米でしたが、料理のお味は悪くありませんでした。
Cimg2601


CAMPへの帰り道の風景。黄色い点はスイカサイズのマクワウリの模様です。私は余り好きじゃないので食べてませんが、国道沿いのそこかしこで売っているのを見かけます。
Cimg2604

Adobe Flash Playerのオフラインインストールファイル(install_flash_player_ax.exe, install_flash_player.exe)

 たくさんのパソコンにAdobe Flash Playerをインストールする際、1台毎にダウンロード&インストールをするのは面倒です。また、FirefoxでAdobeのサイトから直接インストールしようとすると余計なプラグインを入れようとしてきてウザいです。まぁ、いつものようにオフラインインストール用ファイルネタですわ。

 ってことで、Windows 7/Vista/XP/2008/2003/2000用インストールファイルの直リンを張っておきます。なお、2010/09/21時点(ver 10.1.85.3)でダウンロード可能なだけであって、今後リンク切れにる可能性もあるので悪しからず。

●Internet Explorer用
http://fpdownload.adobe.com/get/flashplayer/current/install_flash_player_ax.exe

●Internet Explorer以外のブラウザ用
http://fpdownload.adobe.com/get/flashplayer/current/install_flash_player.exe

以上、備忘録でした。

<2011/10/21追記>
Flash ver11からは64bit版も正式サポートされてます。これに伴い、32bit版と64bitがそれぞれ上記と異なる名称で提供されているようです。なお、64bit版オフラインファイルには32bit版用も含まれているようですので、Windows7などでOSが64bit版の場合は32bit版オフラインファイルを入れる必要はなく、64bit版オフラインファイルのみのインストールでOKのようです。

●Internet Explorer用(32bit)
http://fpdownload.adobe.com/get/flashplayer/current/install_flash_player_ax_32bit.exe

●Internet Explorer以外のブラウザ用(32bit)
http://fpdownload.adobe.com/get/flashplayer/current/install_flash_player_32bit.exe

●Internet Explorer用(64bit)
http://fpdownload.adobe.com/get/flashplayer/current/install_flash_player_ax_64bit.exe

●Internet Explorer以外のブラウザ用(64bit)
http://fpdownload.adobe.com/get/flashplayer/current/install_flash_player_64bit.exe

<2012/06/20追記>
またリンクが変わったっぽいですな。
●Internet Explorer用
http://fpdownload.adobe.com/get/flashplayer/current/support/install_flash_player_ax.exe

●Internet Explorer以外のブラウザ用
http://fpdownload.adobe.com/get/flashplayer/current/support/install_flash_player.exe

●ダウンロードページ
自己解凍形式だけでなくmsi形式などもありますな。
http://www.adobe.com/jp/products/flashplayer/distribution3.html

●ダウンロードページ(英文)
http://www.adobe.com/products/flashplayer/distribution3.html

Adebeのドメインでなく、macromediaドメインでのリンクもありました。
●Internet Explorer用(64bit)
http://fpdownload.macromedia.com/get/flashplayer/current/licensing/win/install_flash_player_11_active_x_64bit.exe

●Internet Explorer以外のブラウザ用(64bit)
http://fpdownload.macromedia.com/get/flashplayer/current/licensing/win/install_flash_player_11_plugin_64bit.exe

●Internet Explorer用(32bit)
http://fpdownload.macromedia.com/get/flashplayer/current/licensing/win/install_flash_player_11_active_x_32bit.exe

●Internet Explorer以外のブラウザ用(32bit)
http://fpdownload.macromedia.com/get/flashplayer/current/licensing/win/install_flash_player_11_plugin_32bit.exe

Untangle を導入してみたその17(日次統計用SQLを書いてみた)

 前回ネタはこちら。
 http://platon.cocolog-nifty.com/lovelovejank/2010/09/untangle-16arp-.html

 現行のUntangle 7.4だと統計データで日次の通信先(データ量・セッション数)ベスト10は表示されるのですが、11位以下は表示されません。以前(7.3系)は確かこれもちゃんとデータを取れてたのですが、何故か改悪されています。異常に通信量の多いホストを見つけてブロックする側としてはこの機能が使えなくなったのは痛いです。というかベスト10だけだとデータとして全然意味がないです、ホント。

 ということで、直接データベースであるPostgreSQLに接続してこれに相当するデータを取得できないか試行錯誤してみました。

 ということで正確性は保証しませんが、以下の方法で私が欲しい情報が得られたっぽいです。

●特定日におけるホスト毎の通信データサイズを降順に表示
SELECT host, SUM(content_length) FROM n_http_evt_req
WHERE TO_CHAR(time_stamp, 'yyyy-mm-dd') = '2010-09-19' AND
content_length <> 0
GROUP BY host ORDER BY SUM(content_length) DESC;


●特定日におけるホスト毎のアクセス回数を降順に表示
SELECT DISTINCT host, COUNT(host) FROM n_http_evt_req
WHERE TO_CHAR(time_stamp, 'yyyy-mm-dd') = '2010-09-19' AND
content_length <> 0
GROUP BY host ORDER BY COUNT(host) DESC;

 これを調査対象の日付を引数に取るスクリプトを作れば完璧です。あとpsql -A -F, -U postgres uvmのようにすればcsv出力に可能なようです。-Aは桁揃えなし、-Fセパレータの指定とのこと。
 さて、時間が出来ればスクリプトもアップロードしますかね。


 あと日次統計でポート番号毎のセッション数も同じように改悪されてるので、これも調査してみました。確証はないけど、以下でいいような気がします。

●特定日における宛先ポート番号毎のセッション数を降順に表示

SELECT s_server_port, COUNT(s_server_port)
FROM pl_endp
WHERE TO_CHAR(time_stamp, 'yyyy-mm-dd') = '2010-09-19'
GROUP BY s_server_port ORDER BY COUNT(s_server_port) DESC;

●特定日における宛先IPアドレス毎のセッション数を降順に表示
SELECT s_server_addr, COUNT(s_server_addr)
FROM pl_endp
WHERE TO_CHAR(time_stamp, 'yyyy-mm-dd') = '2010-09-19'
GROUP BY s_server_addr ORDER BY COUNT(s_server_addr) DESC;

 ただ、pl_endpのc_client~とs_client~の違い及びc_server~とs_server~の違いがイマイチよく分かりません。誰か教えてー。テーブル構成はこんな感じなんだけど。

uvm=# \d pl_endp
Table "events.pl_endp"
Column | Type | Modifiers
----------------+-----------------------------+-----------
event_id | bigint | not null
time_stamp | timestamp without time zone |
session_id | integer |
proto | smallint |
client_intf | smallint |
server_intf | smallint |
c_client_addr | inet |
s_client_addr | inet |
c_server_addr | inet |
s_server_addr | inet |
c_client_port | integer |
s_client_port | integer |
c_server_port | integer |
s_server_port | integer |
policy_id | bigint |
policy_inbound | boolean |
Indexes:
"pl_endp_pkey" PRIMARY KEY, btree (event_id)
"pl_endp_sid_idx" btree (session_id)
"pl_endp_ts_idx" btree (time_stamp)

2010/09/17今日のスキクダ買い物戦利品

 昨晩12時まで呑んで、その後事務所敷地内を3周散歩して、入浴して、読書もこなしてから寝たにもかかわらず、ちゃんと朝起きれました。いや、運動始めたのと残業減らしてる賜ですわ。

 ということで、今日の買い物戦利品。

・鶏の肝200g
→先日パリで買ったラズベリーブランデーがカメムシの臭いがする不味さだったので、これを臭み抜きに使って、醤油煮を作って晩に食べる予定。
・ハンバーグ1個
→肝と同じ店で買った。
・練り物風ソーセージ60DA×2


・青唐辛子ペースト
→ゆずの皮を入れればほぼ柚胡椒。
・唐辛子の漬け物
Cimg2588

・チキンランチョンミート缶詰
→要は鶏版SPAMですな。
Cimg2587

・もやし瓶詰150g(固体分) 175DA×2
・ホールマッシュルーム瓶詰め205g 135DA
Cimg2589

・3.5インチSATAHDD外付けケース1200DA
→持ってきたケースorHDDの調子がおかしいのでチェック用に購入。HDD死亡の前兆なら……orz。
Cimg2592

・スナック菓子2袋
→味はとんがりコーン風、見かけは投げ輪あるいはチビノワ風。
Cimg2590

・ムール貝缶詰250g(固体分)
・小エビ缶詰121g(固体分)
・鶏肉ソーセージ缶詰180g(固体分)
Cimg2594

・ネギ2本
→昼飯の冷や麦用
・セロリ1束
Cimg2591

・4個口延長タップ250DA
→仕事用に購入。

 あと、買い物バス停車場に最寄りのカフェを教えてもらったので、新たな時間つぶし場所を発見しました。

さて、今日は昼夜共自炊して、読書して、HDDの整理もしようかなぁ。

Untangle を導入してみたその16(arpテーブルログの整理)

 前回ネタはこちら。
http://platon.cocolog-nifty.com/lovelovejank/2010/09/untangle-15webf.html

 …ですが、直接関係あるのはこちら。arpテーブルを定期的にファイルに吐き出すスクリプトのネタです。
http://platon.cocolog-nifty.com/lovelovejank/2010/09/untangle-14cron.html

 「Untangle を導入してみたその14(cronでarpテーブルを定期的に取得)」では30分毎にUntangleサーバにてarpテーブルをファイルに吐き出すようにしただけです。これだけで放置するとログディレクトリがファイルだらけになり、整理が必要になります。
 ということで、前日のarpテーブルログファイル(YYYYmmdd-HHMMSS.log)をtar.gzに固めて各ログファイルは削除するというスクリプトを作成しました。とりあえずテストはしましたが、実際にcronにて実行はまだ行っていません。ということで、また例によってバグがあるかもしれないので、真似するのは自己責任でよろしくです。


/root/arp_log/make_arp_archive.sh
----------------------------------------
#!/bin/sh
# filename: make_arp_archive.sh
# to make tar.gz archive file from yesterday arp log files
# and delete them

curdir="/root/arp_log/"
yyyymmdd=`date -d '1 days ago' '+%Y%m%d'`
#yyyymmdd=`date '+%Y%m%d'`
#echo ${yyyymmdd}
cd $curdir
target=`ls ${yyyymmdd}*.log`
result=$?
if [ $result != 0 ] ;then
exit -1
fi
tar cvf ${yyyymmdd}_arp.tar.gz $target
if [ $? = 0 ] ;then
rm -f ${yyyymmdd}*.log
# ls ${yyyymmdd}*.log
fi
----------------------------------------

cronにはこんな感じで毎日深夜00:30に実行するようにしました。

# crontab -l
# m h dom mon dow command
0 * * * * /root/arp_log/chk_arp.sh
30 * * * * /root/arp_log/chk_arp.sh
30 0 * * * /root/arp_log/make_arp_archive.sh

さて、どうなることやら。

Untangle を導入してみたその15(WebFilterの統計ログチェック支援スクリプトを作成)

 前回ネタはこちら。
http://platon.cocolog-nifty.com/lovelovejank/2010/09/untangle-14cron.html

 Untangleでは毎日、毎週、毎月など定期的に統計ログの出力が可能です。私が使用している環境では毎日ログ出力を行い不審なダウンロードが行われていないか毎朝、前日のログを確認しています。

 具体的には[Reports]→[View Reports]→[Web Filter]で[All Events]のタブをクリックしてしばし待つと、http通信のログが全部表示されます。ここで、[Download Data]をクリックするとcsv形式でそのログをダウンロードできます。このファイルをエディタの検索機能で「,http://.*/[^/]{1,16}\.(exe|pif|scr|cmd|bat|zip|rar),」のような正規表現で、ウイルスっぽいものをダウンロードしていないか見てました。しかし、このcsvファイルのサイズは200MB弱、行数で言ったら100万行以上。検索でF3をぽちぽち押しているだけで随分時間が掛かります。
 ということで、Linux上でシェルスクリプトとawkを使って、怪しいurlのみ抽出し、同じurlは1行にマージすることにしました。
 まず、検索用awk設定ファイルはこんな感じ。

webfilter-event-extract.awk

----------------------------------------
# to extract doubtful donwload log
BEGIN{
FS=","
find_cnt=0
find_line=0
}
{
if($6 ~ /\.(exe|pif|scr|cmd|bat|zip|rar)$/){
doubt_url[$6]++
find_line++
}
}
END{
printf("find lines:%d\n", find_line)
for(key in doubt_url){
printf( "%000d counts: %s\n", doubt_url[key], key)
}
}
----------------------------------------

で、これを呼び出して実際に抽出ログを作るシェルスクリプトはこちら。
webfilter-event-extract.sh

----------------------------------------
# How to use
# webfilter-event-extract.sh YYYY-M-D-untangle-node-webfilter-events.csv
# put webfilter-event-extract.awk in same directory.
# output file: YYYY-M-D-untangle-node-webfilter-events-extracted.log


hoge=$1
pattern=./webfilter-event-extract.awk
awk -f $pattern $1 > ${hoge%.csv}-extracted.log
----------------------------------------

 簡易ヘルプにも書いてある通り、webfilter-event-extract.shとwebfilter-event-extract.awk、それに抽出元となる2010-9-15-untangle-node-webfilter-events.csvを同じディレクトリ配下に置いて、コマンドプロンプトにて以下のように実行すると2010-9-15-untangle-node-webfilter-events-extracted.logというファイルが作成されます。


# webfilter-event-extract.sh 2010-9-15-untangle-node-webfilter-events.csv

ま、役に立つ情報か分かりませんが、メモ書き程度に情報を残しておきます。ちなみに私が実際に使っているwebfilter-event-extract.awkについては、microsoft.comなど明らかに怪しくないサイトへのアクセスについては省略するように記述を追加してます。

例えばこんな感じ。





if($6 ~ /^http:\/\/[^\/]*windowsupdate\.com\//){
}
else if($6 ~ /\.(exe|pif|scr|cmd|bat|zip|rar)$/){
doubt_url[$6]++
if( $5 != "False" ){
ok_ng[$6] = $4
}else{
ok_ng[$6] = "PASS"
}
find_line++
}



<2010/09/22追記>
 WebコンソールからダウンロードするYYYY-M-D-untangle-node-webfilter-events.csvとメールで送付された日次ログに含まれるevent.csvとでは書式が若干違うようです。後者はカンマ区切りのカラムが""(ダブルクオーテーアション)で囲われています。
 上記で記載しているものは前者では上手く動作するけど、後者では上手く動作しません。
 ということで、event.csv用に若干改造したスクリプトを挙げておきます。

webfilter-event-extract2.awk

----------------------------------------
# to extract doubtful donwload log
BEGIN{
FS=","
find_cnt=0
find_line=0
}
{
if($6 ~ /\.(exe|pif|scr|cmd|bat|zip|rar)"$/){
doubt_url[$6]++
find_line++
}
}
END{
printf("find lines:%d\n", find_line)
for(key in doubt_url){
printf( "%000d counts: %s\n", doubt_url[key], key)
}
}
----------------------------------------

…何のことはない、正規表現の$記号(行末を意味する)の前に"を1つ足しただけです。
あと応用編の以下の記述もこんな感じになります。同じく正規表現の^記号(行頭を意味する)の後に"を1つ足しただけです。

<変更前>

if($6 ~ /^http:\/\/[^\/]*windowsupdate\.com\//){

<変更後>

if($6 ~ /^"http:\/\/[^\/]*windowsupdate\.com\//){

 自動判別するようにしてもいいのですが、面倒なので今回はパスです。

HP iPAQ Voice Messengerのハードリセットの方法

 前回関連ネタはこちら。
http://platon.cocolog-nifty.com/lovelovejank/2010/05/2010ip-0e8e.html

 結局、HP iPAQ Voice Messengerを買いました。最初の1日はソフトキーと変則qwertyキーと使いにくいカーソルキーには苦労しました。が、まぁ何とか慣れました。
 今はアルジェリアで買った個人用SIMカード(NEDJMA)を突っ込んでいます。電池の持ちが悪いのが一番の泣き所です。あと、充電に掛かる時間もこれまた遅い。GPS、802.11bg対応と面白いデバイスなんですが、待ち受けのみ、無線LAN&Bluetooth共にOFFでGSM圏設定に固定しても電池が2日で要充電なのはいただけません。


 まぁそれはさておき、以下のページを参考にして日本語化、せめて日本語フォントの表示だけでも出来ればなぁと思い挑戦。
http://pocketgames.jp/blog/?page_id=2874
http://itsa.blog.so-net.ne.jp/2008-11-13


 その結果、2つめのリンクにも書いてましたが、レジストリエディタでキー配置を換えるまで再起動しちゃダメなのに、やってしまいました。おかげで起動しても全くキー操作を受け付けなくなりました。まぁ、大事なデータはまだないので不幸中の幸いでしたが。
 ということで、工場出荷時設定、いわゆるハードリセットの方法を検索しました。しっかり公式ページに載っています。
http://h20000.www2.hp.com/bizsupport/TechSupport/Document.jsp?lang=en&cc=us&taskId=110&prodSeriesId=3806508&prodTypeId=215348&objectID=c01612263

 6キーを押しながら起動で、ハードリセットをするかどうか聞いてくるので1を選択すると初期化されます。ちなみに1を押しながら起動したらUSBデバイステストだったか何だかが起動しました。他にも隠しコマンドがありそうです。まぁ、今のところそこまでごりごりいじりまくるつもりはないですけど。それに日本語用キー配列設定を調べるのも面倒だし。

Windows Live系アプリケーションのオフラインインストーラ

 Windows Live系アプリケーションは大抵、アプリのダウンロードをするだけのインストーラ(wlsetup-web.exe)をまずダウンロードし、このプログラムがMicrosoftのサーバに接続してインストール必要なファイルをダウンロードする仕組みになっているようです。
 ということで、複数台のパソコンにWindows Liveメールをインストールするときは面倒だったり、オフラインで使用するパソコンにWindows フォト ギャラリーをインストールするときには困難だったりします。

 前からこの問題に関しては気になっていたので、一括してダウンロードするファイルがないか探してみたところ……ありました。
http://usiwin.spaces.live.com/blog/cns!9663D58DD38AE0E3!1673.entry?sa=89581268

上記のページにリンクがあったのでぺたぺた。
日本語版
http://g.live.com/1rebeta3/ja/wlsetup-all.exe
英語版(2010/09/06時点ではバージョン情報:14.0.8117.416のファイルがダウンロードされました)
http://g.live.com/1rewlive3/EN/wlsetup-all.exe
仏語版
http://g.live.com/1rebeta3/fr/wlsetup-all.exe

でも、リンクを見るとベータ版っぽいです。なので、wlsetup-all.exeをキーに再度google先生に質問しました。これだとベータ版っぽくないリンクです。
日本語版
http://g.live.com/1rewlive3/ja/wlsetup-all.exe
英語版
http://g.live.com/1rewlive3/EN/wlsetup-all.exe
仏語版
http://g.live.com/1rewlive3/fr/wlsetup-all.exe

ま、ご使用は計画的に、もとい自己責任で。以上、備忘録でした。

<2011/11/18追記>
2011年11月時点での最新版である、Windows Live Essentials 2011のオフライン用インストールファイルに関しては、新たに記事を書いたのでそちらを参考にして下さい。なお、上述のオフラインインストーラは2009版です。
http://platon.cocolog-nifty.com/lovelovejank/2011/11/windows-live201.html

VMware Player内のCentOS 5.2を5.5にアップデートと64bit版Google Chromeインストールに失敗

 前回関連ネタはこちら。
http://platon.cocolog-nifty.com/lovelovejank/2009/05/centos-5253-b09.html

 今回はVMWare Playerで動く仮想マシンの64bit版CentOS 5.2を最新の5.5に更新しました。手順は以下のページと同じでOKでした。
http://pub.ne.jp/KzChannel/?entry_id=2501095

で、更新後のコマンド実行結果はこんな感じ。
$ lsb_release -a
LSB Version: :core-3.1-amd64:core-3.1-ia32:core-3.1-noarch:graphics-3.1-amd64:graphics-3.1-ia32:graphics-3.1-noarch
Distributor ID: CentOS
Description: CentOS release 5.5 (Final)
Release: 5.5
Codename: Final
$ cat /etc/redhat-release
CentOS release 5.5 (Final)
$ uname -a
Linux localhost.localdomain 2.6.18-194.11.3.el5 #1 SMP Mon Aug 30 16:19:16 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux

 ちなみにホストPCはWindows 7 Pro 64bit版プリインストールのThinkPad T400(Core2Duo T9600@2.8GHz)です。そーいや、T400で1枚4GBのメモリを認識するとか言う話なので載せたいなx。VMWareでVistaを動かすとメモリをバカ食いするんで、他の作業もしていると4GBでもちょっと心細い感じですから。

 で、調子に乗ってGoogle Chromeの64bit版をインストールに挑戦。
$ wget http://dl.google.com/linux/direct/google-chrome-stable_current_x86_64.rpm
# rpm -ivh google-chrome-stable_current_x86_64.rpm
警告: google-chrome-stable_current_x86_64.rpm: ヘッダ V3 DSA signature: NOKEY, key ID 7fac5991
エラー: 依存性の欠如:
lsb >= 3.2 は google-chrome-stable-6.0.472.53-57914.x86_64 に必要とされています
xdg-utils は google-chrome-stable-6.0.472.53-57914.x86_64 に必要とされています

 パッケージが足りないと怒られました。

で、lsbについてはインストールされてないよう。
#rpm -q lsb
パッケージ lsb はインストールされていません。

と思ったら、バージョン3.1が入っているけどこれじゃ3.2じゃないのでダメだと言うことのようです。

# yum install lsb
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
* addons: centos.fastbull.org
* base: centos.fastbull.org
* extras: centos.fastbull.org
* updates: centos.fastbull.org
Setting up Install Process
Package redhat-lsb-3.1-12.3.EL.el5.centos.x86_64 already installed and latest version
Package redhat-lsb-3.1-12.3.EL.el5.centos.i386 already installed and latest version
Nothing to do

で、もう一つの怒られたパッケージについてはこんな感じでインストール成功。

# yum install xdg-utils
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
* addons: centos.fastbull.org
* base: centos.fastbull.org
* extras: centos.fastbull.org
* updates: centos.fastbull.org
Setting up Install Process
Resolving Dependencies
--> Running transaction check
---> Package xdg-utils.noarch 0:1.0.2-2.el5.centos set to be updated
--> Finished Dependency Resolution

Dependencies Resolved

===============================================================================
Package Arch Version Repository Size
===============================================================================
Installing:
xdg-utils noarch 1.0.2-2.el5.centos extras 52 k

Transaction Summary
===============================================================================
Install 1 Package(s)
Upgrade 0 Package(s)

Total download size: 52 k
Is this ok [y/N]: y
Downloading Packages:
xdg-utils-1.0.2-2.el5.centos.noarch.rpm | 52 kB 00:01
Running rpm_check_debug
Running Transaction Test
Finished Transaction Test
Transaction Test Succeeded
Running Transaction
Installing : xdg-utils 1/1

Installed:
xdg-utils.noarch 0:1.0.2-2.el5.centos

Complete!

 さて、lsb 3.2についてはどうすべかなぁ。ま、別にCentOSを常用する訳じゃないし、Firefoxも入っているので別に困らないんですが。

Thunderbird 3.1.2でYahoo!メールが取れない。

 昨日まで普通に受信できていたのに、Thunderbird 3.1.2でYahoo!メールが取れないようになってしまいました。

こんなエラー。
Yahoo_error


解決方法は書いている通り、「サーバにメールを残す」をOFFにせよとのこと。って、大容量のWebメールは消さないから便利なのにはいそうですかと指示の通りの設定には出来ませんよ。

確認したらpop.mail.yahoo.co.jpでこのエラーが出ました。ybbpop.mail.yahoo.co.jpでも同じく出ました。
さーてどうするべきかなぁ。

<2010/09/04追記>
さっき試したら、無事に受信できました。何がダメだったんだろ?? また再発するかもしれないしなぁ。

Untangle を導入してみたその14(cronでarpテーブルを定期的に取得)

 前回ネタはこちら。
http://platon.cocolog-nifty.com/lovelovejank/2010/08/untangle-13spam.html

 Untangleのログでは基本的にIPアドレスベースでしか各ホスト(パソコンやネットワーク機器)を確定できません。しかし、DHCP環境だと時間帯によってホストに振られるIPアドレスが変わってきます。で、悪さをしたパソコンを確定するのにはIPアドレスだけではなく、MACアドレスを知る必要があります。が、これをその都度手動で取得するのも正直面倒くさい訳です。

 ということでコマンドを定期実行するcronを利用してarpコマンドを定期実行することにしました。
arpコマンドの実行結果をファイルに出力するシェルスクリプトはこんな感じ。arpを取得した時間も入れておきます。余談ですが、ここでなぜか時間が2時間遅かったのに気付いたので、Untangle を導入してみたその12に追記をして時間表示を正しく設定しました。

# cat chk_arp.sh
#!/bin/sh
now=`date '+%Y%m%d-%H%M%S'`; date > $now.log ; arp >> $now.log

で、このコマンドをchmod 744 chk_arp.shってな感じで実行可能に設定。
その後、crontab -eを実行してcronテーブルを編集。で、以下のような設定にしました。毎時0,30分ごとに上記のスクリプトを実行します。

# crontab -l
# m h dom mon dow command
0 * * * * /root/arp_log/chk_arp.sh
30 * * * * /root/arp_log/chk_arp.sh

 ま、あまりこのデータを使って悪さをする犯人捜しをしたくないですけど……。なお、このarpの出力結果だとIPアドレスやMACアドレスでソートされているわけではないので、気が向いたらスクリプトに手を加えてログを見やすくしようと考えてますが、今日はここまで。

<2010/09/02追記>
スクリプトでパスの指定をしていなかったので、ログが/rootに吐かれていました。なので、少々修正。
# cat chk_arp.sh
#!/bin/sh
cd /root/arp_log
now=`date '+%Y%m%d-%H%M%S'`
date > /root/arp_log/$now.log
arp >> /root/arp_log/$now.log

 でも、手動で実行したらうまくarpの結果がログに入るんだけど、自動実行の時はdateコマンドの結果しか入ってないんだよなぁ。何とかせねば。

<2010/09/04追記>
arpコマンドが正常に実行されていない原因が判明しました。フルパスで書く必要があるようでした。いやいや、お恥ずかしい。

# cat chk_arp.sh
#!/bin/sh
cd /root/arp_log
now=`date '+%Y%m%d-%H%M%S'`
date > /root/arp_log/$now.log
/usr/sbin/arp >> /root/arp_log/$now.log

« 2010年8月 | トップページ | 2010年10月 »

無料ブログはココログ
2017年7月
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31