Dionaeaを改変してNmapによる検出を回避する
Dionaeaは低対話型のハニーポットであり,本物"そっくり"のサービスをエミュレートするため,本物とはわずかに異なる挙動を取ることがある.有名なネットワークスキャンツールであるNmapはそういったわずかな挙動の違いを突いてハニーポットを検出することができる.以下のようにNmapに-sV
や-A
オプションを付けてスキャンを行うとDionaeaが検出される.
$ nmap -sS -sV AAA.BBB.CCC.DDD Starting Nmap 6.46 ( http://nmap.org ) at 2015-01-30 07:08 Asi Nmap scan report for ec2-AAA-BBB-CCC-DDD.us-west-2.compute.amazonaws.com (AAA.BBB.CCC.DDD) Host is up (0.31s latency). Not shown: 988 closed ports PORT STATE SERVICE VERSION 21/tcp open ftp Dionaea honeypot ftpd 22/tcp open ssh OpenSSH 5.3 (protocol 2.0) 42/tcp open tcpwrapped 80/tcp open http 111/tcp open rpcbind 2-4 (RPC #100000) 135/tcp open msrpc ? 443/tcp open ssl/https ? 445/tcp open microsoft-ds Dionaea honeypot smbd 1433/tcp open ms-sql-s Dionaea honeypot MS-SQL server 3306/tcp open mysql MySQL 5.0.54 5060/tcp open sip (SIP end point; Status: 200 OK) 5061/tcp open ssl/sip-tls ?
攻撃者に自分がハニーポットであることがばれてしまうと,攻撃者がそれ以降の攻撃をやめてしまうという問題がある.そこでDionaeaのソースコードを改変して挙動を調整し,Nmapによる検出を回避する.
まずは,NmapがどのようにしてDionaeaを検出しているかを調査する.Nmapはハニーポット特有の挙動を示すシグネチャを保持しており,スキャンの結果とシグネチャを比較してハニーポットを検出する.そのシグネチャが収められているファイル(nmap-service-probes)を以下のURLからダウンロードしてくる.
$ cat nmap-service-probes |grep -i dionaea match ftp m|^220 Welcome to the ftp service\r\n| p/Dionaea honeypot ftpd/ match http m|^HTTP/1\.0 200 OK\r\nContent-type: text/html; charset=utf-8\r\nContent-Length: 204\r\n\r\n<!DOCTYPE html PUBLIC \"-//W3C//DTD HTML 3\.2 Final//EN\"><html>\n<title>Directory listing for /</title>\n<body>\n<h2>Directory listing for /</h2>\n<hr>\n<ul>\n<li><a href=\"\.\./\">\.\./</a>\n</ul>\n<hr>\n</body>\n</html>\n$| p/Dionaea honeypot httpd/ match microsoft-ds m|^\0...\xffSMBr\0\0\0\0\x98\x01\x40\0\0\0\0\0\0\0\0\0\0\0\0\xff\xff\x40\x06\0\0\x01\0\x11\x07\0\x03\x01\0\x01\0\0\x10\0\0\0\0\x01\0\0\0\0\0\xfd\xe3\0\0..........\x00\x34\0W\0O\0R\0K\0G\0R\0O\0U\0P\0\0\0H\0O\0M\0E\0U\0S\0E\0R\0-\0.\0.\0.\0.\0.\0.\0\0\0|s p/Dionaea honeypot smbd/ match honeypot m|^HTTP/1\.0 200 OK\r\nAllow: OPTIONS, GET, HEAD, POST\r\nContent-Length: 0\r\nConnection: close\r\n\r\n| p/Dionaea Honeypot httpd/ match honeypot m|^SIP/2\.0 200 OK\r\nContent-Length: 0\r\nVia: SIP/2\.0/TCP nm;branch=foo\r\nFrom: sip:nm@nm;tag=root\r\nAccept: application/sdp\r\nTo: sip:nm2@nm2\r\nContact: sip:nm2@nm2\r\nCSeq: 42 OPTIONS\r\nAllow: REGISTER, OPTIONS, INVITE, CANCEL, BYE, ACK\r\nCall-ID: 50000\r\nAccept-Language: en\r\n\r\n| p/Dionaea Honeypot sipd/ match ms-sql-s m|^\x04\x01\x00\x2b\x00\x00\x00\x00\x00\x00\x1a\x00\x06\x01\x00\x20\x00\x01\x02\x00\x21\x00\x01\x03\x00\x22\x00\x00\x04\x00\x22\x00\x01\xff\x08\x00\x02\x10\x00\x00\x02\x00\x00| p/Dionaea honeypot MS-SQL server/
NmapはDioneaで動作するサービスのうち,FTP, HTTP, SMB, MSSQL, SIPについてのシグネチャを持っていた.それぞれに対して対策を行う.
FTP
FTPでは,FTP接続時に表示される"220 Welcome to the ftp service"というバナーの文字列のみをチェックしている模様.このバナーを既存のFTPサーバ(今回はMicrosoft FTP)の中から適当なものを選び書き換えると良い.具体的には/opt/dionaea/lib/dionaea/python/dionaea/ftp.py
の227行目を以下のように変更する.
self.reply(WELCOME_MSG, "Welcome to the ftp service") ↓ self.reply(WELCOME_MSG, "Microsoft FTP Service")
HTTP
HTTPでは,HTTPヘッダーとHTMLのソースコードをチェックしている模様.Dionaeaの/opt/dionaea/var/dionaea/wwwroot
下にindex.htmlを置いておくと80番ポートに接続した際にこのページが表示されることになっている.適当にHTMLファイルを置いてさえすればNmapの検出は回避することができるのであとはお好みで.
SMB
SMBの"SMB Negotiate Protocol Response"に含まれる"OemDomainName"と"ServerName"の値をチェックしているようなので,/opt/dionaea/lib/dionaea/python/dionaea/smb/include/smbfields.py
の690行目と693行目を次のように変更する.
ConditionalField(UnicodeNullField("OemDomainName ", "WORKGROUP"), lambdax: not x.Capabilities & CAP_EXTENDED_SECURITY), ConditionalField(UnicodeNullField("ServerName ", "HOMEUSER-3AF6FE"), lambda x: not x.Capabilities & CAP_EXTENDED_SECURITY), ↓ ConditionalField(UnicodeNullField("OemDomainName ", "MIDOMINIO"), lambdax: not x.Capabilities & CAP_EXTENDED_SECURITY), ConditionalField(UnicodeNullField("ServerName ", "EQUIPO-TEST"), lambda x: not x.Capabilities & CAP_EXTENDED_SECURITY),
MSSQL
MSSQLデータベースに接続する際のpre-login TDS package (Tabular Data Streams)の情報をチェックしている模様.Token Typeの値が0x00になっているので,これを0x01に変更する./opt/dionaea/lib/dionaea/python/dionaea/mssql/mssql.py
の151行目を次のように書き換える.
r.VersionToken.TokenType = 0x00 ↓ r.VersionToken.TokenType = 0x01
変更後のスキャン結果
$ nmap -sS -sV AAA.BBB.CCC.DDD Starting Nmap 6.46 ( http://nmap.org ) at 2015-01-30 07:32 Asi Nmap scan report for ec2-AAA-BBB-CCC-DDD.us-west-2.compute.amazonaws.com (AAA.BBB.CCC.DDD) Host is up (0.12s latency). Not shown: 988 closed ports PORT STATE SERVICE VERSION 21/tcp open ftp Microsoft ftpd 22/tcp open ssh OpenSSH 5.3 (protocol 2.0) 42/tcp open tcpwrapped 80/tcp open http ? 111/tcp open rpcbind 2-4 (RPC #100000) 135/tcp open msrpc ? 443/tcp open ssl/https ? 445/tcp open microsoft-ds ? 1433/tcp open ms-sql-s ? 3306/tcp open mysql MySQL 5.0.54 5060/tcp open sip (SIP end point; Status: 200 OK) 5061/tcp open ssl/sip-tls ?
これにてNmapによるDionaeaの検知を回避することができた.めでたしめでたし.
Dionaeaハニーポット観測記録 Part1
ハニーポットを植えてからしばらく経ってログも溜まってきたのでそろそろ観測記録を公開しようと思う.
環境は以下のとおり
- サーバ:Amazon EC2サーバ
- CPU:1コア
- メモリ:1GB
- OS:Red Hat Enterprise Linux Server release 6.5 (Santiago)
- ハニーポットツール:Dionaea
Dionaeaがエミュレートする主なサービスは以下の通り.
- Server Message Block (SMB)
- Hypertext Transfer Protocol (HTTP)
- File Transfer Protocol (FTP)
- Trivial File Transfer Protocol (TFTP)
- Microsoft SQL Server (MSSQL)
- Voice over IP (VoIP)
ハニーポットの稼働期間は2014年10月09日~2015年01月29日(ただしお手入れを怠ったせいで2014年11月24日~2014年12月10日のデータが欠損している).2015年01月29日現在も稼働中.ドメイン取得,広告活動はとくになし.
今回はDionaeaFRというDionaeaのログの解析ツールを用いてざっくりとした統計を行う.詳細な攻撃のログに関しては別の機会に報告することにする.
基礎統計データ
これまでの全てのログの基本的な統計データを示す.
全部で16,157名のお客様がお越しくださいました.本当にありがとうございました.
ドメインを取得しているわけでもないのにこれだけのアクセスが来るのはハニーポット初心者にとっては驚きだった.なお,"Malware Analized"とは,ハニーポットに送られたバイナリのハッシュ値を自動でVirusTotalで検索したことを表している.ハニーポットに送られたバイナリのほとんどは既知のマルウェアであることが分かる.
下の図はハニーポットにアクセスしてきたホストのロケーションを分析した結果である.
送信元の国を見てみると,コネクション数ではベネズエラ,ウクライナ,台湾の順に多い.またユニークなIPアドレス数で見るとジョージア(アメリカ),エクアドル,ベネズエラの順に多い.コネクション数に対してIPアドレス数が多い国は攻撃ホストが比較的多く,IPアドレス数に対してコネクション数が多い国は1攻撃ホストあたりのアクセス回数が比較的多いということになる.
直近1週間のデータ
2015年01月22日~2015年01月29日の1週間分のログの解析結果を示す.
Services
下の図はターゲットなったサービスの分析結果である.
最も多く攻撃のターゲットとなったのはSMB(Server Message Block)であった.SMBとはネットワーク(LAN)上の複数のWindowsコンピュータの間でファイル共有やプリンタ共有などを行うためのプロトコルである.SMBにはこれまで様々なエクスプロイトのバグが発見された歴史があり,ワームのターゲットとなることが非常に多い.
Ports
下の図は送信先のポート番号についての分析結果である.
アクセスが最も多かった445番ポートは,Confickerというワームがスキャンを行うポートして知られている.445番ポートではMicrosoft Directory Service (SMB/CIFS)というサービスが動作するポートであり,Conficerは445番ポートへのスキャンに続いて,Microsoft Directory Service の脆弱性を突く攻撃を試みる(参考:IPA 独立行政法人 情報処理推進機構:情報セキュリティ技術動向調査(2009 年上期)).次にアクセスが多かった139番ポートはNetBiosというサービスが動作するポートだが,これもワームのターゲットとなることがある(参考:http://www.jpcert.or.jp/at/2003/at030007.txt).また,3389番ポートのリモートデスクトップのサービスは2011年に流行したMortoというワームのターゲットになることが知られている(参考:ワーム「Morto」の挙動).
Malware
下の図はハニーポットに送られてきたマルウェアをVirusTotalで分類した結果である.
これを見ると,ほとんどのマルウェアはConfickerの亜種であることが分かる.最も多いConficker-AはNetbiosを感染経路とし,サーバーサービスの脆弱性MS08-067(参考:マイクロソフト セキュリティ情報 MS08-067 - 緊急)への攻撃を行う.わずかではあるがトロイの木馬と思われるマルウェアも送られてきたので嬉しい.
Countries
最後に送信元ホストのロケーションを世界地図にマッピングしたものを示す.
ぱっと見で多いのは,アメリカ,ヨーロッパ,中国,インドあたり.
余談(DionaeaFRについて)
DionaeaFRはとっても便利.しかし,ログが収められたデータベース(logsql.sqlite)のサイズが大きくなるに連れて動作がかなり重くなる.今回解析したsqliteファイルのサイズは1.7GBだったが,1GBメモリのマシンではまったく動かなかった(ついでにDionaea本体も落ちた).そこで手元のハイスペマシンでDionaeaFRを動かしたところ,メモリの使用量は7~8GBに達していた.DionaeaFRはlogsql.sqliteさえあればDionaeaがある環境と切り離しても動作するので,ハニーポットサーバが貧弱の場合は,解析は別のマシンで行うのがおすすめ.
最小二乗法のロバスト推定についてまとめた
最近,研究とはほとんど関係ないところで統計学にハマっているので自己満でロバスト推定をやってみた.それからRのggplotモジュールで描けるグラフの美しさをみなさんに知ってほしい.
最小二乗法
最小二乗法とは,測定で得られた数値に組を適当なモデルから想定される関数(ここでは1次関数)を用いて近似するときに,残差の二乗和を最小とするような係数を決定する方法である.残差とは,二変量の観測値(Xi, Yi)に対してその回帰式が y =ax + b で与えられるときの Yi - (aXi + b) の値をいう.
近似直線の式を"y = ax + b"とした時のa, bは以下の行列計算によって求めることができる.
この辺は前提知識として扱うので,詳しくは「最小二乗法」でググって一番上に出てきたサイトを参照されたい.
最小二乗法について
例えば,以下の様な分散図に対して最小二乗法で近似した直線が描ける.
ところが,計測の際に何らかの拍子でプロットが1つだけ大きく外れた値(外れ値)を取ると,以下の青色のグラフように近似が大きくずれる.
グレーの網掛けになっている部分は回帰モデルに対する95%信頼区間を表している(グレーの領域に95%の確率でプロットが存在するという意味).外れ値がある方は分散が大きく,95%信頼区間も大きく広がってしまう.
このような外れ値が最小二乗法に大きく影響を与えるという問題点を解決する方法として,ロバスト推定法がある.
ロバスト推定
ロバスト推定とは,誤差があるデータに対してその誤差の影響を最小にすることを目的とした理論である.ここではロバスト推定法の中の「M推定法」を扱う(他にはL推定やR推定がある).
M推定法とは,二乗誤差基準では誤差が大きいほど値が大きくなるが,ある一定以上の誤差で値の上昇を抑えることで,外れ値による影響を小さくする方法である.最小二乗法のロバスト推定における誤差とは,近似した直線と各プロットとの距離のことをいう.また重み付けにはTukeyのBiweight推定法という手法を採用する.
点(Xi,Yi)と近似直線との誤差をd = Yi - (aXi + b),Wを誤差の許容範囲としたとき,誤差が大きいほど最小二乗に与える影響力を小さくするように,以下のような式を用いて重みw(d)を計算する.
この重みの関数w(d)をグラフで表すと,以下のようになる.
(引用:ロバスト推定法(M推定法) 画像処理ソリューション)
この重みWiを各近似データ(Xi、Yi)に関して計算し、Wiを付加した最小二乗法を再度行い,ロバスト推定による近似式y = a'x + b'のa', b'を求める.
ロバスト推定後のグラフは以下のようになる.
青いグラフのように外れ値による影響が抑えられ,測定データに近い直線が描けた.
最終的に作成したRスクリプトは以下のとおり.
library(ggplot2) library(MASS) pdf("robust.pdf", width=8, height=4) set.seed(123) # allow reproducible random numbers orig <- within(data.frame(x=1:10), { type <- "orig" y <- rnorm(x, mean=x) } ) outlier <- orig outlier$y[2] <- 20 outlier$type <- "outlier" theme_set(theme_grey(base_size = 16)) # increase default font etc. size #p <- ggplot(orig,aes(x,y)) + geom_point(colour="#F8766D") #p <- p + geom_smooth(method="lm", se=FALSE, colour="#F8766D") p <- ggplot(data = rbind(outlier, orig), aes(x, y, colour=type, linetype=type)) + geom_point() # "base" plot, with points only p <- p + geom_smooth(method = "rlm") # fit & plot *robust* model + envelope print(p) dev.off()
LaTeXでbibファイルのURLに関するエラーが発生する時の対処法
今まで論文を書くときはLatexのテンプレート的なものを使って何も考えずにコンパイルしていたので,今回変なところでつまづいてしまった.自分のための備忘録.
Latexで参考文献(サイトのURL)を載せたいとき,例えば以下のようにbibファイルを作成する.
@misc{twitter, title = {{Twitter}}, howpublished = {\url{http://twitter.com/}} }
コンパイルの際はbibファイルを元に以下の様なbblファイルが生成され読み込まれる.(自分の環境ではTeXworksかmakeコマンドを使っている)
\begin{thebibliography}{} \bibitem[twi]{twitter} ``{Twitter}'', \url{http://twitter.com/} \end{thebibliography}
ところがこのbblファイルのurlの部分でUndefined control sequence.
というエラーが発生してしまう.
解決策
どうやらbibファイルのurlの書き方には次の2通りあるらしい.
howpublished = {http://twitter.com/}
howpublished = {\url{http://twitter.com/}}
1の方法ではエラーは発生せず,2の場合にはエラーが発生する.このエラーは「url」というパッケージが入っていないために起こる.
2の方法を用いるときは,styファイルに以下の一行を追加する.
\usepackage{url}
これで正常にコンパイルが成功する.
URLであることを明記するためには2の方法をとるのが望ましいと思われる.
情報セキュリティスペシャリスト試験に合格した話
平成26年度 秋期 情報処理技術者試験にて,情報セキュリティスペシャリスト(SC)試験に合格しました.
情報セキュリティスペシャリストは,IPAの情報処理技術者試験のレベル4にあたる高度試験のうち,セキュリティ分野に特化した国家資格です.
今回の受験者平均年齢は36.2歳,合格率は14.4%(試験会場に到達できなかった人も含めると9.1%)でした.受験者はやはり実務経験のある社会人の方が殆どのようですが,自分の周りにはキャンパーの方など,学生の受験者も多い印象でした.
IPA 独立行政法人 情報処理推進機構:制度の概要:情報セキュリティスペシャリスト試験
まずは成績から.平成26年度春期で応用情報技術者試験に合格したので,情報セキュリティスペシャリストの午前Ⅰは免除となりました.
午後ⅡのWEBの問題が解けなくてかなり心配しましたがギリギリボーダーを超えていました.その他は概ね想定内の成績です.
合格体験記
準備期間
SCの勉強を始めたのは試験日のおよそ一ヶ月前です.ホントはもっと時間を取りたかったのですが,論文投稿などで忙しくて直前のスタートとなってしまいました.
試験対策として,以下の2つの参考書を購入しました.
情報処理教科書 情報セキュリティスペシャリスト 2014年版 (EXAMPRESS)
- 作者: 上原孝之
- 出版社/メーカー: 翔泳社
- 発売日: 2013/09/13
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (1件) を見る
ポケットスタディ 情報セキュリティスペシャリスト 第2版 (情報処理技術者試験)
- 作者: 村山直紀
- 出版社/メーカー: 秀和システム
- 発売日: 2014/05
- メディア: 単行本
- この商品を含むブログ (2件) を見る
また,午前Ⅱの対策として「情報セキュリティスペシャリストドットコム」というサイトのWebアプリ過去問道場で,過去問の演習を行いました.
情報セキュリティスペシャリストドットコム
まずは情報処理教科書を辞書代わりにしてひと通り読んだあと,サイトで過去問演習を行い,あとは時間の許す限りポケスタを繰り返し読み倒していきました.
ポケスタいい感じにボロボロになった http://t.co/usbPmirMLx
— そにっくん/sonickun (@y_hag) 2014, 10月 18
この村山先生の「ポケスタ」には本当に助けられました.特に午後対策の「速効サプリ」では,出題・解答パターンがまとめられており,効率的に試験対策が出来ました.
また,10月4日の江戸前セキュリティ勉強会では,村山先生の試験対策のお話も聞いてきました.(ちゃっかりサインも貰った)
江戸前セキュリティ勉強会(2014/10) #edomaesec #edomae_asp - Togetterまとめ
そしてちゃっかり貰っていたサイン http://t.co/CV5oFd6rOo
— そにっくん/sonickun (@y_hag) 2014, 10月 18
@y_hag ああ,あなたでしたか!
— 村山直紀 (@MurayamaNaoki) 2014, 10月 18
試験当日
~試験直前~
明日は情報早起きスペシャリスト試験・・・
— そにっくん/sonickun (@y_hag) 2014, 10月 18
フハハ起きれたぞ…!!
— そにっくん/sonickun (@y_hag) 2014, 10月 18
情報処理技術者試験最高難易度科目「時間までの会場への移動」が行われている
— ろ。@ 3日目 西く 20b (@kamiya344) 2014, 10月 18
ぼくの隣の席の受験者は毎回会場に到達できないの法則
— そにっくん/sonickun (@y_hag) 2014, 10月 19
~試験終了後~
各位お疲れさまでございました
— そにっくん/sonickun (@y_hag) 2014, 10月 19
がっつりバッファオーバーフローの問題出て白目剝いたけどなんとかなった
— そにっくん/sonickun (@y_hag) 2014, 10月 19
午後Ⅱは泣きながら全部埋めた…WEB力が足りなかった…
— そにっくん/sonickun (@y_hag) 2014, 10月 19
会場への到達に成功したので合格はもらった!とおもいきや,午後ⅡでXSSやHSTSなどのWEB系の問題が解けずに大汗を書きました.WEB分野の対策が完全に不足していた...
大事なことは全て徳丸本に書いてあった
体系的に学ぶ 安全なWebアプリケーションの作り方 脆弱性が生まれる原理と対策の実践
- 作者: 徳丸浩
- 出版社/メーカー: ソフトバンククリエイティブ
- 発売日: 2011/03/03
- メディア: 大型本
- 購入: 119人 クリック: 4,283回
- この商品を含むブログ (143件) を見る
合格発表
SC合格しました!
— そにっくん/sonickun (@y_hag) 2014, 12月 19
どうも,情報セキュリティスペシャリスト(初心者)です.
— そにっくん/sonickun (@y_hag) 2014, 12月 19
半年前にWiresharkの存在を知った人間でもここまでこれることを証明した.
— そにっくん/sonickun (@y_hag) 2014, 12月 19
村山先生からもお祝いのお言葉を頂きました.
@y_hag おめでとうございます!
— 村山直紀 (@MurayamaNaoki) 2014, 12月 19
まとめ
情報セキュリティスペシャリスト試験は,私のような実務経験のないぽっと出の大学生でもある程度テクニックを身につけて勉強すれば十分合格できるということを証明できたと思います.
また午後の文章題は国語の問題といわれることもあり,知識がなくとも文章をじっくり読めば解ける場合があるので,最後まで諦めずに解ききることが大事だと思います.
今後は他のスペシャリスト資格の取得を目指して頑張りたいと思います.
SECCON CTF 2014 Online Qualifications Write-Up
SECCON 2014 オンライン予選(英語)にチームm1z0r3(みぞれ)として参加しました.結果は2100点で1067チーム中65位.完敗です.世界の壁は高かった...
ただ,m1z0r3は国内予選6位で既に全国大会の切符を手に入れているので,本番までにもっと力を蓄えていきたいです.
今回のSECCONで自分が解答した or 解答に携わった問題のWrite-Upを書きます.実際大した問題はあまり解いていない.鮮やかにHeartBleedの攻撃とかやりたかったです(HearBleedはリーダーが解いてくれた).
SECCON CTF 2014 Online
はじまった!!! #seccon
— そにっくん/sonickun (@y_hag) December 6, 2014
Reverse it (Binary, 100)
"Reverseit"というファイルが渡される.fileコマンドを打つと"data"とだけ.さっそくバイナリを上から下まで眺めていると終端が"FF 8D FF"になっている.
これどこかで見たことある......と思ったら"FF D8 FF"はJPEGの先頭のマジックナンバーであること気づく.先頭のバイナリに戻って見てみると"9D FF"...JPEGの終端のバイナリは"FF D9"...
どうやらJPEGのバイナリが4bit(16進数1桁)ごと逆順に並んでいるよう."Reverse it"とはこのことか(笑) Pythonでコードを書いて並び替える.
f = open("Reverseit","rb").read() g = open("Reverseit.jpg","wb") f = f.encode('hex')[::-1].decode('hex') g.write(f) g.close()
生成したファイルを開くとこの画像.またもやReverseになっている.
ということでこれも逆さにして,フラグはSECCON{6in_tex7}
.バイナリからすぐマジックナンバーを思い出せたのは嬉しかった.
REA-JUU WATCH (Web, 200)
問題文のURLにアクセスすると「リア充ウォッチ」という,なんとも愉快で不愉快なWEBアプリが現れる.
次の画面でIDとパスワードが生成され,ログインすると次のような問題が始まる.
6問ほど回答すると,リザルト画面に自分のリア充度スコアが表示される.
FiddlerでHTTPリクエストを眺めていると,最後の問題を解いた後,別のURL(http://reajuu.pwn.seccon.jp/users/chk/[id]
)にもアクセスしている.[id]にはユーザーIDに対応した数字が入っているよう.試しにid=1にして,1番目のユーザーのところへつなぎに行くと,以下の文字が出現する.
{"username":"rea-juu","password":"way_t0_f1ag","point":99999}
このようにユーザーの名前,パスワード,ポイントの情報が表示される.この情報を用いてもう一度ログインして問題に解答し,リザルト画面へ行くとフラグが現れた.
ということで晴れて真のリア充になることができた.フラグはSECCON{REA_JUU_Ji8A_NYAN}
.
Get the key.txt (Forensics, 100)
"forensic100"という名前のシステムファイルデータが渡される.FTK-Imagerでマウントして見てみる.すると,中身に"key.txt"とあるファイルを見つける.
先頭バイナリ"1F 8B"を見た瞬間にgzipだと気づいたので,このファイルをエクスポートして解凍するとフラグが得られた.
フラグ→SECCON{@]NL7n+-s75FrET]vU=7Z}
Get the key (Network, 100)
nw100.pcapというpcapログが渡される.
- だーっと眺めているとHTTP通信をしているよう.(10秒)
- とあるURLにアクセスしている(中には"key.html"ヘのリンクが含まれている).(20秒)
- 実際にアクセスするとBasic認証が必要みたい.(30秒)
- pcapにもどり,BASE64でエンコードされた認証データを抜き出す.(40秒)
- BASE64をデコードし,IDとパスワードを取得.(50秒)
- Basic認証を突破しkey.htmlにアクセスしてフラグゲット.(1分)
瞬殺でした.フラグ→SECCON{Basic_NW_Challenge_Done!}
フレーム番号21番のパケットのHTTPヘッダーが以下のようになっている.
Hypertext Transfer Protocol GET /nw100/ HTTP/1.1\r\n [Expert Info (Chat/Sequence): GET /nw100/ HTTP/1.1\r\n] [GET /nw100/ HTTP/1.1\r\n] [Severity level: Chat] [Group: Sequence] Request Method: GET Request URI: /nw100/ Request Version: HTTP/1.1 Accept: text/html, application/xhtml+xml, */*\r\n Accept-Language: ja-JP,en-US;q=0.5\r\n User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko\r\n Accept-Encoding: gzip, deflate\r\n Host: 133.242.224.21:6809\r\n Authorization: Basic c2VjY29uMjAxNDpZb3VyQmF0dGxlRmllbGQ=\r\n Credentials: seccon2014:YourBattleField Connection: Keep-Alive\r\n DNT: 1\r\n \r\n [Full request URI: http://133.242.224.21:6809/nw100/] [HTTP request 1/1]
http://133.242.224.21:6809/nw100/
へ接続している.
"Basic c2VjY29uMjAxNDpZb3VyQmF0dGxlRmllbGQ="とあるので,これをBASE64エンコードすると"seccon2014:YourBattleField"となる.つまりBasic認証のユーザー名が"seccon2014",パスワードが"YourBattleField"となる.
Get from curious "FTP" server (Network, 300)
FTPサーバのURLが渡される.ここにアクセスしてフラグとなるファイルをダウンロードしてくる問題らしい.
さっそくアクセスして,ディレクトリ情報を取得しようとしたが,ls
やdir
などの,いわゆるLIST
コマンドが使えない.
$ ftp ftpsv.quals.seccon.jp Connected to ftpsv.quals.seccon.jp. 220 (vsFTPd 2.3.5(SECCON Custom)) Name (ftpsv.quals.seccon.jp:****): anonymous 331 Please specify the password. Password: 230 Login successful. Remote system type is UNIX. Using binary mode to transfer files. ftp> ls 200 PORT command successful. Consider using PASV. 502 LIST not implemented. ftp> dir 200 PORT command successful. Consider using PASV. 502 LIST not implemented. ftp> quote list 502 LIST not implemented.
"502 LIST not implemented."とは,つまりLISTコマンドが実装されていないという意味.ほかにもNLSTなどのコマンドも使えない.この状態でどうやってディレクトリ情報を取り出すかがこの問題のミソとなっている.また,get ./*
のようにワイルドカード(*)を使用することもできないようになっている.
他の使えそうなコマンドを探してみる.以下のサイトを参考にした.
このサイトを見てみるとSTATコマンドの説明に「現在のシステムや転送状態の情報を表示する。ファイル/ディレクトリ名が与えられた場合は、その情報を表示する(NLSTなどとほぼ等価)」とある.そこでquote stat /
を実行してみるとディレクトリ情報が取得できた.
ftp> quote stat / 213-Status follows: drwxr-xr-x 2 0 107 4096 Nov 29 04:43 . drwxr-xr-x 2 0 107 4096 Nov 29 04:43 .. -rw-r--r-- 1 0 0 38 Nov 29 04:43 key_is_in_this_file_afjoirefjort94dv7u.txt 213 End of status ftp> get key_is_in_this_file_afjoirefjort94dv7u.txt 200 PORT command successful. Consider using PASV. 150 Opening BINARY mode data connection for key_is_in_this_file_afjoirefjort94dv7u.txt (38 bytes). 226 Transfer complete. 38 bytes received in 0.000115 seconds (330434 bytes/s)
ということで,"key_is_in_this_file_afjoirefjort94dv7u.txt"をgetでダウンロードして開くとフラグが得られた.
フラグ→SECCON{S0m3+im3_Pr0t0c0l_t411_4_1i3.}
version2 (Network, 200)
「もうすぐ version 2 が来るけど準備はいいかい?」という問題文で,さらに「srv h2o.pwn.seccon.jp.」とドメインが与えられる.雑魚なのでこの時点で「version 2」が何のことが分かっていない.とりあえず「srv」とは何なのかを調べる.
SRVとはDNSに含まれるレコードの一つで,動いているサービスやプロトコル,使用しているポート番号などの情報を保持しているらしい.SRVテーブルの情報はnslookupを用いて以下の様なコマンドで取得することができる.
$ nslookup > set type=srv > h2o.pwn.seccon.jp Server: 10.1.2.1 Address: 10.1.2.1#53 Non-authoritative answer: *** Can't find h2o.pwn.seccon.jp: No answer Authoritative answers can be found from: seccon.jp origin = ns1.value-domain.com mail addr = hostmaster.seccon.jp serial = 1417939413 refresh = 16384 retry = 2048 expire = 1048576 minimum = 2560 > _http._tcp.h2o.pwn.seccon.jp Server: 10.1.2.1 Address: 10.1.2.1#53 Non-authoritative answer: _http._tcp.h2o.pwn.seccon.jp service = 1 1 65080 h2o.pwn.seccon.jp. Authoritative answers can be found from: > _https._tcp.h2o.pwn.seccon.jp Server: 10.1.2.1 Address: 10.1.2.1#53 Non-authoritative answer: _https._tcp.h2o.pwn.seccon.jp service = 2 0 65432 h2o.pwn.seccon.jp. Authoritative answers can be found from:
SRV,nslookupに関して参考にしたサイト
- 実用 BIND 9で作るDNSサーバ(14):DNSの拡張仕様、SRVレコードとENUM (1/2) - @IT
- How to verify that SRV DNS records have been created for a domain controller
以上のことから,h2o.pwn.seccon.jp.では,65080番ポートでHTTP,65432番ポートでHTTPSが動いていることがわかった.実際にこのポートを指定してHTTP接続してみると以下の様なページが表示される.
この時点で「version 2」とはHTTP/2のことであると気づく.
HTTP/2 - Wikipedia, the free encyclopedia
要はこのページにHTTP/2で接続すれば良い.Chrome ChromeのSPDYではHTTP/2が実装されている.HTTP/2の設定を有効にして接続すると以下の様なページが表示される.(HTTP/2はSSL必須なのでHTTPSで繋ぎに行く)
「HPACK」とはデータの圧縮形式の一つで,HTTP/2で通信を行う際はこの形式でデータを圧縮して送信しているらしい.
Chromeのデベロッパーツールでレスポンスヘッダを見てみたらフラグの書かれているヘッダが含まれていた.
ということで,フラグはSECCON{spdy4isSoC001}
HTTP/2,SPDYに関して参考にしたサイト
- HTTP2を試してみる | GREE Engineers' Blog
- SPDY Tools and Debugging - The Chromium Projects
- 【SPDY】HTTP/2ハッカソンに行ってきた【HPACK】 | FiS Project
余談だが,自分の代わりにHTTP/2でWEBサイトにつなぎに行ってくれるサービスもあったらしい.
所感
前回の国内予選から約半年間で,ある程度成長が実感できた.自分の知識や経験則からある程度攻略が楽になった問題もあったし,瞬殺すべき問題はきっちり瞬殺できたのもよかった.ただ,CTFを始めて数ヶ月の雑魚には変わりはないので,今後は自分の得意分野を伸ばして全国大会でも戦える力をつけていきたい.あとCTFはやっぱり楽しい.ちなみに近々チーム内CTFが開催されるのでとても楽しみです.
確率的情報検索 Okapi BM25 についてまとめた
ひょんなことで情報検索の知識が必要になったので,勉強したことを簡単にまとめておきます.
情報検索とは,コンピュータを用いて大量のデータ群から目的に合致した物を取り出すことです.
Okapi BM25は情報検索における文章中の単語の重み付けの手法の一つであり,他にもTF-IDFと言ったアルゴリズムがあります.
Okapi BM25 - Wikipedia, the free encyclopedia
一般的にはTF-IDFよりも良い結果が得られると言われ,比較手法としてのベースラインになっています.
Term Frequency (TF)
文書中において出現頻度の高い単語は重要であるという考え方です.
ある単語Tiの文書Dj中における重みを考えると
TF(i,j) = (文書Djにおける単語Tiの出現回数) / (文書Djのの総単語数)
となります.
Inverse Document Frequency (IDF)
多くの文書において出現頻度の高い単語は重要ではないという考え方です.
n = 単語Tiが出現する文書数
N = 文書の総数
としたとき
IDF(i) = log(N) - log(n) = log(N/n)
となります.
ちなみに,TFとIDFをかけ合わせるとTF-IDFの式となり,文書とクエリの特徴ベクトルの内積から類似度を評価することができます.BM25はこのTF-IDFをさらに改良したものとなります.
Document Length (DL)
これがDM25のミソとなってきます.
ある単語の出現回数が同じ2つの文書について,総単語数の少ない文書と多い文書では,前者のほうがより価値があると考えます.
DL(j) = 文書Djの総単語数
としたとき
NDL(j) = DL(j) / (すべての文書の平均DL)
となります.
Okapi BM25b (Combined Weight)
これまでの3つの重み付けをインプットとして,BM25のCombined Weight(CW)を作ります.
CW(i,j) = [ TF(i,j) * IDF(i) * (K1 + 1) ] / [ K1 * (1 - b + (b * NDL(j)) + TF(i,j) ]
となります.定数K1とbについて以下に説明します.これらはどちらもチューニングの役割を果たします.
K1は単語の出現頻度による影響を調節します.1 < k1 < 2 で,K1 = 2が最も効果的と言われています.
bは文書の長さによる影響を調節します.0 < b < 1で,b = 0.75が効果的と言われています.
まとめると,この式でより大きく重み付けされるのは
- 文書における単語の出現頻度の高いもの
- 多くの文書における単語の出現頻度が低いもの
- より短い文書において出現回数が大きいもの
となります.