RubyでHTTPクライアントなWWW::Mechanize
今、perlでLWPもWWW::Mechanizeも使わず自前のHTTPクライアントな処理で、次々とWEBページで行う処理を自動化する処理を書いている。
HTMLパーサも自前。HTML::Paser使っていない・・・
色々と制約がある中でやっているのだが、かなり見通しの悪いコードになっていてるのと、中途半端な処理が微妙に感じる。
自由に1から書き直していいよ。って言われたら、RubyでWWW::Mechanizeを使って書いてみたい。
http://mono.kmc.gr.jp/~yhara/rubyscraping/?Mechanize
こんな事ができるみたい。
- ウェブサイトへのアクセスの自動化
- リンクをたどる
- フォームをsubmitする
- リダイレクトをたどる
- アクセスしたページの履歴を覚える(history)
- cookieの設定・送信
- ファイルのアップロード
インストール完了。
gem install mechanize
何かあったら是非利用してみたい。