『ヒーリングbot』と言うものがあってだね。
メリークリスマス!!
ということで↓のアドベントカレンダーの14日目です!
(ざわざわ・・・)
はじめて
「むかし、『ヒーリングbot』と言うものがあってだね。」
おもむろに昔話をやつははじめました。
聴くところによると、漢たちは歴戦の疲れでへとへとになっておったそうな。
そんな中の唯一の救いは、美女を延々と垂れ流し続ける『ヒーリングbot』であったそうな。
ヒーリングbotを作りしものは神として拝み奉られておったそうな。
しかし、神は新世界へと去っていき、馬鹿な漢どもは救いを失い絶望しておったそうな
というわけで
今日は上のヒーリングbotを作れと言われた話です。
ただ、どのような娘っこが良いのかと聞いたとき言われたのが、、
プロっぽくないほうがいい
肌色はそんなにいらない。それより大事なのは透明感
アイドルみたいなのはいらない。素人娘がいい。
やはりカスらしく注文が多い奴らでした。
辿り着いた先は、とある「ヘアサロン」のモデルさんたちをクローリングして素材を取ってきて、それをslackに投稿するbotを作ろう。ということになりました。
やっと本題
今日はとあるHPをクローリングして画像ファイルを取得するものを作ります。
もろもろ楽そうだったので、言語はrubyを採用しました。
使用したライブラリは、、
Anemone - Ruby Web-Spider Framework
超ラクです。あっちゅうまにクローラーを作ることができました。
そして、HTMLの解析には、、、
を使いました。らくらくでしたわ。
ソースコードの紹介
require 'anemone' require 'nokogiri' URL = '<URL>' Anemone.crawl(URL, depth_limit: 0 ) do |anemone| anemone.on_every_page do |page| i = 0 page.doc.xpath('//img/@src').each do |node| if node.value =~ /https.*jpg/ p node.value open(node.value) do |file| open(i.to_s+'.jpg', "w+b") do |out| out.write(file.read) end end end i+=1 end end end
- とあるサイトをクロールします
Anemone.crawl(URL, depth_limit: 0 ) do |anemone|
- nokogiri形式に変換&画像情報を取得します。
page.doc.xpath('//img/@src').each do |node|
- 画像の取得、ローカルに保存
open(node.value) do |file| open(i.to_s+'.jpg', "w+b") do |out| out.write(file.read) end end
みたいな感じです。いや〜かんたんですね。
あとはbotにすれば完成と言ったところですが、、
やはりカスらしく要求はエスカレートします。
次は「素人の中でも美人を投稿してほしい」と言ってきやがりました。はは、まいったね。
ということで機械学習してみましょうか。と心に決めつつ本日は終了。
さいごに
彼女の目を盗んでささっと書いたこのブログ。存在が知られると怒られるかもしれないこのブログ。
クリスマスに何をしとるんじゃわしは。はは、まいったね。
というわけで、じゃあの!