読者です 読者をやめる 読者になる 読者になる

『ヒーリングbot』と言うものがあってだね。

メリークリスマス!!

ということで↓のアドベントカレンダーの14日目です!

(ざわざわ・・・)

www.adventar.org

はじめて

「むかし、『ヒーリングbot』と言うものがあってだね。」

おもむろに昔話をやつははじめました。

聴くところによると、漢たちは歴戦の疲れでへとへとになっておったそうな。

そんな中の唯一の救いは、美女を延々と垂れ流し続ける『ヒーリングbot』であったそうな。

ヒーリングbotを作りしものは神として拝み奉られておったそうな。

しかし、神は新世界へと去っていき、馬鹿な漢どもは救いを失い絶望しておったそうな

というわけで

今日は上のヒーリングbotを作れと言われた話です。

ただ、どのような娘っこが良いのかと聞いたとき言われたのが、、

  1. プロっぽくないほうがいい

  2. 肌色はそんなにいらない。それより大事なのは透明感

  3. アイドルみたいなのはいらない。素人娘がいい。

やはりカスらしく注文が多い奴らでした。

辿り着いた先は、とある「ヘアサロン」のモデルさんたちをクローリングして素材を取ってきて、それをslackに投稿するbotを作ろう。ということになりました。

やっと本題

今日はとあるHPをクローリングして画像ファイルを取得するものを作ります。

もろもろ楽そうだったので、言語はrubyを採用しました。

使用したライブラリは、、

Anemone - Ruby Web-Spider Framework

超ラクです。あっちゅうまにクローラーを作ることができました。

そして、HTMLの解析には、、、

www.nokogiri.org

を使いました。らくらくでしたわ。

ソースコードの紹介

require 'anemone'
require 'nokogiri'

URL = '<URL>'

Anemone.crawl(URL, depth_limit: 0 ) do |anemone|
  anemone.on_every_page do |page|
    i = 0
    page.doc.xpath('//img/@src').each do |node|
      if node.value =~  /https.*jpg/
        p node.value
        open(node.value) do |file|
          open(i.to_s+'.jpg', "w+b") do |out|
            out.write(file.read)
          end
        end
      end
      i+=1
    end
  end
end
  1. とあるサイトをクロールします
Anemone.crawl(URL, depth_limit: 0 ) do |anemone|
  1. nokogiri形式に変換&画像情報を取得します。
page.doc.xpath('//img/@src').each do |node|
  1. 画像の取得、ローカルに保存
        open(node.value) do |file|
          open(i.to_s+'.jpg', "w+b") do |out|
            out.write(file.read)
          end
        end

みたいな感じです。いや〜かんたんですね。

あとはbotにすれば完成と言ったところですが、、

やはりカスらしく要求はエスカレートします。

次は「素人の中でも美人を投稿してほしい」と言ってきやがりました。はは、まいったね。

ということで機械学習してみましょうか。と心に決めつつ本日は終了。

さいごに

彼女の目を盗んでささっと書いたこのブログ。存在が知られると怒られるかもしれないこのブログ。

クリスマスに何をしとるんじゃわしは。はは、まいったね。

というわけで、じゃあの!