とある技術者の研鑽結果

SIerのお仕事でたまった鬱憤を最新テクノロジー勉強で晴らすためのブログです

OpenCV - SIFTを使った特徴量算出及びマッチング

Web+DB Express Vol.83を購入したところ特集として画像認識がいやあWeb技術者もComputer Visionが必要な時代かあ。。。と思い読み進めると、Javaでのコーディング例も載っていてかなり実用的でいい感じしかしJavaよりかはPythonでお手軽にコーディングしたい…

Sparkソースコードリーディング(5) - spark.textFile関数最後

textFile関数の最後 hadoopFIle関数の最後はHadoopRDDをnewして終了 new HadoopRDD( this, confBroadcast, Some(setInputPathsFunc), inputFormatClass, keyClass, valueClass, minPartitions).setName(path) ただnewしているだけですが興味深い点を2点まず…

OpenCV - HoG特徴量の算出

とある野望に向けてPythonを使い画像解析 まずはHoG特徴量を算出したい HoG特徴量が何かというのはググっていただければと思うが、とにかくこれを算出することによって画像の類似度をはかりたいと考えているまずmacにOpenCVを導入っと brew tap homebrew/sci…

Sparkソースコードリーディング(4) - hadoop_FileInputFormat

戻ってhadoopFile関数 def hadoopFile[K, V]( path: String, inputFormatClass: Class[_

Sparkソースコードリーディング(3) - broadcast

broadcast関数続き def broadcast[T: ClassTag](value: T): Broadcast[T] = { val bc = env.broadcastManager.newBroadcast[T](value, isLocal) cleaner.foreach(_.registerBroadcastForCleanup(bc)) bc } 次はcleaner 前回調査した通りcleanerはOption型のC…

Sparkソースコードリーディング(2) - confBroadcast(01)

引き続きtextFile def textFile(path: String, minPartitions: Int = defaultMinPartitions): RDD[String] = { hadoopFile(path, classOf[TextInputFormat], classOf[LongWritable], classOf[Text], minPartitions).map(pair => pair._2.toString).setName(p…

Sparkソースコードリーディング(1) - spark.textFile関数の引数

Apache Sparkのソースコードリーディングを記録まずは公式サイトに記載されているWordCountの第一文から追っていきましょう file = spark.textFile("hdfs://...") このsparkというのはSparkContextクラスのインスタンスなので該当メソッドを調査 def textFil…

Computer Vision - PILインストールまで

MBPを購入し、さてPythonでPIL始めよう!と思い立ったがインストールで盛大に失敗 というわけで手順を備忘までに1. 環境変数の設定 su - export CFLAGS=-Qunused-arguments export CFLAGS=-Qunused-arguments 2. PillowのInstall pip install pillow 3. libj…