ディープラーニング同好会5回め開催しました。
今回は、自分が告知するのがだいぶ遅かったため、人が集まらずに2人だけでやりました。
前回の続きで、CNNで大きく位置ずれやサイズの違いがあった場合にどうやれば認識率をあげられるかを試しました。
今回は、位置ずれやスケーリングした教師画像をプログラム的に作って大量に学習させる方法を試しました。
実は前回あまりうまく行かなかったため、絶対にこれでうまくいくだろう、と思っていた方法を試したのですが… 確かにだいぶ良くはなるのですが、MNISTのような簡単な問題で、ある程度の大きさのCNNで大量の自動生成データで試しているにもかかわらず、せいぜい90%程度となってしまいました。
だいぶ負けた気分です。
が、まあたぶんこの方法でちゃんと詰めていけば、99%とかまで持っていけそうな感じはしました。
ただ、それで詰めていってもあまりおもしろくはないと思うので、次回は方針を変えて、AEを作って、その中間層に次元削減されてできた出力を使って、そこから判定してみる、というのを試してみようと思います。