2022年5月18日(水)

    深層CNNの学習が進むか否かは、これまでの経験則から、ハイパーパラメータとバッチサイズの噛み合わせだと思っている。層を深くしたりカーネルサイズを大きくしたりするほどに精度が上がっていく気がするが、モデルが大きく膨らむほどに学習が進むために求められるバッチサイズも大きくなっていくのだと思う。ただ入力層のチャネル数を大きくしすぎると学習が全く進まないケースが散見される気もする。とかいうことを色々考えながらK-fold cross validationにおける全行程で学習が進みなおかつ精度の良いハイパーパラメータを決めつつある。時間かけてるんだから学習が上手くいくことを願って出力を見守る。それは妻の出産に立ち会う夫の如く。

    明日は研究室の院生で飲みに行く。楽しみ。