• 論文に learning curve と deviation の計算についての解説を追加。設定を変えて数値実験をしている。Active set が変わる影響があるにもかかわらず、ある程度サンプル数が大きいときには漸近理論と数値結果が割とよく合っている。ただし情報量規準はあまりうまく計算できていないようだ。若干設定を変えてプログラムを走らせてから、帰ろう。
  • 覚えがき:予備実験を見ると、サンプル数 500くらいだと loss の分散が結構大きい。
  • Dr.ズッキー'memo ver2 が届く。一瞥すると、Approximation error ありの場合の、cov-shift推定における non-para 漸近論を展開している。さらに有限次元で、convex polytope への射影をきちんと考慮した漸近論の計算をしているようだ。有限次元の場合には、若干違う推定量ですでに自分で計算しているので、どんな違いがあるのか、きちんと眺めてみたい。明日は講義の準備の後に最優先で読もう。