• イントロに multiclass loss を比較する subsection を加えました。
  • robustness を言うために、weight の uniform dist からの deviation を数値的に求め、結果を図示して論文に載せました。
    • ある程度は予想通りの結果になりました。hard samples が多いほうが weight dist が uniform に近くなるのは binary madaboost と同じです。Adaboost では hard sample rate が小〜中で逆の挙動が観察されます。それが多値でも成り立っています。
    • Logitboost より weight が uniform dist に近いことが言えるかどうかが大切ですが、数値的には成立しています。
    • TODO:プログラムにミスがないか確認する。