■
- イントロに multiclass loss を比較する subsection を加えました。
- robustness を言うために、weight の uniform dist からの deviation を数値的に求め、結果を図示して論文に載せました。
- ある程度は予想通りの結果になりました。hard samples が多いほうが weight dist が uniform に近くなるのは binary madaboost と同じです。Adaboost では hard sample rate が小〜中で逆の挙動が観察されます。それが多値でも成り立っています。
- Logitboost より weight が uniform dist に近いことが言えるかどうかが大切ですが、数値的には成立しています。
- TODO:プログラムにミスがないか確認する。