ゼミ

B4: Gauss-Markov's theorem. M1: Design, linear spaces. 点と線を包含関係だけで考える話。

LP

Sensitivity analysis of LP with general form. I've lost some details. When the basis variables are changed, additional variables might be useful for hot start?

elements of probability theory: LLN, CLT. I'm interested in the uniform version of CLT. nu-svc: relations among nu, the fraction of SV, and the margin error rate. fairly good job.

LPゼミ

Big-M in dual General form LP in dual

SQS:平方剰余。 Kernel trick: HW1. relation betrween positive semi-definiteness kernel function and RKHS. HW2. A toy example on R^2 classification.

M2くん:java on SQS。design はよく知りませんので適切なコメントなどはできません。 M1くん:SVM。ストーリーを意識しましょう。

LPゼミ

Farkas' lemma の integer version は勉強になります。dual lattice。 普通の Farkas's lemma の証明は分離定理を使っている。その lattice version ? dual の dual でもとに戻ることの証明で、分離定理を(陽には)使わないものはあるのでしょうか? そのあた…

Latin square equivalence について permutation の自由度が大きく、直感が効きません。

LP 9:30-13:00

dropping the redundant constraints in standard form LP. extended foundamental theorem の詳細を理解していないので、あとで確認。

M2:java programming on SQS. M1:Mercer's theorem. 例を通して定理を理解してほしいです。意味を理解することは、証明(の瑣末な部分)を理解することより大切です。

ism-meeting

rank-svm についてプレゼンをしました。かなり詳細まで詰めました。応用はどうしましょう。

LP輪読

2段階法、phase 1 redundant constraints の除去

M1: Hall's marriage theorem. etc. 証明は tricky。edge の coloring。分かりやすく説明してくれました。 M1: regression の Kernel法。あまり数学的に書いていない本の解説のため、ちょっと苦労しているようです。このあたりは数学的に難しいことはないで…

Optimization: LP. simplex法, pivoting. Machine Learning: Linear regression, regularization.

LP輪読。simplex methods for generalized form。standard form との対応。

M2さん:2-design, 3-design, Stein.. system。頑張っているようです。 Fisher's inequality の証明を初めて見ました。エレガントです。 DTさん:回帰分析の初歩の解説。断片的な知識を、つなげましょう。自分で手を動かして試行錯誤しているのは良いことで…

LPの担当者は準備不足。突然当番になったので仕方ないが。 DTさんは他大学からの進学なので、卒論の話をしてもらう。online-EM。論文を読んで数値実験をしている。元論文は見ていないが、解説を聞く限りだと、うまくいくようには見えないアルゴリズム。onlin…

B4:クラスタリング。次元削減で PCA を使う。程々の寄与率でうまくクラスタリングできているので、卒論をまとめやすくなったと思います。

M2:高校入試関連データ。隠れ変数のある離散確率分布(5段階評価の分布)の推定を EM-like な計算で求めます(これはこれで面白い話と思っているので、いずれ一般化したい)。尤度が既知の量だけで表現できるように、いくつか仮定を置きました。そのなかで若干…

M2: 昨年度のデータをラベル付き、今年度のデータをラベルなし、と思って合格確率の予測がで出来そうです。そうすると、期せずして、data set shift を使えるかもしれません。実際の推定量は若干複雑で、naive に dataset shift と思えるかどうかは、考える…

臨時のショート・ゼミ。模試の得点(その他の情報)から合格確率の推定をしたい。合格定員の情報をどう推定に入れるか、ということでした。尤度に対するペナルティとして、いままでは個々人の合格確率の総計が定員に合うようにしていた。これだと、受験者の質…

M1: 推定結果とシミュレーションが合わない。 Logistic regression にある説明変数のひとつが Gaussian にしたがっているような状況で、尤度を書いて推定 シミュレーションでは、得点が Gaussian にしたがうとして、定員内にあれば合格として、これを 1000回…

B4:文字認識のラベルつきデータのラベルを見ないで、どの程度クラスタリングできるかを試している。目的はクラスタ数の推定なのだが、今のところ、あまりうまくいっていない。DDgap, X-means など。DDgap は Stanford 軍団、X-means は CMU 軍団からの提案…

もうすぐ修論題目提出です。がんばってください。 私は今年度から本学に勤務しているので、知りませんでした。どうやら昨年までは当学科では卒論がなかったらしい(卒業研究は一応ある)。まるで数学科のようだ。

データを提供してくれている人達との研究打ち合わせ。統計的な話を理解してくれる人達なので、とても話しやすい。私はというと、1限からの授業の疲れで少しウトウトしてしまった。学生さん、データ解析がんばって下さい。 実データだと統計理論が置いている…