今年の出来事
今年も終わりなので振り返ってみることでも。
- 初学会
- 正確に言うと発表がはじめて。初発表がNLP2010でガチガチに緊張して、質問にトンチンカンな答えをしてしまったのしか覚えてない。
- ちなみに学会聴講はNLP2008が初。
- 今年は研究会も入れて対外発表は5回やった。来年はもっと国際会議に行きたい。
- 就職活動
- 進学と迷った結果、本当に興味のある3つだけ受けた。一応内定貰ったけど、貰ったことで就活中以上に進学と悩む羽目に。
- 進学を決意
- 1月禿げるほど悩んだ結果進学することにした。内定を断った先には本当に申し訳ないと思う。
- 院試
- 夏休みこれ以外のことをした覚えがない。院試前に内定断ってしまったこともあって精神的に死にそうだった。
- 初国際会議
- SIGDIAL2010のshortはrejectされたので聴講だけした。来年リベンジしたい。IWSDSで発表したが、全然喋れなくて死にたくなった。
- 学振(DC1)
- 落ちた。出した時点でto apperですら国際会議も論文誌も一つもなかったから仕方ないけど、そこをそんなに重要にするなら最初からそう言って欲しいとは思うところ。まあ、僕の努力が足りんかったのですけど。学振通った人は3年後には絶対追い抜く。
- 初ヨーロッパ
- 旅行だけどパリとロンドン行った。旅行会話は度胸だけの問題だったので学部時代からもっと行けばよかった。
- 論文
- 特に印象が深かった論文が多いわけではないけど、Steve YoungのところのPOMDPの論文はかなり読んだ。
-
- Parameter learning for POMDP spoken dialogue models.
- まあ対話系の会議だったらBestPaper取ってもおかしくないなあ。POMDPは対話ではもうやり尽くされた感じがするけど、ログを使った強化学習による検索結果の最適化なんかはEMNLPやCOLINGを見る限り結構発表が出てきているようなので、これからNLP全体で強化学習が流行るかも。ただ、そういう研究って企業じゃないと難しいよなあ。大学ではデータがなくて無理。
-
- Multi-Sentence Compression: Finding Shortest Paths in Word Graphs.
- あとこの話が重要文抽出、文生成、要約としては頭に残った。 NLPでuni-gramベースの意味理解は限界だと思うし、語系列を自然に残しながら、どこでも語られている情報、ここでしか語られていない情報というのを可視化するというのは重要。Tree-baseでやればもっと面白い結果が出そうだ。
- プログラミング
- つくったもの
- http://www.ar.media.kyoto-u.ac.jp/members/yoshino/newtypo/ @neubigさんと共同開発。
- JuliusやJUMAN/KNPのruby用ラッパー 大したものは作ってない。
- ニュースナビシステム'Kyome(仮)' たぶん3月に公開します。
- http://www.ar.media.kyoto-u.ac.jp/members/yoshino/ml_nlp/
- やったけど正直失敗した気がする。結局入門者はやりたい人は各自で勝手にやってすぐ入門者でなくなる。
- AKB
- 今年から入った俄ですがもうこれがないと原稿とかスライドとか書きあがらない
- ゆきりんとはるきゃんがかわいすぎて死ぬ
- チェロ
- 全く弾いてない。3月にまたトリオをすることになったので、それが終わったら市内でオケ探してみようと思う。
- 野球
- 一人暮らし
- またはじめました。
- 今回はそこそこ料理とかしてる。
- 前より更に学校に近い。
- 関東の方は京大に来られる際の宿にどうぞ。おこたでいいなら寝る場所貸します。
総じて前半は精神的にも体力的にも死にそうでしたが、後半は余裕が出てきた気がする。これから修論で死ぬんだろうけど。来年はいよいよDだし頑張ろう。とりあえず年内にこの実装終わるんだ…!
- -
昨日の晩河原先生に呼び出されて面談をした。
僕の研究が野球のニュースを題材にしているからな気がするけど、河原先生の喩え話も野球が多くなってきた気がするw
先生「研究も野球と一緒でね、シングルヒットを何本打ったって意味ないんだよ。ヒットならヒットで同じ回に連打しないと点にならないように、論文誌になるように1つの得点になりそうなネタを突き詰めないといけないんです。もちろんホームランが打てるならそれにこしたことはないんだけどね。」
ちなみに28日がNLPの締切りで、その発表ネタのアブストを3種類書いて先生に送ったのだが、ふらふらと細々したことをやっていないで、まずは1本筋の通った研究をして論文を書くところまで持っていきなさい。ということなんだろう。
- -
昨日河原研・黒橋研の機械学習勉強会で柴田先生にMarkov Logicを解説してもらってようやく意味がわかった。一階述語論理の有向を無向グラフに変換した上で、そのグラフネットワークのエッジに重み付けをして使うんだな。あらゆる場合に適用する制約は重み無限。
- -