微分方程式が解けません。
アルゴリのまとめも書き始めました。
AOJ-ICPC
ODEの単位をくれ
読んだ本
ODEの単位をくれ
読んだ論文
ODEの単位をくれ
今日は例によって例のごとく試験勉強をしていました。
某の課題が思うように進まずに頭を抱えてましたがなんとか出せました(遅れて申し訳ありませんでした…)
そんなことをしてる暇がない
バ先にて「詳解ディープラーニング」を買ってもらったのであとで読みたいと思います。
詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~
単位が欲しい
今日はひたすら試験勉強でした。
今日は、「第13回 カーネル/VM 探検隊@東京」というめちゃくちゃ行きたかったイベントがあったのですが、力量不足と試験直前ということでおうち受講です。あとでYoutubeの動画で追うつもりです。以下がその動画です。
試験勉強ですが、ちょくちょくレジュメをまとめ始めました。ペーパープログラミング…不安しかない…
会社のKindleに入っていた中でさらっと読めそうだった以下の本を読んでみました。
割りと無意識にやっていることや共感できる部分は多かったです。面倒くさがりが功を奏することは多々あるのですね。これからも面倒くさがりでいきたいと思います(?)。
ただ、「かな入力がローマ字入力より優れている」の理屈はちょっと同感できませんでした。
「ローマ字入力もそれなりに素早く打てるじゃんオイオイ…むしろかな入力の汎用性低くない?」と思いながら読んでました。このあたりは職業柄(?)というやつですかね…難しいです。
「Markdownはイイぞ」というところはめちゃくちゃ共感しました。わかります。
実は、Markdownの素晴らしさに感化され、内輪向けにこのような不毛な記事を書いたことがあるのですが…
事実Markdownは非常にすぐれたマークアップ言語だと思います。ちょっとしたメモをとったり、考えをまとめたりするときに、Markdownを使うと何も考えなくても自然とメモが構造化されて、可読性が一気に向上します。Wordの時代は終わりを告げている気がします。
HackMDとかいう神サービスの登場もあって、スライド作成もMarkdownでできちゃう時代になったものですからMarkdown様様ですね。
何にせよ、ビジネスマンだけじゃなく、学生としても色々と参考になる情報がたくさん載ってました。いろいろと活用していきたいですね。
皆さんも読んでみてはいかがでしょうか。
そんなことをしている暇がない
今日も暑かったです。ますますコーラが美味しい季節になってきました。
なぜかWAで詰んでます。100なのにまずいです。人権をかけて明日あたりにでも再挑戦します。
最近、友人に薦められて「白と黒のとびら」という本を読み始めました。
この本のあらすじは、ざっと以下のような感じです。
偉大なる魔法使いとその弟子が、次々と出会う奇妙な「遺跡」や奇妙な「言葉」を通して、その秘密に迫っていく。
友人曰く、「気づいたら形式言語理論の基礎が身についていた」とのことです。
私の学科では、形式言語理論を学ぶ「情報数学」という講義があるのですが、できればその講義が始まる前に出会いたかったです。来年の再履修のときに活かしたいと思います(白目)
読み終わって気が向いたら要約を書こうと思います(ここだとネタバレになっちゃうので)
ハイパーパラメータのベイズ最適化について調べていたときに発掘したものなのですが、読み切るには前提知識があまりにも足らなすぎました。
Many applications require optimizing an un- known, noisy function that is expensive to evaluate. We formalize this task as a multiarmed bandit problem, where the payoff function is either sampled from a Gaussian process (GP) or has low RKHS norm. We resolve the important open problem of deriving regret bounds for this setting, which imply novel convergence rates for GP optimization. We analyze GP-UCB, an intuitive upper-confidence based algorithm, and bound its cumulative regret in terms of maximal information gain, establishing a novel connection between GP optimization and experimental design. Moreover, by bounding the latter in terms of operator spectra, we obtain explicit sublinear regret bounds for many commonly used covariance functions. In some important cases, our bounds have surprisingly weak dependence on the dimensionality. In our experiments on real sensor data, GP-UCB compares favorably with other heuristical GP optimization approaches.
雰囲気↓
なんだかよくわからないノイズだらけの関数は評価コストが高すぎるので最適化したい。このタスクを"多腕バンディット問題(multiarmed bandid problem)“とし、ここでは報酬関数をガウス的手法を用いてサンプルし、再生核ヒルベルト空間(Reproducing Kernel Hilbert Space; RKHS)の低ノルム(?)としたときに、なんかいい感じにガウス最適化を用いていい感じになるような手法を紹介しちゃうよ〜
>>>(1ミリも理解できていない)<<<
RKHSについては以下のブログが詳しかったです。
Lpノルムに関しては↓
http://www-adsys.sys.i.kyoto-u.ac.jp/mohzeki/Presentation/lectureslide20150902-3.pdf
regret bounds
のregretの意味を理解するのにすごく時間がかかりました。これは、決定理論における"損失"という意味らしいです。ほう…
多腕バンディット問題については以下のスライドが超わかりやすかったです。
http://www.it.k.u-tokyo.ac.jp/~honda/FIT_bandit.pdf
いずれにせよちゃんと統計やらないとわからないですね。反省してます。