Hiroki Naganuma
Strategy
無限にタスクがあるので一個一個素早く倒していく
Tasks
最優先事項 (以下三つに集中)
First Author
Curvature /
ICML2024
-> 2/1
SAM AutoTune /
ICML2024
-> 2/1
Corresponding Author
PP
NER /
NAACL
-> 12/15
中期的にやっていく (数ヶ月以内)
First Author
Calibration @LinkedIn /
KDD
-> 2/?
Corresponding Author
PP
3D gaussian splatting /
ECCV
-> 3/?
RLOpt
Ensembel for RL /
IROS
-> 3/?
IRM Variants /
UAI
-> 2/?
IPSJ に日本語版を出す
長期的にやっていく (一年以内)
First Author
MLHPC
Damping Study /
TMLR
-> ?/?
TokyoTech Cluster で投げられるか試す?
plot
学習はこれ
Icebox
Industry
TIC / DENSO IT Lab, CyberAgent AI Lab / [TMLR?] -> ?
Pending
読み物 1
論文執筆/プレゼン資料作成時の参考資料
因果推論
スライド
LayerNorm
研究者として海外就活した話
統計モデリング入門 2015 (f)
一般化線形混合モデル (GLMM)
読み物 2
国際会議で発表する
主成分分析 / Nospare
数理・データサイエンス教育強化拠点コンソーシアム
無限次元勾配ランジュバン動力学による深層学習の最適化と汎化誤差解析
機械学習における連続最適化の新しいトレンド
因果推論の道具箱
リーマン多様体上の最適化―特異値分解の例を通して―
読み物 3
大規模言語モデル(LLM)の作り方 Megatron-DeepSpeed編 Part2
User-friendly introduction to PAC-Bayes bounds
LLM Calibration and Automatic Hallucination Detection via Pareto Optimal Self-supervision
みたい研究紹介 Youtube
【nnablaRLアルゴリズム解説】方策勾配法(REINFORCE)
【学会聴講報告】NeurIPS2022における拡散モデル研究動向 part1
【学会聴講報告】NeurIPS2022における拡散モデル研究動向 part2
【AI論文解説】Uni-Perceiver-MoE: スパース性の導入による汎用モデルの高速化
【ICLR2023論文解説】Transformerに代わる次世代のモデル?Hungry Hungry Hipposの紹介【cvpaper.challengeコラボ企画】
【ICLR2023論文解説】学習済みVision Transformerを2倍高速化!?Token削減の新手法: Token Merging【cvpaper.challengeコラボ企画】
【ICLR2023論文解説】ベイズ誤差推定による機械学習タスク難易度の定量化と SOTA モデル評価【cvpaper.challengeコラボ企画】
【ICLR2023論文解説】意外すぎるほどシンプルなFew-shot Domain Adaptation新手法!Latent Code Learning【cvpaper.challengeコラボ企
【ICLR2023論文解説】Classification by Description: LLMを用いた説明可能性の高い画像分類フレームワーク【cvpaper.challengeコラボ企画】
Others
================================= その他のプロジェクトページ =================================
Others
LogitNorm
TIC
Damping Schedule
OOD Optimizer
CG for GANs
NGD for GANs