Hiroki Naganuma
Strategy
無限にタスクがあるので一個一個素早く倒していく
Tasks
最優先事項 (主著に集中)
First Author
Curvature /
TMLR2024
-> 3/31
SAM AutoTune /
NeurIPS2024
-> 5/?
Timm OOD /
ECCV2024
-> 3/1
中期的にやっていく (数ヶ月以内)
First Author
Calibration @LinkedIn /
RecSys
-> 4/19
Corresponding Author
PP
NER /
??
-> ?/?
3D gaussian splatting /
ECCV
-> 3/1
RLOpt
Ensembel for RL /
IROS
-> 3/?
長期的にやっていく (一年以内)
First Author
MLHPC
Damping Study /
TMLR
-> ?/?
plot
学習はこれ
Industry
TIC / DENSO IT Lab, CyberAgent AI Lab / [TMLR?] -> ?
Pending
読み物 1
論文執筆/プレゼン資料作成時の参考資料
因果推論
スライド
LayerNorm
統計モデリング入門 2015 (f)
一般化線形混合モデル (GLMM)
読み物 2
国際会議で発表する
主成分分析 / Nospare
数理・データサイエンス教育強化拠点コンソーシアム
無限次元勾配ランジュバン動力学による深層学習の最適化と汎化誤差解析
機械学習における連続最適化の新しいトレンド
因果推論の道具箱
リーマン多様体上の最適化―特異値分解の例を通して―
読み物 3
大規模言語モデル(LLM)の作り方 Megatron-DeepSpeed編 Part2
User-friendly introduction to PAC-Bayes bounds
LLM Calibration and Automatic Hallucination Detection via Pareto Optimal Self-supervision
読み物 4
モデルパラメータの算術
Transformerとは何か? 「ChatGPT」や「Gemini」を生み出した超重要技術の進化
[KDD2023論文読み会] BERT4CTR: An Efficient Framework to Combine Pre-trained Language Model with …
Python(PyTorch)で自作して理解するTransformer
時系列解析(3)/ TIC
みたい研究紹介 Youtube
【ソニー社内講演】拡散モデルと基盤モデル
【nnablaRLアルゴリズム解説】方策勾配法(REINFORCE)
【学会聴講報告】NeurIPS2022における拡散モデル研究動向 part1
【学会聴講報告】NeurIPS2022における拡散モデル研究動向 part2
【AI論文解説】Uni-Perceiver-MoE: スパース性の導入による汎用モデルの高速化
【ICLR2023論文解説】Transformerに代わる次世代のモデル?Hungry Hungry Hipposの紹介【cvpaper.challengeコラボ企画】
【ICLR2023論文解説】学習済みVision Transformerを2倍高速化!?Token削減の新手法: Token Merging【cvpaper.challengeコラボ企画】
【ICLR2023論文解説】ベイズ誤差推定による機械学習タスク難易度の定量化と SOTA モデル評価【cvpaper.challengeコラボ企画】
【ICLR2023論文解説】意外すぎるほどシンプルなFew-shot Domain Adaptation新手法!Latent Code Learning【cvpaper.challengeコラボ企
【ICLR2023論文解説】Classification by Description: LLMを用いた説明可能性の高い画像分類フレームワーク【cvpaper.challengeコラボ企画】
Others
================================= その他のプロジェクトページ =================================
Others
LogitNorm
TIC
Damping Schedule
OOD Optimizer
CG for GANs
NGD for GANs