Hiroki Naganuma
Papers
Neural Tangent Kernel: Convergence and Generalization in Neural Networks
原著
A Generalized Neural Tangent Kernel Analysis for Two-layer Neural Networks
A Recipe for Global Convergence Guarantee in Deep Neural Networks
川口先生の論文
Any Target Function Exists in a Neighborhood of Any Sufficiently Wide Random Network: A Geometrical Perspective
甘利先生の幾何学的説明
Other Reference
深層学習の原理解析:汎化誤差の側面から
今泉先生の資料
深層学習の数理:ランダム行列と統計力学的視点
唐木田さんの資料
AIP Open Seminar #20 20210407
鈴木先生らの講演動画