Hiroki Naganuma

Questions

Q1 Global Minima は 1 つか?

ひとつじゃない

確率的最適化は大域的収束をするのか

『最急降下法では、局所解から逃げることはできないが、確率的勾配降下法(stochastic gradient)は乱数の挙動のおかげで局所解から脱出することができる』と書かれています。確かに、「確率的勾配降下法が局所解に陥らないことを断言はできないが、それでも脱出できる可能性はある」 

Q2 必要条件として、勾配の SUM が 0 であることで十分か?

線形回帰などを仮定したら、損失関数が凸であれば、局所解 = 大域的最適解で、十分な条件

Screenshot 2022-03-26 at 4 41 28 PM

Screenshot 2022-03-10 at 3 48 23 PMScreenshot 2022-03-10 at 3 57 57 PM

Q3 Counter Example (grad != 0)

Q4 Why MSE is reasonable?

Q5 Bound of the Eigenvalues

Screenshot 2022-03-28 at 11 15 32 AM

Screenshot 2022-03-28 at 12 05 53 PM

Q6 Simple formula transformation

Q7 Formula transformation (Strong Convexity and Expectation)

Q8 The sequence E[∥θt − θ∗∥^2] converges geometrically to 0.

Answer

Refrence

Interpolation

Interpolation is a method of creating new data points within the range of known data points. https://www.ml-science.com/interpolation

多くの場合、そのデータポイントにフィットする関数を考え、関数ドメインのどの点でも補間値を思いつくようにすることが、より早く、より正確にデータを思いつく方法となります。 補間とは、あるデータセット内の情報を使って、経験則に基づいた推測をすることです。手元にある情報を使っての「最良の推測」です。

What is Interpolation?
Interpolation is making an educated guess with the information within a certain data set. It is a “best guess” using the information you have at hand. 

https://deepai.org/machine-learning-glossary-and-terms/interpolation

Screenshot 2022-03-10 at 1 43 31 PM