Kāpēc stohastiskā gradienta nolaišanās?

Kāpēc stohastiskā gradienta nolaišanās?
Kāpēc stohastiskā gradienta nolaišanās?
Anonim

Saskaņā ar vecākā datu zinātnieka teikto, viena no stohastiskā gradienta nolaišanās priekšrocībām ir tā, ka tā veic aprēķinus ātrāk nekā gradienta nolaišanās un partijas gradienta nolaišanās … lielas datu kopas, stohastiskā gradienta nolaišanās var konverģēt ātrāk, jo tā veic atjauninājumus biežāk.

Kam tiek izmantota stohastiskā gradienta nolaišanās?

Stohastiskā gradienta nolaišanās ir optimizācijas algoritms, ko bieži izmanto mašīnmācīšanās lietojumprogrammās, lai atrastu modeļa parametrus, kas vislabāk atbilst prognozētajiem un faktiskajiem rezultātiem Tas ir neprecīzs, bet spēcīgs paņēmiens.. Stohastiskā gradienta nolaišanās tiek plaši izmantota mašīnmācības lietojumprogrammās.

Kāpēc mums ir jāizmanto stohastiskā gradienta nolaišanās, nevis standarta gradienta nolaišanās, lai apmācītu konvolucionālo neironu tīklu?

Stohastiskā gradienta nolaišanās atjaunina parametrus katram novērojumam, kas noved pie lielāka atjauninājumu skaita. Tāpēc tā ir ātrāka pieeja, kas palīdz ātrāk pieņemt lēmumus. Šajā animācijā var pamanīt ātrākus atjauninājumus dažādos virzienos.

Kāpēc mēs dodam priekšroku slīpumam?

Galvenais iemesls, kāpēc lineārajai regresijai tiek izmantota gradienta nolaišanās, ir skaitļošanas sarežģītība: skaitļošanas ziņā lētāk (ātrāk) ir atrast risinājumu, izmantojot gradienta nolaišanos. Šeit jums jāaprēķina matrica X′X un pēc tam jāapgriež (skatiet piezīmi zemāk). Tas ir dārgs aprēķins.

Kāpēc tiek izmantots SGD?

Stohastiskā gradienta nolaišanās (bieži saīsināta SGD) ir iteratīva metode mērķa funkcijas optimizēšanai ar piemērotām gluduma īpašībām (piemēram, diferencējama vai apakšdiferencējama).

Ieteicams: