Algoritmi Deep Learning: algoritmul de propagare întoarsă în rețelele neuronale
Backpropagation (folosită în "algoritmi de backpropagation") este o metodă folosită în rețelele neuronale artificiale pentru a calcula un gradient care este necesar în calculul greutăților care trebuie utilizate în rețea (în timp ce "învățăm"). Backpropagation este, pe scurt, metoda pentru propagarea înapoi a erorilor, deoarece o eroare este calculată la ieșire și distribuită înapoi în toate straturile rețelei neuronale, se menționează într-un articol apărut în ARTIFICIAL - INTELLIGENCE . BLOG. Este frecvent utilizat pentru a antrena rețele neuronale profunde (deep learning).
Scopul oricărui algoritm de învățare supravegheat este de a găsi o funcție care să corespundă cel mai bine unui set de intrări către rezultatele lor corecte. Motivația pentru backpropagation este formarea unei rețele neuronale cu mai multe straturi, astfel încât să poată învăța reprezentările interne adecvate pentru a-i permite să învețe orice mapare arbitrară a intrării la ieșire.
Ce se întâmplă de fapt cu o rețea neuronală în timp ce învață?
Backpropagation este o generalizare a regulii delta la rețelele neuronale avansate cu straturi multiple, fiind posibilă folosind regula lanțului pentru a calcula iterativ gradienții pentru fiecare strat. Este strâns legat de algoritmul Gauss-Newton și face parte din continuarea cercetărilor în backpropagation neuronal.
Backpropagation este un caz special al unei tehnici mai generale numită diferențiere automată. În contextul învățării, backpropagation este frecvent utilizat de algoritmul de optimizare a coborârii gradientului pentru a ajusta greutatea neuronilor prin calcularea gradientului funcției de pierdere.
Articolul integral aici:
https://www.artificial-intelligence.blog/education/dl-algorithms-backpropagation-algorithm