Perceptron: Razlika med redakcijama

dodanih 651 zlogov ,  pred 17 leti
brez povzetka urejanja
Brez povzetka urejanja
Brez povzetka urejanja
'''Perceptron''' je najbolj razširjena [[nevronska mreža]]. Vse povezave med [[nevron|nevroni]] so usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja dokler ni napaka dovolj mala.
 
== enoslojni perceptron ==
 
Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po Hebbovem pravilu. Marvin Minsky in Seymour Papert sta leta 1969 dokazala, da enoslojni Perceptron ne more rešiti XOR problema.
 
 
== večslojni perceptron ==
 
Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojne ga. Tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.
 
 
== www povezave ==
 
[http://diwww.epfl.ch/mantra/tutorial/english/perceptron/html/ Java-applet perceptrona]