Pagina 1 di 1

Reti neurali come approssimatori universali

MessaggioInviato: 28 giu 2022, 22:24
da Ianero
Sarei curioso di leggere la dimostrazione di questa affermazione:

A two-layer network with linear outputs can uniformly approximate any continuous function on a compact input domain to arbitrary accuracy, provided the network has a sufficiently large number of hidden units.

fatta dal libro di Bishop, Pattern Recognition and Machine Learning.

Qualcuno ha qualche link, per favore?

Re: Reti neurali come approssimatori universali

MessaggioInviato: 29 giu 2022, 0:29
da rugweri
Il risultato che ti interessa è stato discusso in un articolo del 1989 che è liberamente reperibile online :ok:

Re: Reti neurali come approssimatori universali

MessaggioInviato: 29 giu 2022, 6:41
da djnz
Ianero ha scritto:A two-layer network with linear outputs


Forse era NON linear?

Re: Reti neurali come approssimatori universali

MessaggioInviato: 29 giu 2022, 13:13
da Ianero
Grazie Walter, leggerò, e sicuramente tornerò con tante cose che non capirò :-)

Comunque era effettivamente “linear”.

Re: Reti neurali come approssimatori universali

MessaggioInviato: 29 giu 2022, 17:17
da djnz
Ianero ha scritto:Comunque era effettivamente “linear”.

Mah, magari intende cose diverse, una rete di neuroni con uscite(?) lineari produce solo una retta, o un piano o iperpiano piatti. Non vorrei distinguesse tra uscita(?) e funzione di trasferimento (non lineare) del singolo neurone...

Re: Reti neurali come approssimatori universali

MessaggioInviato: 29 giu 2022, 22:05
da Ianero
“Linear” vale solo per i neuroni di uscita, non per quelli interni.

Re: Reti neurali come approssimatori universali

MessaggioInviato: 29 giu 2022, 22:07
da djnz
Ah, ok, ci devo pensare, grazie ;-)