Reti neurali artificiali, cosa sono e come funzionano

Le reti neurali artificiali (RNA) sono algoritmi di apprendimento sotto forma di programmi informatici o hardware. Le RNA sono caratterizzate da un’architettura e da un metodo di formazione, con la prima che si riferisce al modo in cui gli elementi di elaborazione sono collegati e i segnali scambiati. Un elemento o unità di elaborazione è un nodo in cui i segnali di input convergono e sono trasformati in “uscite” tramite funzioni di trasferimento o di attivazione. I valori delle uscite sono solitamente moltiplicati per i pesi prima di raggiungere un altro nodo.

Per quanto attiene invece la formazione, o addestramento, il suo scopo è quello di  trovare i valori ottimali di questi pesi, secondo un criterio previsto. Nell’addestramento supervisionato, per esempio, gli input  sono presentati alla rete e gli output sono confrontati con gli output desiderati o target. I pesi sono quindi regolati per minimizzare una funzione obiettivo come l’errore quadratico medio, per esempio. Di contro, nell’addestramento non supervisionato, la rete stessa trova i propri parametri ottimali.

Diversi tipi di RNA

Anche se ci sono diversi tipi di reti neurali, un semplice esempio di RNA è il perceptron multistrato. In questo caso gli insiemi centrali dell’unità unità sono chiamati strati nascosti e gli altri due “superficiali” sono chiamati strati di input e di output. Le funzioni di trasferimento negli strati di input e di output possono essere identiche, e quelle dello strato nascosto sono di solito funzioni sigmoidali o a tangente iperbolica. Queste funzioni mappano la somma degli ingressi ponderati nell’intervallo tra zero e uno o tra meno uno e più uno. Il flusso di segnali nell’esempio è unidirezionale, dando il nome all’intera rete.

Ovviamente, gli output sono modellati come funzioni altamente non lineari degli input originali. In altre parole una RNA può recuperare una mappatura sconosciuta dallo spazio di input a quello di output purché  contenga abbastanza elementi di elaborazione.

Ricordiamo anche che la rete può essere formata con una backpropagation, il cui scopo è cercare un minimo nella funzione di errore attraverso il metodo della discesa del gradiente. I pesi sono regolati nella direzione che riduce il valore della funzione di errore dopo ogni presentazione dei record di input.

I problemi delle RNA e come superarli

Infine, concludiamo evidenziando come le RNA talvolta condividano il problema dei minimi locali e il problema dell’overtraining. A causa della non linearità coinvolta, di fatti, l’algoritmo non può sempre raggiungere un minimo globale. Per quanto attiene invece l’overtraining, tale condizione si riferisce alla situazione in cui la rete memorizza gli input e non può generalizzare (prevedere correttamente) quando viene applicata ad un nuovo set di dati.

Tuttavia, ci sono modi per superare questi problemi e le RNA sono molto utili. Infatti in molte occasioni esse sono superiori ai modelli lineari in termini di accuratezza della previsione. Una rete correttamente formata dovrebbe poi essere in grado di generalizzare, cioè di riconoscere modelli in dati che non ha ancora visto. Anche se le misure statistiche come i rapporti t non sono disponibili, si può altresì pur sempre eseguire un’analisi di sensibilità, che consiste nel variare un input entro un intervallo ragionevole e osservare come si comporta la funzione di output stimata.

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*