Reti Neurali: differenze tra le versioni

Tratto da EduEDA
Jump to: navigation, search
 
(2 versioni intermedie di uno stesso utente non sono mostrate)
Riga 6: Riga 6:
 
== Le reti neurali biologiche ==
 
== Le reti neurali biologiche ==
  
[[immagine:Reti_Neurali_Neurone.JPG|right|frame|Neurone]]
+
[[immagine:Reti_Neurali_Neurone.JPG|right|frame|'''Un singolo neurone''']]
  
 
Le reti neurali artificiali sono basate sul funzionamento delle reti neurali biologiche, che sono composte da neuroni collegati dagli assoni (lunghe fibre che trasmettono segnali da una cellula nervosa ad un’altra cellula). Questi segnali, in parte elettrici ed in parte chimici, sono la modalità in cui le cellule neurali comunicano. I neuroni sono racchiusi da una membrana semi-impermeabile che permette solo ad alcuni ioni di passare. Quando il neurone è in riposo, gli ioni del cloro (con una carica negativa) passano facilmente mentre gli ioni del potassio (con una carica positiva) hanno più difficoltà. Quelli del sodio invece (anche essi di carica positiva), non possano passare. In questo stato la maggior parte del potassio resta all’interno della membrana, mentre cloro e sodio rimangono all’esterno. In questo modo la semi-impermeabilità della membrana crea una differenza di potenziale elettrico fra il suo esterno e il suo interno. Quando il neurone è stimolato la membrana diventa permeabile al sodio, trasformando la carica dell’interno della cellula da negativa a positiva.  
 
Le reti neurali artificiali sono basate sul funzionamento delle reti neurali biologiche, che sono composte da neuroni collegati dagli assoni (lunghe fibre che trasmettono segnali da una cellula nervosa ad un’altra cellula). Questi segnali, in parte elettrici ed in parte chimici, sono la modalità in cui le cellule neurali comunicano. I neuroni sono racchiusi da una membrana semi-impermeabile che permette solo ad alcuni ioni di passare. Quando il neurone è in riposo, gli ioni del cloro (con una carica negativa) passano facilmente mentre gli ioni del potassio (con una carica positiva) hanno più difficoltà. Quelli del sodio invece (anche essi di carica positiva), non possano passare. In questo stato la maggior parte del potassio resta all’interno della membrana, mentre cloro e sodio rimangono all’esterno. In questo modo la semi-impermeabilità della membrana crea una differenza di potenziale elettrico fra il suo esterno e il suo interno. Quando il neurone è stimolato la membrana diventa permeabile al sodio, trasformando la carica dell’interno della cellula da negativa a positiva.  
Riga 13: Riga 13:
  
 
== Le reti neurali artificiali ==
 
== Le reti neurali artificiali ==
 +
 +
[[immagine:Neural_network_example_it.jpg|right|frame|'''Una rete neurale artificiale''']]
  
 
Un circuito neurale è un circuito di neuroni interconnessi che si influenzano a vicenda. La teoria del “connessionismo” o “processamento distribuito in parallelo” sostiene che la memoria di un’esperienza distribuita tra molte unità di processamento participano alla rappresentazione delle esperienze. Come le cellule cerebrali, queste unità di processamento possono tutte eseguire solo un’operazione, peró quando sono connesse creano un sistema capace di apprendere.  
 
Un circuito neurale è un circuito di neuroni interconnessi che si influenzano a vicenda. La teoria del “connessionismo” o “processamento distribuito in parallelo” sostiene che la memoria di un’esperienza distribuita tra molte unità di processamento participano alla rappresentazione delle esperienze. Come le cellule cerebrali, queste unità di processamento possono tutte eseguire solo un’operazione, peró quando sono connesse creano un sistema capace di apprendere.  
 
La teoria di processamento in parallelo di rappresentazioni locali riesce a spiegare sia la capacità del cervello umano di apprendere, che altre caratteristiche del modo in cui percepiamo. Per esempio, anche quando le persone non riescono a ricordare una parola, possono ricordare la prima lettera o un'altra parola che le assomiglia. Riusciamo ad individuare le parole anche quando sono coperte da macchie che rendono le stesse lettere irriconoscibili quando viste individualmente. Per esempio una R con la parte in alto coperta da una macchia, potrebbe essere sia una R che una K, però se questa lettera macchiata è vista nel contesto di una parola intera, riusciamo a leggere la parola senza nemmeno accorgerci della possibilità che possa essere un'altra lettera.
 
La teoria di processamento in parallelo di rappresentazioni locali riesce a spiegare sia la capacità del cervello umano di apprendere, che altre caratteristiche del modo in cui percepiamo. Per esempio, anche quando le persone non riescono a ricordare una parola, possono ricordare la prima lettera o un'altra parola che le assomiglia. Riusciamo ad individuare le parole anche quando sono coperte da macchie che rendono le stesse lettere irriconoscibili quando viste individualmente. Per esempio una R con la parte in alto coperta da una macchia, potrebbe essere sia una R che una K, però se questa lettera macchiata è vista nel contesto di una parola intera, riusciamo a leggere la parola senza nemmeno accorgerci della possibilità che possa essere un'altra lettera.
 
=== Processamento in parallelo ===
 
  
 
Una teoria di James McClelland e Dave Rumelhart propone che ogni parola possibile è rappresentata da una sua unità di processamento. Anche ogni lettera in ciascuna posizione in una parola è rappresentata da un’unità separata. Queste unità sono piccoli processori che funzionano in parallelo, ognuno rappresentando una possibilità. Alcune possibilità si sostengono, per esempio la possibilità che la prima lettera di una parola sia ‘R’ e la possibilità che la parola stessa sia ‘RED’. Quindi il processore che si attiva quando la parola è ‘RED’ manda anche un segnale positivo al processore che si attiva quando la prima lettera è ‘R’ e viceversa. Queste due mandano, invece, un segnale inibitorio al processore che rappresenta la possibilità che la prima lettera sia ‘B’, perché tutte e due le possibilità non possono essere vere. Questi sistemi si attivano e si inibiscono tra di loro finché un sistema che rappresenta una parola arriva ad un livello di attivazione sopra alla soglia del riconoscimento della parola. Esperimenti mostrano che è più facile riconoscere una lettera in una parola che una lettera in un gruppo di lettere senza senso, sostenendo questa teoria. Non spiega, però, come un tal sistema di interconnessione possa essere creato da zero nel cervello umano.  
 
Una teoria di James McClelland e Dave Rumelhart propone che ogni parola possibile è rappresentata da una sua unità di processamento. Anche ogni lettera in ciascuna posizione in una parola è rappresentata da un’unità separata. Queste unità sono piccoli processori che funzionano in parallelo, ognuno rappresentando una possibilità. Alcune possibilità si sostengono, per esempio la possibilità che la prima lettera di una parola sia ‘R’ e la possibilità che la parola stessa sia ‘RED’. Quindi il processore che si attiva quando la parola è ‘RED’ manda anche un segnale positivo al processore che si attiva quando la prima lettera è ‘R’ e viceversa. Queste due mandano, invece, un segnale inibitorio al processore che rappresenta la possibilità che la prima lettera sia ‘B’, perché tutte e due le possibilità non possono essere vere. Questi sistemi si attivano e si inibiscono tra di loro finché un sistema che rappresenta una parola arriva ad un livello di attivazione sopra alla soglia del riconoscimento della parola. Esperimenti mostrano che è più facile riconoscere una lettera in una parola che una lettera in un gruppo di lettere senza senso, sostenendo questa teoria. Non spiega, però, come un tal sistema di interconnessione possa essere creato da zero nel cervello umano.  
Riga 34: Riga 34:
  
 
=== Reti con unità nascoste ===
 
=== Reti con unità nascoste ===
 +
 +
[[immagine:Artificial_neural_network.jpg|right|frame|'''Reti con unità nascoste''']]
  
 
Alcune configurazioni non possono essere riconosciute dai perceptrons. Per esempio non sono capaci di rispondere quando uno degli input, ma non entrambi, è attivo (disgiunzione). Per risolvere questo problema occorrono delle reti nascoste. Le perceptron e le teorie associative tradizionali che si basano esclusivamente sui legami diretti da unità di input a unità di output senza usare rappresentazioni interne non possono trattare i concetti complessi come le disgiunzione esclusive.
 
Alcune configurazioni non possono essere riconosciute dai perceptrons. Per esempio non sono capaci di rispondere quando uno degli input, ma non entrambi, è attivo (disgiunzione). Per risolvere questo problema occorrono delle reti nascoste. Le perceptron e le teorie associative tradizionali che si basano esclusivamente sui legami diretti da unità di input a unità di output senza usare rappresentazioni interne non possono trattare i concetti complessi come le disgiunzione esclusive.

Versione attuale delle 09:32, 1 Lug 2009

Argomento:

Le reti neurali

Descrizione:

Le reti neurali biologiche

Un singolo neurone

Le reti neurali artificiali sono basate sul funzionamento delle reti neurali biologiche, che sono composte da neuroni collegati dagli assoni (lunghe fibre che trasmettono segnali da una cellula nervosa ad un’altra cellula). Questi segnali, in parte elettrici ed in parte chimici, sono la modalità in cui le cellule neurali comunicano. I neuroni sono racchiusi da una membrana semi-impermeabile che permette solo ad alcuni ioni di passare. Quando il neurone è in riposo, gli ioni del cloro (con una carica negativa) passano facilmente mentre gli ioni del potassio (con una carica positiva) hanno più difficoltà. Quelli del sodio invece (anche essi di carica positiva), non possano passare. In questo stato la maggior parte del potassio resta all’interno della membrana, mentre cloro e sodio rimangono all’esterno. In questo modo la semi-impermeabilità della membrana crea una differenza di potenziale elettrico fra il suo esterno e il suo interno. Quando il neurone è stimolato la membrana diventa permeabile al sodio, trasformando la carica dell’interno della cellula da negativa a positiva.

A differenza del potenziale d’azione portato dagli assoni che può solo o trasmettere un segnale o non trasmetterlo, con la trasmissione sinaptica l’attivazione di una cellula nervosa occorre in base alla quantità di attivazione raggiunta attraverso le diverse stimolazioni che arrivano dai neuroni e alterano il potenziale elettrico della sua membrana. Ogni neurone può avere un input positivo, negativo o neutro verso un altro neurone. Certi input contribuiscono alla scarica del neurone. Se la somma dei segnali in ingresso supera una certa soglia, il neurone invia un potenziale d'azione presso l'assone e trasmette questo segnale elettrico lungo l’assone di una cellula. Se invece gli input non arrivano alla soglia, il neurone rimane in stato di riposo.

Le reti neurali artificiali

Una rete neurale artificiale

Un circuito neurale è un circuito di neuroni interconnessi che si influenzano a vicenda. La teoria del “connessionismo” o “processamento distribuito in parallelo” sostiene che la memoria di un’esperienza distribuita tra molte unità di processamento participano alla rappresentazione delle esperienze. Come le cellule cerebrali, queste unità di processamento possono tutte eseguire solo un’operazione, peró quando sono connesse creano un sistema capace di apprendere. La teoria di processamento in parallelo di rappresentazioni locali riesce a spiegare sia la capacità del cervello umano di apprendere, che altre caratteristiche del modo in cui percepiamo. Per esempio, anche quando le persone non riescono a ricordare una parola, possono ricordare la prima lettera o un'altra parola che le assomiglia. Riusciamo ad individuare le parole anche quando sono coperte da macchie che rendono le stesse lettere irriconoscibili quando viste individualmente. Per esempio una R con la parte in alto coperta da una macchia, potrebbe essere sia una R che una K, però se questa lettera macchiata è vista nel contesto di una parola intera, riusciamo a leggere la parola senza nemmeno accorgerci della possibilità che possa essere un'altra lettera.

Una teoria di James McClelland e Dave Rumelhart propone che ogni parola possibile è rappresentata da una sua unità di processamento. Anche ogni lettera in ciascuna posizione in una parola è rappresentata da un’unità separata. Queste unità sono piccoli processori che funzionano in parallelo, ognuno rappresentando una possibilità. Alcune possibilità si sostengono, per esempio la possibilità che la prima lettera di una parola sia ‘R’ e la possibilità che la parola stessa sia ‘RED’. Quindi il processore che si attiva quando la parola è ‘RED’ manda anche un segnale positivo al processore che si attiva quando la prima lettera è ‘R’ e viceversa. Queste due mandano, invece, un segnale inibitorio al processore che rappresenta la possibilità che la prima lettera sia ‘B’, perché tutte e due le possibilità non possono essere vere. Questi sistemi si attivano e si inibiscono tra di loro finché un sistema che rappresenta una parola arriva ad un livello di attivazione sopra alla soglia del riconoscimento della parola. Esperimenti mostrano che è più facile riconoscere una lettera in una parola che una lettera in un gruppo di lettere senza senso, sostenendo questa teoria. Non spiega, però, come un tal sistema di interconnessione possa essere creato da zero nel cervello umano.

Associazioni lineari tra configurazioni

Associazioni lineari tra configurazioni assumono che ogni unità possa avere solo tre livelli di attivazione: attiva, neutra o inibita. Questi segnali di attivazione o inibizione vanno modificati dalla forza della connessione tra le due unità. Un’unità trasmette un’attivazione che sarà la propria attivazione moltiplicata per la forza della connessione con l’altra unità. Il livello di attivazione per un’unità è la somma di tutte le attivazioni che riceve. Il sistema è “lineare” perché gli effetti delle operazioni separate sono sommate. Un sistema può rappresentare un numero di associazioni uguale al numero di unità in tal sistema. Quindi il cervello è capace di rappresentare milioni di associazioni. Come una cellula del cervello, una singola unità in questo tipo di sistema ha poca importanza per il funzionamento del sistema intero che continua a funzionare anche dopo che un’unità individuale viene danneggiata. In questo caso il sistema riesce a completare input frammentari, nello stesso modo in cui le persone inventano i dettagli mancanti per completare i ricordi senza accorgersi di averli inventati.

Perceptron

Il principio di Donald Hebb dice che la forza delle connessioni tra due unità aumenta ogni qual volta tutte e due le unità sono attive nello stesso momento e quindi spiega come le forze di connessione possano essere apprese dall’esperienza. Frank Rosenblatt propone un ‘perceptron’ costituito da una retina artificiale connessa a delle unità di input che sono a loro volta connesse ad altre unità di output. Ciascuna delle unità si attiva soltanto quando la somma degli input che riceve supera la propria soglia di attivazione. Quindi queste possono essere attivate dall'aggiunta ripetuta della stessa quantità di carica senza attivarsi. In una rete lineare un'operazione segue sempre lo stesso passaggio. Per essere in grado di apprendere, il perceptron genera dei feedback quando fa un errore. Se il perceptron non riesce ad identificare una configurazione, la forza delle connessioni dell'input che percepisce sono aumentate e la soglia dell’output viene diminuita. Se il Perceptron fa un errore, tutte le forze di connessione delle unità attive nell’unità di output vengono diminuite e la soglia per l’output viene alzata.

Reti con unità nascoste

Reti con unità nascoste

Alcune configurazioni non possono essere riconosciute dai perceptrons. Per esempio non sono capaci di rispondere quando uno degli input, ma non entrambi, è attivo (disgiunzione). Per risolvere questo problema occorrono delle reti nascoste. Le perceptron e le teorie associative tradizionali che si basano esclusivamente sui legami diretti da unità di input a unità di output senza usare rappresentazioni interne non possono trattare i concetti complessi come le disgiunzione esclusive. Un’unità nascosta che riconosce quando entrambi gli input sono attivi e inibisce l’output permette il riconoscimento di una disgiunzione esclusiva. L’unità nascosta si scarica quando solo un input si scarica. Quando tutti i e due gli input sono scarichi, l’unità nascosta inibisce l’output trasmettendo l’inibizione sufficiente a cancellare le scariche delle unità di input.

Back propagation

La “back propagation” è un metodo più efficiente per costruire reti con unità nascoste. Le reti sono composte di strati di unità: le unità di input sono nel fondo, le unità di sono output in cima e delle unità nascoste compongano diversi strati intermedi. Le unità di uno strato sono connesse solo alle unità degli strati superiori, permettendo che l’attivazione si propaghi verso l’alto della rete. Diversamente dal Perceptron, le unità non hanno una soglia di tutto o niente ma hanno invece una soglia che riduce la quantità del suo input. L’output così aumenta con l’aumento della somma degli input ma non in relazione lineare perché un aumento dell’input non necessita un certo output. Invece, l’output dipende dalla quantità totale dell’input. Ci sono tre operazioni necessarie per l’apprendimento. La prima è una fase di prova in cui la data di input attraversa la rete e produce output. Nella seconda fase questo output è confrontato con l’output “corretto” indicato da un “insegnante”. Quando questi non sono uguali viene generato un segnale di errore. Nella terza fase, la forza di tutte le connessioni ad una unità di output è aumentata o diminuita nella direzione che riduce l’errore. Per imparare una disgiunzione esclusiva, la rete deve iniziare usando delle piccole forze di connessione. Dopo tanti cicli con diversi input e output, il sistema convergerà. Quando ci sono più unità nascoste la soluzione si trova più velocemente. Può succedere che il sistema rimanga bloccato in un minimo locale da cui non riesce ad uscire usando le forze d’attivazione più piccole. Altre limitazioni della propagazione all’indietro dell’errore sono che essa richiede molta conoscenza e molta istruzione. Non è quindi sufficiente per spiegare l’apprendimento di azioni fisiche umane che hanno bisogno di indici più sensibili che un "si" o un "no".

Il connessionismo propone diversi livelli di rappresentazioni. Nell'alto livello ci sono i processi strutturali che rappresentano i simboli e nel basso livello ci sono i processi distribuiti che rappresentano le configurazioni simboliche.

Bibliografia:

1997, Johnson-Laird Philip N, La mente e il computer, Bologna: Societa editrice il Mulino

1994, Tabossi Patrizia, Intelligenza naturale e intelligenza artificiale, Bologna: Societa editrice il Mulino

1994, Stich Stephen P, Dalla psicologia del senso commune alla scienza cognitive, Bologna: Societa editrice il Mulino

Webliografia: