Shannon Claude

Tratto da EduEDA
Jump to: navigation, search
Claude Elwood Shannon

Personaggio

Claude Elwood Shannon è lo scienziato americano che ha posto le basi della Teoria matematica dell'informazione che è all’origine dello sviluppo di tutto il settore delle tecnologie dell’informazione. Il suo grande merito sta nell’aver capito che il contenuto dell’informazione è indipendente dal contenuto del messaggio.

Biografia

Claude Elwood Shannon nacque il 30 Aprile 1916 a Petoskey, nello Stato del Michigan (USA), da Claude, uomo d'affari, e da Mabel Catherine Wolf, insegnante di lingue e direttrice della scuola secondaria di Gaylord, Michigan (USA).

A Gaylord Shannon visse fino al 1932 e durante quel periodo, su incoraggiamento del nonno agricoltore nonché inventore di macchine agricole, si dedicò con molto interesse alla costruzione di modellini radiocomandati e telegrafi rudimentali, avendo predisposizione per la matematica e per la manualità in genere. Non a caso, un suo idolo di quel periodo fu Thomas Alva Edison, del quale poi seppe che era un suo lontano parente.

Nello stesso anno (1932) si iscrisse alla University of Michigan e nel 1936 conseguì la laurea di primo livello (Bachelor's degree) in matematica e ingegneria elettrotecnica; dopodiché decise di perfezionarsi al Massachusetts Institute of Technology (MIT), dove studiò con Norbert Wiener (padre della cibernetica) e con Vannevar Bush (ideatore dell’ipertesto).

Al MIT lavorò sul calcolatore analogico di Bush, un apparecchio meccanico denominato “Analizzatore differenziale”, sviluppato per il calcolo di equazioni differenziali anche di notevole difficoltà, al quale era collegato un circuito composto da decine di relè.

Richiamandosi alle nozioni dell’algebra di George Boole, Shannon intuì come la logica algebrica a due valori (0 e 1) potesse essere applicata ai problemi dei circuiti elettrici, laddove vi era completa rispondenza tra i principi di vero/falso della logica booleana e lo stato di acceso/spento proprio di un circuito elettrico (on/off).

Tale importante intuizione, che costituì la base delle sue successive elaborazioni teoriche, si concretizzò nella sua tesi di Master dal titolo “A symbolic analysis of relay and switching circuits” del 1938, mentre per la tesi di dottorato in matematica, discussa nel 1940, utilizzò la logica algebrica applicata alla genetica.

Dopo un breve periodo trascorso come ricercatore presso l’Institute for Advanced Study della Princeton University, nel 1941 Shannon fu assunto come ingegnere-matematico presso i Bell Telephone Laboratories della AT&T dove conobbe Mary Elizabeth Moore, analista numerico presso gli stessi laboratori, che sposò nel 1949. La collaborazione di Shannon con i laboratori della Bell durò fino al 1972.

Durante la seconda guerra mondiale si dedicò anche allo studio dei sistemi di controllo delle contraeree introducendo importanti elementi di novità nel settore della crittografia.

Nel 1956 era tornato al MIT dove vi insegnò fino al 1978 anno in cui fu nominato professore emerito.

Colpito dal morbo di Alzheimer, trascorse gli ultimi anni di vita in una casa di cura di Medford nel Massachusetts (USA) dove morì il 24 Febbraio 2001.

Sito web

Poetica

I fondamenti della teoria dell’informazione e della comunicazione di Claude Shannon risiedono sull’osservazione ed analisi di alcune proprietà e caratteristiche della comunicazione tra persone e del suo veicolo principale: il linguaggio.

Il suo obiettivo era trovare un modo per rendere misurabile l’informazione in modo da poter manipolare la dimensione quantitativa della comunicazione. Infatti, uno dei principi di base della teoria dell’informazione è che l’informazione può essere trattata come una quantità fisica misurabile. Shannon si chiese come avveniva il passaggio di informazioni tra persone, e quale era la legge che permetteva ad un messaggio di partire da un luogo e giungere indenne in un altro.

Il suo schema di comunicazione (Shannon-Wiever) è costituito dai seguenti elementi che sono presenti quando si verifica un passaggio di informazione:


                                                              Segnale                 
                                  Messaggio        Segnale    ricevuto     Messaggio 
                                     ↓                ↓          ↓             ↓
                              FONTE  →  TRASMITTENTE  →  CANALE  →  RICETTORE  →  DESTINATARIO
                                                           ↑
                                                         Rumore

La fonte è l'origine dell'informazione;

Essa genera un messaggio che un apparato trasmittente trasforma in segnali;

I segnali a loro volta sono trasmessi mediante un canale fisico fino al ricettore che li trasforma nuovamente nel messaggio ricevuto dal destinatario.

L’elemento che ostacola il corretto processo comunicativo è il rumore, cioè la presenza di disturbi lungo il canale, che possono danneggiare i segnali, quali le interferenze elettriche o magnetiche che si possono generare lungo il cavo di trasmissione.

Gli elementi sopra indicati offrono un modo per trattare l’informazione e la comunicazione con delle misure: per esempio, entità come la massa di informazione prodotta alla fonte; la quantità media di informazione contenuta in un particolare messaggio; la capacità del canale di trattare informazione per ogni data unità di tempo di trasmissione.

"Il problema fondamentale della comunicazione è quello di riprodurre a un'estremità esattamente o approssimativamente il messaggio selezionato all'altra estremità. Abitualmente i messaggi possiedono un significato, cioè fanno riferimento o sono correlati, in conformità a un qualche sistema, a determinate entità fisiche o concettuali. Questi aspetti semantici della comunicazione sono irrilevanti per il problema progettuale. L'aspetto significante è che l'effettivo messaggio sia uno selezionato da un insieme di messaggi possibili. Il sistema deve essere progettato per funzionare con ogni possibile selezione, e non semplicemente per quell'unica che verrà effettivamente scelta, dal momento che essa non è nota in fase di progettazione." (Shannon C.E., A Mathematical Theory of Communication, The Bell System Technical Journal (BSTJ), 1948).

Shannon, per comprendere i processi con cui avveniva la comunicazione, utilizzò il concetto di entropia utilizzato nella seconda legge della termodinamica secondo la quale l’entropia è il grado di casualità che esiste in ogni sistema e che rende incerta l’evoluzione del sistema stesso.

Sulla base di questi concetti, si rese conto che l’incertezza in ogni sistema era dovuta alla mancanza di informazione e che l’entropia di un sistema (o la sua causalità) poteva essere rappresentata dal logaritmo del numero di possibili combinazioni di stati in quel dato sistema. Utilizzando in questo modo la logica binaria, Shannon pervenne a rappresentare quantitativamente l’informazione, definendo matematicamente il bit come la quantità di informazione necessaria a rappresentare un evento con due possibilità equi-probabili e l’entropia come la quantità minima di bit per rappresentare un contenuto informativo.

Nella sua teoria dell’informazione il significato non svolge alcuna funzione ai fini della trasmissione e della misurazione dell’informazione, e così avviene anche nel campo della comunicazione umana. In questo ambito infatti l’entropia è data dalla ridondanza della comunicazione ed in quella umana ce n’è sempre molta.

Nella comunicazione tra persone, oppure nella soluzione di un problema di crittografia, si osserva che, diminuendo la causalità, si riduce anche l’incertezza e man mano che si chiarisce il contenuto del messaggio si riducono le possibilità di scelta. Eliminando il rumore dal messaggio ne ricaviamo informazione, la quale è quindi riduzione dell’incertezza e la novità che introduce costituisce una sua misura.

L’informazione, e la sua unità di misura, costituiscono prevalentemente l’insieme che ha permesso di vedere il computer come un mezzo per migliorare la comunicazione tra persone e per dotare l’intelligenza umana di strumenti per la collaborazione.

La teoria dell'informazione di Shannon è alla base di tecnologie molto importanti, come la comunicazione digitale, la compressione dei segnali, la crittografia.

Bibliografia

  • Shannon C.E., A Mathematical Theory of Communication, Bell System Technical Journal (BSTJ), 1948.
  • Shannon C.E. e Weaver W., The Mathematical Theory of Communication, The University of Illinois Press, Illinois, 1949, ristampa del testo del 1948 con l’aggiunta di un testo introduttivo di Warren Weaver (traduzione italiana di Paolo Cappelli con il titolo: La teoria matematica delle comunicazioni, Etas Kompass, Milano, 1971).
  • Shannon C.E., Communication Theory of Secrecy Systems, Bell System Technical Journal (BSTJ), vol. 28 (4), pagine 656–715, 1949.
  • Shannon C.E., Collected Papers, a cura di N.J.A. Sloane e Aaron D. Wyner, IEEE Press, 1993.

Webliografia