Sinistra <- Fast F.U.D - Indice Generale - Copertina - Economia delle Reti Open Source -> Destra

Agorà


Claude E. Shannon

Claude E. Shannon

di Tito Rizzo

L'articolo...

L'articolo illustra brevemente la vita e le opere di Claude E. Shannon, considerato il padre della teoria dell'informazione



"Non potrebbe esserci nulla di più semplice. Non è altro che un cofanetto di legno, della forma e delle dimensioni di una scatola di sigari, con un unico interruttore su una delle facce. Se si gira l'interruttore, parte un ronzio stizzito, insistente. Il coperchio lentamente si alza, e da sotto emerge una mano. La mano si stende sull'interruttore, lo spegne e si ritira nella scatola. Definitivo come l'atto di sigillare una bara, il coperchio si chiude con uno scatto, il ronzio cessa e torna la quiete. L'effetto psicologico, se non sapete cosa vi aspetta, è devastante. C'è qualcosa di inspiegabilmente sinistro in una macchina che non fa nient'altro -- assolutamente nient'altro -- che spegnere se stessa."
- Arthur C. Clarke, Voice Across the Sea (1958)

A Claude E. Shannon si riconosce il merito di aver preparato il terreno per lo sviluppo della moderna comunicazione digitale. Quella descritta sopra è la Ultimate Machine, realizzata su un'idea del matematico Marvin Minsky. Per quanto possa apparire occasionale e goliardica, mette tuttavia bene in luce un particolare atteggiamento di ricerca stimolata dalla curiosità e dalla necessità di capire "come le cose fossero messe insieme"; "just for fun", come direbbe qualcuno, e non dalla preoccupazione di produrre qualcosa di commerciabile.

Gli inizi

Claude Elwood Shannon nacque il 30 aprile 1916 a Petoskey, piccola città del Michigan, da Claude Sr. (1862-1934), uomo d'affari e, per un certo periodo, giudice; e da Mabel Catherine Wolf (1880-1945), insegnante di lingue e per vari anni direttrice della scuola secondaria di Gaylord, Michigan.

A Gaylord Claude trascorse i primi sedici anni della sua vita. Dal nonno, agricoltore e inventore, ricevette i primi incoraggiamenti in campo scientifico. L'eroe della sua infanzia fu Edison, che risultò essere un lontano cugino. Anche il racconto di Poe Lo scarabeo d'oro, in cui si parla di criptografia, ebbe su di lui una certa influenza. Il giovane Claude esercitò il proprio talento armeggiando con svariati dispositivi elettrici e meccanici. Per guadagnare qualcosa consegnava giornali e telegrammi e riparava apparecchi radio per un grande magazzino locale.

All'età di 16 anni, Claude entrò alla University of Michigan, sulle orme della sorella Catherine, che qui si era appena laureata in matematica. Nel 1936 conseguì una laurea di primo livello in matematica e ingegneria elettrica. Per quanto non si fosse distinto in modo particolare in matematica, Claude scelse di perfezionarsi al MIT (Massachusetts Institute of Technology), dove studiò con Norbert Wiener e con Vannevar Bush, un pioniere nel campo dei computer analogici.

Algebra di Boole e circuiti elettrici

Notato per le sue caratteristiche di "tinkerer" (smanettone), Claude Shannon apparve particolarmente adatto per lavorare sull'Analizzatore Differenziale di Bush, un calcolatore meccanico sviluppato per il calcolo di equazioni differenziali fino al sesto grado. All'analizzatore era collegato un circuito composto da oltre cento relè. Rifacendosi ai propri pregressi studi sull'Algebra di George Boole, Shannon intuì che quella era la matematica appropriata per l'analisi di un simile sistema. Trovò che due interruttori in serie potevano essere descritti con l'operatore logico AND, mentre a due interruttori in parallelo poteva corrispondere l'operatore OR. L'operatore NOT poteva essere implementato tramite il contatto posteriore di un relè, piuttosto che tramite il contatto anteriore.

Da questi studi, Claude ricavò la sua tesi di master A Symbolic Analysis of Relay and Switching Circuits, pubblicata nel 1938, in cui mostrò come i simboli logici di Boole potessero essere trattati come una serie di interruttori accesi o spenti, e come l'aritmetica binaria, manipolazione di stringhe di 0 e di 1, potesse essere applicata ai circuiti elettrici.

Questo lavoro era largamente motivato dalla necessità di trovare un linguaggio matematico con cui padroneggiare la crescente complessità dei circuiti a commutazione, che nell'industria telefonica stavano sostituendo gli operatori umani. Ma le implicazioni furono di portata molto più vasta, gettando le fondamenta su cui si regge l'informatica moderna.

Bush, che era stato eletto presidente del Carnegie Institution di Washington - una delle cui branche, nella succursale di Cold Spring Harbor, N.Y., si occupava di genetica - suggerì a Shannon un possibile impiego dell'algebra nell'organizzazione della conoscenza genetica. Shannon trascorse quindi l'estate del 1939 a Cold Spring Harbor, dove lavorò all'approfondimento della questione sotto la direzione della Dr. Barbara Burks. Quest'esperienza fornì materiale per la sua dissertazione di dottorato, dal titolo "An Algebra for Theoretical Genetics". Nella primavera del 1940, dopo essere faticosamente riuscito a superare gli esami in lingue straniere, Shannon ottenne un master in ingegneria elettrica e un dottorato in matematica.

Nel 1941, Claude Shannon fu assunto dalla compagnia telefonica AT&T Bell, New Yersey, con cui collaborerà fino al 1972. Nei laboratori Bell, Shannon entrò a fare parte di un gruppo di lavoro incaricato di migliorare l'efficienza e l'affidabilità dei sistemi di trasmissione. Qui divenne noto per la tendenza a isolarsi. Come ricorda un collega di allora, il Dr. David Slepian:

"Generalmente, lavorava con la porta chiusa. Ma se entravate da lui, si dimostrava paziente e disposto ad aiutarvi. Riusciva ad afferrare il problema al volo. Era realmente un genio. La sola persona che abbia conosciuto che meriti tale definizione."

Non pare comunque che Shannon fosse molto tollerante nei confronti di chi non si dimostrasse abbastanza pronto a seguire il filo dei suoi ragionamenti.

Durante la Seconda Guerra Mondiale, Shannon entrò in contatto con il grande Alan Turing, in occasione di una visita di questi negli Stati Uniti. Entrambi gli scienziati erano attratti dalla possibilità di costruire una macchina in grado di imitare il cervello umano. Essi lavorarono alla costruzione di un apparato telefonico criptato (il "Sistema X", si veda l'articolo Alan Mathison Turing (Parte I) di G. Zucchetta, pubblicato sul PLUTO Journal numero 43), che consentisse a Roosvelt e Churchill di conversare attraverso l'Atlantico in maniera sicura. All'interno dei Bell Labs, Shannon si occupò anche di dispositivi antiaerei per contrastare le V1 e V2 tedesche.

La teoria dell'informazione

Nel 1948, nel Vol.27 del The Bell System Technical Journal (BSTJ), apparve il fondamentale A Mathematical Theory of Communication (versione in formato elettronico), in cui Shannon si propone di formulare una teoria generale della comunicazione, le cui basi erano già state poste in due importanti studi di Nyquist e Hartley, pubblicati anni prima sullo stesso BSTJ.

Anche questo lavoro nacque da un'esigenza pratica: preservare i messaggi dalle alterazioni causate dal disturbo presente nel canale di trasmissione:

"Il problema fondamentale della comunicazione è quello di riprodurre a un'estremità esattamente o approssimativamente il messaggio selezionato all'altra estremità. Abitualmente i messaggi possiedono un significato, cioè fanno riferimento o sono correlati, in conformità a un qualche sistema, a determinate entità fisiche o concettuali. Questi aspetti semantici della comunicazione sono irrilevanti per il problema progettuale. L'aspetto significante è che l'effettivo messaggio sia uno selezionato da un insieme di messaggi possibili. Il sistema deve essere progettato per funzionare con ogni possibile selezione, e non semplicemente per quell'unica che verrà effettivamente scelta, dal momento che essa non è nota in fase di progettazione."

Shannon respinse la concezione ampiamente accettata ai suoi tempi, che i messaggi si dovessero identificare con la forma d'onda usata per la trasmissione, e che fossero necessarie linee separate per la trasmissione di messaggi vocali e telegrafici. L'adozione del numero binario o, più brevemente, bit (termine coniato da J.W.Tukey), come unità di misura dell'informazione, permise di separare il medium dal messaggio.

I sistemi di comunicazione vennero classificati grossolanamente in base a tre categorie principali: discreto, continuo e misto. Per sistema discreto si intendeva un sistema in cui sia il messaggio che il segnale siano una sequenza di simboli discreti. Tipico esempio è il telegrafo in cui il messaggio è una sequenza di lettere, e il segnale è una sequenza di punti, di linee e di spazi.

Nel messaggio si poteva individuare una struttura statistica. In un messaggio in inglese, per esempio, la lettera E comparirà più frequentemente della Q, la sequenza TH più frequentemente di XP, ecc. L'esistenza di tale struttura permetteva un risparmio di tempo (o di capacità del canale) codificando opportunamente le sequenze del messaggio nelle sequenze del segnale. La fonte discreta che produceva il messaggio, simbolo per simbolo, generava tale sequenza di simboli in base a un insieme di probabilità, e poteva quindi essere rappresentata come un processo stocastico. Il livello di incertezza dell'informazione veniva misurato in termini di entropia, "così come definita in certe formulazioni della meccanica statistica".

La componente di casualità presente nel linguaggio, la sua naturale ridondanza, fece si che molte frasi potessero essere abbreviate in maniera significativa senza perdere il loro significato. Il linguaggio, in sostanza, incorporava un codice per la correzione degli errori. Lo stesso principio poteva essere applicato ai sistemi di trasmissione:

"...se un segnale è alterato in maniera ragionevole dal disturbo, l'originale può ancora essere recuperato. In altre parole, l'alterazione in generale non lo porterà più vicino a nessun altro segnale che non sia l'originale. Ciò si ottiene a costo di una certa quantità di ridondanza nella codifica. La ridondanza deve essere introdotta in maniera adeguata per combattere la particolare struttura del disturbo coinvolto. [...] In particolare, se la fonte già ha una certa ridondanza e nessun tentativo viene fatto per eliminarla quando impegna il canale, tale ridondanza aiuterà a combattere il disturbo. Per esempio, in un canale telegrafico non disturbato si potrebbe risparmiare il 50% del tempo codificando opportunamente il messaggio. Ciò non viene fatto e la maggior parte della ridondanza dell'inglese rimane nei simboli del canale, il che ha tuttavia il vantaggio di consentire che il canale sia considerevolmente disturbato."

L'intuizione dell'esistenza di una sorta di "codice per la correzione degli errori" nel linguaggio naturale e della possibilità di applicare lo stesso principio ai sistemi di comunicazione, ha portato nei decenni seguenti allo sviluppo di sistemi sofisticati per assicurare l'integrità dei dati. Per un'esposizione più approfondita della teoria di Shannon, si può leggere questo articolo di G. V. Pallottino.

La criptografia elevata a scienza

Nel 1949, venne pubblicato "Communication Theory of Secrecy Systems" (disponibile in formato PDF), basato su un rapporto confidenziale datato 1 settembre 1946. In questo lavoro, Shannon applicava la teoria della comunicazione ai problemi della criptografia e dei sistemi di segretezza:

"Come nella teoria della comunicazione, un linguaggio è visto come rappresentato da un processo stocastico che produca una sequenza discreta di simboli in accordo con qualche sistema di probabilità. Associato con il linguaggio c'è un certo parametro D che viene chiamato ridondanza del linguaggio. D misura, in un certo senso, quanto testo in un linguaggio possa essere ridotto in lunghezza senza perdita di informazione. [...] La ridondanza è di importanza cruciale nello studio dei sistemi di segretezza.
Un sistema di segretezza è definibile astrattamente come un insieme di trasformazioni da uno spazio (l'insieme dei messaggi possibili) in un secondo spazio (l'insieme dei criptogrammi possibili). Ogni particolare trasformazione dell'insieme corrisponde alla cifratura con una chiave particolare. Si presume che le trasformazioni siano reversibili (non-singolari) in modo che sia possibile un'unica decifrazione nel caso sia nota la chiave."

E, più avanti:

"Dal punto di vista della criptoanalisi, un sistema di segretezza è pressoché identico a un sistema di comunicazione disturbato. Si interviene sul messaggio (il segnale trasmesso) per mezzo di un elemento statistico, il sistema di cifratura, che è una chiave scelta statisticamente. Il risultato di questa operazione è il criptogramma (analogo al segnale perturbato), che è disponibile per l'analisi."

L'unico sistema criptografico totalmente sicuro fu quello proposto da G. S. Vernam nel 1926, che perfezionò il cifrario di Vigenère (1586), con l'uso di una chiave illimitata, o comunque lunga almeno quanto il testo da cifrare, totalmente casuale e utilizzabile solo una volta. Le difficoltà di applicazione del sistema Vernam ne limitarono grandemente la diffusione. È stato comunque utilizzato dai servizi segreti e per il telefono rosso tra Washington e Mosca. Un cifrario di questo genere era usato anche da Che Guevara in Bolivia (si veda al proposito La crittografia del Che di P. Odifreddi). Data la complessa struttura statistica del linguaggio naturale, tutti i criteri per la costruzione di un perfetto sistema di segretezza non potranno mai essere interamente soddisfatti; una soluzione di compromesso sarà perciò inevitabile.

Anche in questo studio, è possibile ammirare il rigore del metodo di analisi e la preoccupazione di conferire alla criptografia la dignità di una scienza esatta.

La stanza dei giochi

Nei Bell Labs, Shannon conobbe Mary Elizabeth (Betty) Moore, che lavorava come analista numerica (era una "computer", come si diceva allora) e il 27 marzo 1949, i due si sposarono. Da quest'unione nasceranno tre figli: Robert James, Andrew Moore e Margarita.

Negli anni '50, Shannon si dedicò all'intelligenza artificiale, progettando meccanismi che cercavano di emulare l'attività del cervello umano nella soluzione dei problemi. Sviluppò programmi per il gioco degli scacchi, altra sua grande passione. Risale al 1950 l'articolo "Programming a computer for playing chess", che nel 1956 trovò applicazione pratica nella prima partita giocata dal computer MANIAC.

Per esplorare le possibilità di realizzare macchine capaci di imparare, costruì un topo elettromeccanico chiamato Theseus, che doveva trovare la strada in un labirinto alla ricerca del "pezzo di formaggio", un terminale elettrico che faceva suonare una campanella se veniva toccato dalle vibrisse di rame di Theseus.

In occasione di un Natale, Betty pensò di regalare al marito un monociclo. In poco tempo, Claude imparò a guidare l'insolito veicolo, e lo utilizzò per spostarsi all'interno sia dei Bell Labs che del MIT, dove fece ritorno nel 1958. I colleghi presero l'abitudine di mettersi in guardia a vicenda nel caso un traballante Shannon vagasse pericolosamente lungo i corridoi.

Shannon costruì un monociclo a due posti, per quanto fosse difficile trovare qualcuno disposto a condividerlo con lui. In un modello successivo la ruota era montata su un mozzo eccentrico, che faceva muovere il guidatore su e giù. Lavorò anche a un "pogo-stick" (una specie di trampolo a molla, usato come giocattolo infantile) motorizzato, che nelle sue intenzioni avrebbe sostituito il monociclo così temuto dai colleghi.

La sua curiosità sempre viva e totalmente disinteressata si concretizzò in una quantità di congegni e progetti: macchine per il gioco degli scacchi, pupazzi giocolieri, il computer THROBAC-I che calcolava in numeri romani, un frisbee con propulsione a razzo, una macchina per risolvere il cubo di Rubik, ecc.
"Ho sprecato un sacco di tempo in cose totalmente inutili", disse; in realtà si dimostrò sempre fiero dei suoi giocattoli e sempre lieto di mostrarli ai suoi visitatori, nella stanza in cui li conservava. Manifestò piuttosto una certa insofferenza nei confronti dell'eccessivo interesse rivolto alla teoria dell'informazione, trasformata in una specie di moda del momento:

"La teoria dell'informazione si è forse gonfiata a un livello oltre i suoi effettivi adempimenti."

Considerando il suo spiccato pragmatismo, è comprensibile che fosse così recalcitrante ad accettare quel titolo altisonante di "padre della teoria dell'informazione", che gli è stato appiccicato addosso. A questo genio erratico bisogna essenzialmente riconoscere un impegno costante e coerente a risolvere i problemi e non, come dichiarò, "a crearne di nuovi, che a qualcun altro toccasse risolvere".

Colpito dal morbo di Alzheimer, Claude Shannon trascorse gli ultimi anni di vita in una casa di cura di Medford, Massachusetts. È deceduto il 24 febbraio 2001, all'età di 84 anni.



L'autore

Tito Rizzo trova nell'utilizzo di GNU/Linux (ma anche di NetBSD) e del Software Libero un sacco di ottime occasioni per capire, non solo l'informatica, ma più in generale il mondo.


Sinistra <- Fast F.U.D - Indice Generale - Copertina - Economia delle Reti Open Source -> Destra