Al tempo di Guglielmo Marconi, si pensava che la comunicazione fra un sistema di trasmissione ed uno di ricezione, fosse dovuta esclusivamente ad un flusso di onde elettromagnetiche nello spazio e nel tempo, soggette a dei disturbi su un canale di trasmissione. E’ più facile pensare ad un segnale trasmesso e ricevuto, che attribuirgli un valore informativo. Nel 1948 Claude Elwood Shannon, ingegnere elettrico e matematico statunitense che lavorava come ricercatore presso i laboratori della AT&T Bell telephones in New Jersey, pubblicò un articolo dal titolo: “Mathematical Theory of Communication” edito dalla “Bell systems Technical Journal”.
In Tale articolo trovò che è possibile valutare e misurare l’informazione prodotta da un messaggio trasmesso in un generico sistema di comunicazione continuo e discreto (es: radio,telefono, televisione in bianco e nero, telegrafo), e che la velocità di ogni messaggio è misurabile in RATE (numero bit/secondo). Grazie a questa teoria, nella pratica reale si ha avuto un forte impatto in varie scienze come: la psicologia, la linguistica, economia e biologia . Un aneddoto molto simpatico su Shannon riguarda il suo strano modo di approcciarsi alla formulazione di teorie nuove: secondo la cronaca storica, egli riusciva a trovare nuove idee, solo dopo aver pedalato il suo monociclo lungo i corridoi dei Bell Labs , spaventando i colleghi. Si prodigava a fare delle modifiche al suo monociclo aggiungendo gadget (doppio sedile, motore).
Era tanto appassionato al gioco degli scacchi, al punto che creò un computer che giocava a scacchi autonomamente , ed un topo meccanico che all’interno di un labirinto inseguiva una moneta di ottone (“formaggio”). Egli fu il fondatore della teoria dell’informazione, da cui il nome del settore dell’ ingegneria dell’informazione, e ha dato una forte spinta al settore dell’intelligenza artificiale.