Federico Faggin
Federico Faggin
Durante gli anni delle guerre, vi furono vari sviluppi scientifici e tecnologici, nel 1943 Colossus è il primo
elaboratore elettronico, tre anni dopo arriva Eniac, diverso perché non aveva bisogno di essere ricostruito
per fare diverse operazioni. Entrambi sono utilizzati come centri di calcolo, a partire dagli anni 80
inizieranno ad entrare nelle case di tutti grazie ad alcune scoperte fatte da Federico Faggin. Inventore e
fisico italiano, nel 68 si trasferisce in America per avere maggiori opportunità e finanze. All’interno della
famosa industria Intel (produttrice dei processori interni dei computer) crea e produce nel 71 il
microchip 4004, più potente rispetto a quello presente all’epoca, questo poi si evolverà ad esempio nel
microchip 8086 che ritroviamo nei computer degli anni 80. Faggin, inoltre, ha sviluppato la tecnologia
MOS con porta di silicio, che ha permesso la fabbricazione dei primi processori, delle memorie RAM e
dei sensori CCD, elementi essenziali per la digitalizzazione dell’informazione. “Informazione” è una delle
parole chiavi dell’informatica, da cui infatti ne deriva il termine. L’informazione può essere considerata
nei suoi aspetti propriamente cibernetici come differenza che produce una differenza, sulla misurazione
di queste e sul calcolo delle loro possibili combinazioni si basa il concetto elementare di bit e la stessa
scienza informatica che ha dato origine ai moderni computer. Cercando le radici della società
dell’informazione di cui facciamo parte si può arrivare infatti a Leibniz e ai suoi tentativi di organizzare
e classificare le informazioni con l’aiuto del calcolo differenziale. Ad oggi la definizione di informazione
coincide con ICT, tutte le tecnologie necessarie per elaborare e trasmettere i dati. Ovviamente abbiamo
anche delle unità di misura: MIPS, FLOPS e BIT, questi ultimi hanno la capacità di immagazzinare i dati,
mettendo qualcosa nel computer questo traduce tutto nel suo alfabeto fatto da cifre binarie che assumono
solo due valori 0 e 1; da un bit si passa al Byte che consiste in 8 bit. Con le innovazioni informatiche
siamo passati dall’era analogica a quella digitale, dove tutte le informazioni vengono espresse in un unico
linguaggio (bit), sono così facilmente trasmessi, conservati e manipolati. I concetti astratti sono difficili
da visionare, esiste per questo un sistema di codifica, dall’informazione ai dati (bit) e un sistema di
decodifica, dai dati all’informazione. Per capire quante informazioni si possono rappresentare serve la
formula 2^n, per trovare quanti bit servono usiamo il log(2)k. La codifica avviene con la trasformazione
dal sistema decimale a quello binario, viceversa per la decodifica. Va inoltre ricordato che i computer per
funzionare usano un numero fisso di bit, dipende dall’hardware e da quanto sono performanti le
componenti elettroniche presenti all’interno. Oltre ai dati, il computer traduce nel suo alfabeto anche le
parole e i testi, viene introdotto per la prima volta negli anni 70 dall’ASCII un codice con 7 bit per
tradurre l’alfabeto e altri caratteri di controllo, un’altra tipologia di codifica è Unicode con 8 bit. Con la
presenza delle immagini nei testi nascono PDL e PDF (evoluzione di PostScript). Le nuove tecnologie si
inseriscono anche nell’arte, le forme con più successo sono la Computer Art (genera immagini senza
rapporto diretto con la realtà) e la Net Art (arte collaborativa con alla base la collaborazione). Dopo i
numeri, i testi e le immagini, anche il suono nei computer si trasforma in una sequenza di numeri binari,
possibile con il suono acustico. Per passare dal segnale originale al segnale digitale ci sono degli step:
segnale originale, analogico (con disturbo), campionato, digitale. Quando usiamo un software per la
conversione dobbiamo immettere due valori: frequenza e lunghezza. Possono subire due tipi di
compressione: Lossy (perdita irreversibile) e Lossless (senza perdita).