L’espressione tecnologia dell’informazione, in acronimo TI (in inglese information technology, in acronimo IT), indica l’utilizzo di elaboratori e attrezzature di telecomunicazione per memorizzare, recuperare, trasmettere e manipolare dati,[1] spesso di un’attività commerciale o di un’altra attività economica.[2]

Il termine si usa comunemente come sinonimo di computer e reti di computer, ma ricomprende anche altre tecnologie di distribuzione dell’informazione come la televisione e i telefoni. Parecchie industrie sono legate alla tecnologia dell’informazione, inclusi hardware, software, elettronica, semiconduttori, internet, attrezzature per telecomunicazione, commercio elettronico e servizi informatici.[3][Nota 1]

Gli esseri umani memorizzano, recuperano, manipolano e comunicano informazioni fin da quando i Sumeri in Mesopotamia svilupparono la scrittura cuneiforme verso il 3000 a.C.[5] ma il termine tecnologia dell’informazione nel suo senso moderno apparve per la prima volta in un articolo del 1958 pubblicato nella Harvard Business Review; gli autori Harold J. Leavitt e Thomas L. Whisler commentavano che

“la nuova tecnologia non ha ancora un unico nome consolidato. La chiameremo tecnologia dell’informazione (TI).”

La loro definizione consiste di cinque categorie: tecniche di elaborazione, l’applicazione di metodi statistici e matematici al processo decisionale e la simulazione di pensieri di ordine superiore attraverso programmi informatici.[6]

In base alle tecnologie di memorizzazione ed elaborazione impiegate, è possibile distinguere quattro diverse fasi dello sviluppo della TI: pre-meccanica (3000 a.C. – 1450 d.C.), meccanica (1450–1840), elettromeccanica (1840–1940) ed elettronica (1940–oggi).[5] Questa voce si focalizza sul periodo più recente, cominciato all’incirca nel 1940.

 

Storia della tecnologia del computer

Dispositivi per aiutare la memoria umana nell’effettuare calcoli numerici sono usati da migliaia di anni. Probabilmente i primi ausilii furono i bastoncini di contrassegno.[7] La macchina di Anticitera, risalente all’incirca al principio del I secolo a.C., è considerata generalmente il primo computer analogico e il primo meccanismo a ingranaggi conosciuto.[8] Meccanismi a ingranaggi comparabili non emersero in Europa fino al XVI secolo,[9] e fu solo nel 1645 che fu sviluppato il primo calcolatore meccanico capace di eseguire le quattro operazioni aritmetiche elementari.[10]

Gli elaboratori elettronici, utilizzanti relè o valvole, cominciarono ad apparire nei primi anni 1940. Lo Zuse Z3 elettromeccanico, completato nel 1941, fu il primo computer programmabile del mondo e – secondo i criteri moderni – una delle prime macchine che potesse essere considerata una macchina informatica completa. Colossus, sviluppato in Inghilterra durante la Seconda guerra mondiale per decrittare i messaggi tedeschi, fu il primo computer digitale elettronico. Sebbene fosse programmabile, non era multiuso, essendo progettato per eseguire solo un unico compito. Gli mancava anche la capacità di immagazzinare il suo programma in una memoria: la programmazione era condotta usando spine e interruttori per alterare la cablatura interna.[11] Il primo computer a programma memorizzato digitale elettronico riconoscibilmente moderno fu la Small-Scale Experimental Machine (SSEM), ossia “macchina sperimentale su scala ridotta”, che eseguì il suo primo programma il 21 giugno 1948.[12]