Ci aspettavamo di ridurre i costi dell’elettronica, ma credo che nessuno si aspettasse che sarebbe stato nell’ordine di un milione”. E probabilmente Jack S. Kilby – l’uomo che ha pronunciato queste parole – non immaginava nemmeno che il mondo intero sarebbe stato rivoluzionato dalla sua invenzione, e che essa sarebbe stata al centro di una serratissima guerra commerciale tra le due principali superpotenze mondiali.

Jack Kilby è infatti il padre (o meglio: uno dei due padri) del microchip: l’elemento essenziale di ogni computer, ogni smartphone e di ogni oggetto dotato di componenti elettroniche, comprese le automobili, gli aeroplani e tutti i dispositivi robotici e della internet of things. Senza il microchip, insomma, non sarebbe stato possibile dare il via al processo di digitalizzazione del mondo in cui oggi siamo tutti immersi. Nato a Jefferson City (Missouri) nel novembre del 1923, fin da bambino Kilby si è cresciuto nel mondo dell’ingegneria grazie all’attività professionale del padre, che gestiva un’azienda elettrica locale. Un campo che, evidentemente, lo ha subito appassionato. Negli anni del liceo decide infatti di diventare un ingegnere elettrico e di fare domanda di ammissione alla Mit di Boston, che già al tempo rappresentava la mecca per gli aspiranti ingegneri. Le cose, però, non vanno come da previsioni: all’esame di ammissione del giugno 1941 Kilby non ottiene per poco il punteggio richiesto e deve momentaneamente abbandonare i suoi sogni. Siamo negli anni della Seconda guerra mondiale, e così Kilby si ritrova a lavorare come addetto alla riparazione delle radiotrasmittenti dell’esercito statunitense nel nordest dell’India. Conclusa la guerra, ottiene la laurea in ingegneria elettronica all’Università dell’Illinois e un dottorato in quella del Wisconsin, iniziando poi a lavorare per la Globe Union, dove svilupperà circuiti stampati in ceramica da utilizzare nei prodotti elettronici di consumo. Il momento cruciale della sua carriera avviene però nel 1958, quando si trasferisce a Dallas per lavorare alla Texas Instruments, all’epoca un’assoluta protagonista del nascente mondo elettronico.

La Texas Instruments era una pioniera nel campo della miniaturizzazione dell’elettronica, un processo che da subito diventa la missione di Kilby. Durante il suo primo anno nella nuova azienda, Kilby mette a punto un circuito integrato utilizzando equipaggiamento preso in prestito e dando poi una dimostrazione del suo funzionamento il 12 settembre 1958. È una data che andrebbe segnata sui calendari: il circuito integrato progettato da Kilby è infatti la base di tutta la moderna microelettronica e ha trasformato una tecnologia che consentiva la produzione simultanea soltanto di un pugno di transistor per volta in un’industria oggi in grado di integrare miliardi di microscopici transistor (oggi delle dimensioni anche di 3 o 5 nanometri), resistenze e condensatori all’interno di un chip grande quanto un’unghia.

È grazie a questa invenzione che può prendere il via l’era dell’informatica. “È difficile trovare un settore in cui i circuiti integrati non influiscono sulla nostra vita”, ha spiegato il presidente di Texas Instruments Richard Templeton in un’intervista rilasciata al New York Times nel 2005, in occasione della morte di Jack Kilby, avvenuta all’età di 81 anni. Ma allora perché Texas Instruments non è solitamente ricordata come l’azienda che ha introdotto il microchip? Un motivo, ovviamente, c’è: pochi mesi dopo l’invenzione di Kilby avviene infatti un altro passaggio fondamentale, che ha però come protagonista Intel. Il cofondatore di Intel Robert N. Noyce crea una versione del microchip usando il silicio, invece del germanio impiegato da Kilby, e basato sulla fotolitografia, semplificando il processo di fabbricazione dei chip.

Nel 1983, dopo aver contribuito allo sviluppo di oltre 60 brevetti, Kilby lascia la Texas Instruments continuando a lavorare in qualità di consulente. Ci vorrà ancora parecchio tempo prima che il mondo si renda davvero conto della portata della sua invenzione, come dimostra il fatto che soltanto nel 2000 (cinque anni prima della morte) riceverà il premio Nobel per la fisica grazie a un lavoro che risaliva a più di quarant’anni prima. Un riconoscimento tardivo ma inevitabile, per una persona che, con la sua invenzione, ha dato il via alla digitalizzazione del mondo, un fenomeno che ancora non dà alcun segno di voler rallentare la sua corsa.

Lascia un commento