24 – concimi, esplosivi ed autarchie

Alla fine del XIX secolo si vennero formando le “scuole nazionali”, in particolare in Germania e in Francia. Nel primo caso si ebbe una struttura policentrica, con Liebig, Wöhler e Bunsen come riconosciuti maestri; tutta la Francia doveva invece gravitare a Parigi, con una vera successione apostolica prima da Gay-Lussac, poi da Dumas e infine da Berthelot. Un modello ancora diverso era dato dal Regno Unito, dove il rapporto fra ricerca e società solo parzialmente passava attraverso le Università, e anche professionisti come Crookes poterono dare un buon contributo alla scienza.

L’impiego del guano, escrementi di uccelli con ricco tenore di azoto e fosforo, si sviluppò considerevolmente in Inghilterra e negli Stati Uniti dal 1840. Il suo commercio si prolungò fino al 1875 quando fu rimpiazzato dal nitrato cileno come sorgente di azoto e integrato in parte dal solfato di ammonio ottenuto dalle acque di lavaggio delle officine del gas illuminante.
Un notevole progresso per i concimi azotati venne dato dal metodo Haber, una sintesi diretta di ammoniaca da idrogeno e azoto con un opportuno catalizzatore. Nel 1913 a Oppau in Germania sorse il primo grande impianto con sistema Haber in grado di toccare già le 43.000 tonnellate agli inizi della Prima guerra mondiale.

Il solfato di rame, già usato nelle campagne inglesi, si diffuse rapidamente dopo il 1882, unito a calce come “poltiglia bordolese”, appena venne individuata in Francia la sua efficacia contro la peronospora della vite
Ma il composto di sintesi più innovativo è stato il DDT. Ottenuto da uno studente già nel 1874, solo nel 1939 nei laboratori Geigy ci si accorse della sua attività particolarmente forte e persistente come insetticida. Il DDT venne usato la prima volta a Napoli nel 1943 per bloccare un’epidemia di tifo che aveva prodotto effetti devastanti tra i soldati americani e un anno dopo per combattere efficacemente la malaria.

Dimitrij Mendeleev (1834-1907) preparò la griglia degli elementi lasciandola incompleta perché aveva previsto che sarebbero stati scoperti altri elementi chimici. La sua tavola degli elementi fu volutamente incompleta, e permise di “immaginare” i nuovi elementi.
Ad esempio, l’esistenza di germanio, gallio e scandio fu prevista grazie alla struttura della tavola, che ordina gli elementi per numero atomico (allora ignoto) crescente e per stato di ossidazione crescente a gruppi.

Le applicazioni industriali della chimica diedero il via ad una seconda grande fase dell’industrializzazione, dopo quella incentrata sulla macchina a vapore e sull’industria tessile. La novità principale era costituita dal fatto che si trattava, come per l’elettricità, di un’industria direttamente basata sulle scoperte scientifiche.

Tra i pionieri in campo industriale è da ricordare il francese de Larderel che, a partire dal 1818, inaugurò l’utilizzo dei soffioni boraciferi in Toscana. I soffioni boraciferi verranno studiati poi scientificamente a fine XIX secolo da Raffaello Nasini, su sollecitazione di Piero Ginori Conti, interessato al loro sfruttamento industriale.

Nel 1847 il chimico piemontese Ascanio Sobrero (1812-1888), aggiungendo glicerina ad una miscela di acido nitrico e solforico, produsse per la prima volta la nitroglicerina di cui studiò sia le proprietà farmacologiche che esplosive. L’invenzione che avrebbe reso celebre Alfred Nobel, cui si deve il processo di elaborazione della dinamite, null’altro se non nitroglicerina stabilizzata, meno instabile e quindi trasportabile.

Figura centrale della chimica italiana del XIX secolo fu Stanislao Cannizzaro (1826-1910), che fece conoscere e sviluppò le teorie di Avogadro, ponendo le basi della classificazione periodica degli elementi.

In Italia alla fine del XIX secolo iniziò la produzione di concimi chimici: perfosfati, solfati di ammonio, sali potassici. Fra le aziende leader la Caffaro di Brescia. La più importante azienda chimica italiana è però stata la Montecatini: fondata nel 1888, assunse grande sviluppo sotto la direzione di Guido Donegani (1877-1947), che ne fece l’azienda leader nella chimica industriale.
Dagli anni ’20 sino ai ’60-’70 del XIX secolo, l’Italia fu uno dei tre paesi con industria chimica più sviluppata per quantità e qualità.
Giacomo Fauser (1892 -1971) mise a punto la sintesi dell’ammoniaca con procedimento elettrolitico.
In epoca fascista, la chimica ebbe uno sviluppo importante poiché vigeva l’autarchia, ovvero l’indipendenza nazionale dal punto di vista delle materie. Dovuta a una sanzione della Società delle Nazioni dopo i fatti della guerra d’Etiopia, l’autarchia fu il modo in cui il regime fascista propagandò una presunta volontà dell’Italia di procedere con le proprie forze.
Negli anni Trenta la Montecatini e la Snia Viscosa dominarono la ricerca ed il mercato della chimica: la prima per le piriti, gli anticrittogamici, l’acido solforico e cloridrico, la seconda per la cellulosa da piante nazionali, la gomma sintetica e le fibre artificiali e per quelle derivate da prodotti naturali, come il “Lanital”, ricavato dalla caseina ad opera del tecnico bresciano Antonio Ferretti.

Enrico Mattei (1906-1962), prima di essere presidente dell’Eni, lavorò all’Agip. Tentò di costruire una via alternativa per svincolarsi dalle sette sorelle più potenti mondiali. Cerco inoltre di stipulare degli accordi con le realtà mediorientali e la Russia per degli approvvigionamenti petrolchimici ma, a causa di una mancanza di affiancamenti economici, questo progetto fallì. La morte di Mattei, avvenuta per lo schianto del proprio aereo privato, rimane ancora parzialmente avvolta nel mistero.
Giulio Natta (1903-1979) lavorò all’Edison ma anche al Politecnico di Milano. Fu insignito del premio Nobel per la chimica nel 1963, per la messa a punto di catalizzatori stereospecifici per la polimerizzazione stereochimica selettiva delle alfa-olefine, in particolare per la realizzazione del polipropilene isotattico.
Il polipropilene divenne celebre in Italia negli anni ’60, quando il comico Gino Bramieri apparve nella pubblicità del “Moplen” (commercializzato dalla Montecatini), la plastica dei casalinghi che sostituiva secchi di metallo, ma anche piatti e bicchieri di porcellana e vetro.

24 – soda e coloranti

Nell’industria chimica la soda caustica è un reagente di ampio impiego; è utilizzato nella sintesi di coloranti, detergenti e saponi, nella fabbricazione della carta e nel trattamento delle fibre del cotone, nonché nella produzione dell’ipoclorito di sodio (la comune candeggina) e di altri sali sodici, quali il fosfato ed il solfuro.
A livello domestico trova uso nei prodotti per disgorgare gli scarichi dei lavelli; va maneggiato con una certa cautela, dato che provoca ustioni per contatto con la pelle e cecità per contatto con gli occhi.

II crescere della domanda di alcali durante tutta la prima metà del XVIII secolo ne fece lievitare notevolmente il prezzo, ma non vi fu alcuna possibilità di produzione da altre materie prime che non fossero i vegetali fin quando non furono stabiliti i concetti fondamentali di sostanza e di composizione.
Nel 1736 il francese H.-L. Duhamel (1700-1782) provò che il sale comune era un composto della base della soda e dello spirito di sale (acido cloridrico). Quando il chimico inglese Joseph Black (1728-1799) stabilì che soda e potassa non erano altro che i corrispondenti composti caustici combinati con aria fissa (anidride carbonica), apparve anche il nesso fra materie prime facilmente accessibili, quali il salmarino e il calcare, e la soda, ma occorsero tre decenni di proposte e di tentativi pratici prima di giungere ad una “soluzione” accettabile a opera di Nicolas Leblanc nel 1775 (premio dell’Accademia francese).

II sistema tecnico della soda Leblanc rimase sostanzialmente invariato fino al 1863, quando per una singolare coincidenza esso si trovò sottoposto a una duplice fortissima pressione, economica e politica. La prima veniva dalla proposta di un processo alternativo da parte del belga Ernest Solvay (1838-1922), la seconda era costituita dall’inedita legge anti-inquinamento inglese, l’Alkali Act.

Il principio del processo Solvay è il seguente: se in una soluzione di sale saturata con ammoniaca si fa gorgogliare anidride carbonica si ottiene un precipitato di bicarbonato di sodio, poco solubile, da cui per riscaldamento si ha la soda.
Ernest e Alfred Solvay compirono il passo decisivo con la messa a punto di una torre di carbonatazione.
Già alla fine degli anni ’90 il processo Solvay aveva raggiunto, per quantità prodotta, il metodo Leblanc (con il quale, per ogni tonnellata prodotta, venivano scaricati nell’aria 0,75 t di cloruro di idrogeno).

La storia dei coloranti di sintesi iniziò da un’intenzione “farmaceutica”. Nel 1855 il diciassettenne William H. Perkin (1838-1907) era entrato nel Royal College of Chemistry; gli era stata indicata come tema di ricerca la sintesi della chinina, una sostanza vegetale impiegata nella cura della malaria. Nel 1856 Perkin si imbattè più volte in precipitati di incerta composizione, ma di spiccata colorazione. Perkin ignorò l’avviso di studiare solo sostanze purificate e cristallizzate, e accentrò il suo interesse sui risultati della reazione fra dicromato potassico e anilina. Dopo una prima esperienza condotta su un impianto pilota di tipo familiare, depositò il 26 agosto 1856 il brevetto del nuovo colorante, la porpora di anilina. Il successo fu immenso, immortalato nella leggenda dalla comparsa della regina Vittoria all’Esposizione universale del 1862 interamente vestita in mauve, secondo il nome francese del colorante di Perkin.

Dopo il lancio commerciale del mauve le scoperte nel nuovo campo furono innumerevoli: a partire dal magenta (o fucsina) di E. Verguin (1859), il blu di metilene, scoperto da H. Caro (1834-1910) nel 1876, e tuttora usato per il cotone, il verde malachite (1878) di O. Fischer (1852-1932), e il rosso Congo di P. Böttiger (1884), il primo colorante diretto per cotone.
Il passaggio più evidente dall’empirismo all’intenzione costruttiva della chimica strutturale si ebbe già con la sintesi dell’alizarina di Karl Lieberman (1842-1914) e Carl Graebe (1841-1927) nel 1869. Per giungere alla loro sintesi i due ricercatori avevano utilizzato le conoscenze più avanzate sui chinoni e sui composti aromatici, nonché sulle reazioni che permettevano di passare da una classe di composti organici a un’altra.
La struttura della molecola dell’indaco richiese anni di studi per essere rilevata da Adolf Bayer (1835-1917), che fra il 1880 e il 1883 propose quattro vie di sintesi del composto. Nessuna di queste rese la sintesi industriale competitiva con il prodotto naturale, e la pressione della BASF su Bayer fu tale da portare a una rottura nel 1885. L’indaco sintetico fu commercializzato dalla BASF dal 1897.

24 – “Particelle”, distillazioni politiche ed alcali

Amedeo Avogadro (1776-1856) diede un contributo fondamentale allo sviluppo della teoria atomica, ed è conosciuto per la legge omonima che afferma che volumi uguali di gas, alla stessa temperatura e pressione, contengono lo stesso numero di particelle (1023). Da notare che si parla ancora di particelle poiché non era stato fissato il concetto di atomo e molecole.
Avogadro insegnò all’Università di Torino tra il 1820 ed il 1821 e, in seguito, dal 1834 al 1850. Nutrì un particolare interesse per il problema della diffusione del sapere scientifico, in relazione alla formazione degli alunni delle scuole primarie e secondarie. Insegnò all’Università di Torino Fisica Sublime, all’interno del corso di Filosofia positiva presso la Facoltà di Lettere e Scienze (ex Facoltà delle Arti). Il corso era destinato a formare gli insegnanti delle scuole superiori. Fra il 1837 ed il 1841 Avogadro pubblicò (grazie a Carlo Alberto) un manuale universitario, diviso in quattro volumi, dal titolo Fisica de’ corpi ponderabili. La forma è discorsiva, sono presenti ampi cenni storici e, soprattutto, sono descritte le ricerche in corso e le ipotesi alternative.
L’importanza dell’opera di Avogadro è da situare nella possibilità di distinguere atomi e molecole, aprendo così la strada alla determinazione dei pesi atomici.

Verso la metà del xix secolo si ottennero i primi materiali di sintesi, l’ultimo passaggio fondamentale per materiali con determinate caratteristiche fisico-chimiche non presenti in natura ma ottenute con la sintesi, grazie a dei catalizzatori. Un esempio è la plastica ottenuta per polimerizzazione.
La chimica rientra nelle rappresentazioni satiriche. In una vignetta del periodico satirico “Il fischietto” Cavour, allora capo del governo sabaudo, alimenta con un soffietto il fuoco che scalda il contenuto di un alambicco. Lo assiste Giuseppe Garibaldi, mentre dall’alambicco escono i simboli di tutte le culture regionali italiane, rappresentati dalle maschere carnevalesche: Pulcinella, Balanzone, Gianduia, Brighella volano via “per distillazione”, lasciando la “quintessenza”: l’Italia.

Tra i più importanti settori della chimica, per tutto il xviii e il xix, si ebbe quello degli alcali. Esso giunse a maturità tecnologica negli ultimi decenni del xix secolo, ed è rappresentativo dell’affermarsi stesso dell’industria chimica fra quelle fondamentali per lo sviluppo economico.
Per tutto il xix secolo con il termine “industria degli alcali“, primo settore a realizzare una produzione economicamente cospicua, si comprendevano soda, soda caustica, e acido solforico.
L’industria degli alcali si poneva al servizio di altri settori: il tessile, trainante dell’intera rivoluzione industriale, poi quelli del sapone, del vetro, della carta, tutti legati a consumi civili in grande crescita con il diffondersi di modesti livelli di benessere. Si comprende quindi l’estendersi della base produttiva di questo comparto, pur caratterizzato fra il 1810 e il 1860 da immobilità tecnologica
Alcuni “alcali” erano stati preparati e utilizzati da tempo immemorabile. In particolare la soda (carbonato di sodio) era ricavata dalle ceneri di alcune alghe e di certe piante che crescevano in paludi salmastre, mentre la potassa (carbonato di potassio) poteva essere ottenuta ovunque vi fossero foreste da incenerire. I derivati caustici della soda e della potassa si avevano mediante trattamento con calce viva; la soda caustica era particolarmente apprezzata nei saponifici in quanto portava a saponi “duri”, più costosi di quelli “molli” ottenuti trattando i grassi con potassa caustica.
I Romani usavano l’urina per lavare nelle vasche dove collocavano i panni da lavare. Procedevano poi a un pestaggio di questi con i piedi, per favorire l’assorbimento dell’ammoniaca. Una volta estratta, la biancheria era poi sciacquata abbondantemente.

24 – la chimica tintoria

Settore di grande importanza per le numerose applicazioni e per il contributo dato allo sviluppo della chimica nel suo complesso è la chimica tintoria, che grande impulso ebbe con la comparsa delle armi da fuoco.
I coloranti naturali erano noti in tutte le aree civilizzate del mondo antico. Estratti principalmente da sostanze vegetali o animali, lavorati con altre sostanze, principalmente minerarie, essi non erano soltanto applicati ai tessuti ma usati per molti altri scopi.
I processi tintori, codificati sin dal x secolo, furono profondamente modificati con la scoperta e la colonizzazione del Nuovo Mondo. Molti furono infatti i colori ivi coltivati che non solo arricchirono la gamma di quelli noti e coltivati in Europa, ma che sostituirono quasi completamente i coloranti locali, come l’indaco e il rosso coccinella.
Sino a quando il combattimento si svolgeva corpo a corpo, o con l’ausilio di armi da taglio o da lancio, le distanze in gioco non ponevano difficoltà nel riconoscimento delle truppe nemiche. Non vi era problema per i Romani riconoscere gli Unni o, in epoca medievale, per un fante riconoscere un suo pari dello schieramento opposto; i cavalieri avevano simboli bene in vista, pur essendo spesso il loro volto celato.
Dalla metà del xv secolo fu necessaria una maggiore riconoscibilità delle truppe attraverso i colori delle divise. Come conseguenza iniziò una lunga ricerca di sostanze capaci di conferire stabilità ai colori, in modo che questi rimanessero tali anche dopo successivi lavaggi, o a sollecitazioni meccaniche come strofinii o altro.
Nella seconda metà del xviii secolo lo scenario si modificò radicalmente. Si modificarono i luoghi, da piccoli laboratori a fabbriche sempre più grandi, i gusti, le mode, e gli attori
A partire dal 1750, soprattutto in Francia, per la grande importanza economica e strategica che settori legati ai coloranti iniziavano ad acquisire, criteri chimici furono applicati sistematicamente ai processi tintori, e una nuova classe di chimici specializzati iniziò a sostituire quella dei Maestri Tintori.
In Piemonte, nel 1789, il Governo, dati i costi per la tintura delle divise per l’esercito e per migliorare un’arte importante per l’economia locale, si rivolse all’Accademia delle Scienze. Nello stesso anno venne formata una commissione apposita che, dopo una accurata divisione del lavoro, iniziò a produrre studi e analisi. Qualche mese dopo fu deciso di bandire anche un premio per uno studio sulla coltivazione del corrispondente indigeno dell’indaco, il guado (ricerche interrotte nel 1792).
Vittorio Amedeo iii nel 1773 varò una riforma dell’esercito che coinvolse anche il colore delle divise: da rosse a blu.
In quegli anni, tutti i paesi europei producevano indaco nelle proprie colonie: la Francia in Santo Domingo, il Regno Unito nella Carolina del Sud e la Spagna in molte sparse colonie.
Le foglie dell’indaco erano lasciate fermentare in appositi locali e indi lavorate fino a ottenere una polvere bianca, successivamente disidratata e compattata, che veniva imballata in varie forme prima di essere esportata.
Nel 1784, il Ministro dei Savoia a Napoli informò il governo che un piemontese di nome Giuseppe Morina aveva, dal 1781, impiantato con successo una fabbrica in cui con il guado locale riusciva a produrre un colorante con caratteristiche molto simili all’indaco.

24 – il balletto degli elementi

Il tedesco Georg Agricola (1490-1555) nell’opera De re metallica parlò delle tecniche di lavorazione dei metalli, e fece rientrare nel testo conoscenze di tipo alchimico-chimiche.
Jean Baptiste van Helmont (1579-1644) è considerato il primo vero chimico. Scoprì l’anidride carbonica e studiò da un punto di vista generale i gas, che chiamò “spiriti silvestri”. Il periodo, all’inizio del XVII secolo, è quello della Rivoluzione Scientifica, della quale Galileo Galilei fu l’iniziatore in un ambiente pronto ad accoglierla.
Robert Boyle (1627-1691) elaborò delle formulazioni teoriche legate ai gas: la legge che da lui prese il nome o isoterma afferma che per un gas ideale il prodotto della pressione del gas per il volume da esso occupato è costante. Si tratta di un passaggio fondamentale poiché, sebbene le formule descrivano un comportamento ideale, sono esatte, e soprattutto si tratta delle prime e proprie formulazioni fisiche in questo ambito.

Jan Baptiste van Helmont (1577-1644) fu un medico belga che si dedicò allo studio della crescita delle piante con attente misurazioni. Come fallout del suo studio scoprì l’anidride carbonica (CO2), accorgendosi che dalla fermentazione e dalla combustione si sviluppa questo gas. Fu, in ultima analisi, il primo chimico a studiare i gas, fino a prima chiamati “spiriti”. Notò inoltre che è possibile ottenere l’anidride carbonica anche da alcune acque minerali e da alcuni sali trattati con acidi (carbonati).
Chiamò la CO2 spirito silvestre e tentò misure quantitative, mantenendo già come implicito il concetto di conservazione della massa; lo stesso nome “gas” deriva dal termine “caos” da lui adottato per descriverli.

L’inglese Robert Boyle (1627-1691) costruì una pompa pneumatica più efficiente, ma dopo aver sperimentato il vuoto si occupò dell’operazione inversa. Scoprì la relazione tra pressione e volume (Legge di Boyle). Trascurò nella pubblicazione di menzionare la temperatura, anche se probabilmente era a conoscenza dell’importanza che questa sia mantenuta costante.

Un esempio di parascienza è invece dato da Athanasius Kircher (1602-1680), padre gesuita di origine tedesca che lavorò e risiedette a Roma per una parte della sua vita e che scrisse, tra le altre, l’opera Mundus subterraneus, in cui si parla di correnti telluriche, ovvero correnti di tipo energetico, magnetico, vulcanico.
Il mercurio è considerato tra gli elementi fondamentali in quanto necessario per l’estrazione di metalli dagli ossidi. Possiede la particolarità di presentarsi allo stato liquido a temperatura ambiente.
Un altro elemento è il flogisto. Considerando le reazioni combustibile + comburente –> prodotti + calore (reazione esotermica) e carbone –> cenere + flogisto quest’ultimo è la parte calda, qualcosa di fisica che serve per spiegare che la cenere pesa meno del carbone).

Il chimico tedesco Johann Joachim Becher (1635-1682) aveva una concezione simile a Paracelso, e tentava di mettere un po’ d’ordine alle teorie sviluppate sino a quel momento per comprendere la combustione.
Becher riteneva che l’aria avesse la sola funzione di sostegno meccanico e distingueva la terra in tre tipi: la terra fusibile detta “sale”, la terra pingue detta “zolfo”, e la terra fluida detta “mercurio”. Era proprio la terra pinguis, nella concezione di Becher, responsabile dell’infiammabilità. Analogamente, i corpi sarebbero stati costituiti da terra + terra, terra + acqua, acqua + acqua (nelle sue diverse forme: ghiaccio, acqua, vapore).

Uno dei seguaci di queste teorie alquanto vaghe fu Georg Stahl (1660-1734). Grande medico appassionato di chimica, credeva in un principio vitale. Fu il primo a proporre la teoria del flogisto per spiegare la combustione.

24 – l’alchimia

Tra i debiti della chimica moderna nei confronti dell’alchimia si annovera la buona padronanza di uso di acidi e basi, che saranno fondamentali nella prima fase di industrializzazione.
Ambito importante fu pure lo studio della distillazione, procedimento chimico con cui si fa superare la tensione di vapore di una frazione di soluto in modo da eliminare tale soluto, tenendo conto della temperatura di ebollizione del composto impiegato. In questo ambito, opera che segna la prima efficace trasposizione scritta del procedimento è il Coelum philosophorum (1544) di Filippo Ulstadio, dettagliato resoconto delle conoscenze elaborate nei trattati alchemici medievali sulla distillazione.

Oggetto del desiderio degli alchimisti che si interessano alla distillazione è la quintessenza.
Raimondo Lullo, monaco spagnolo che si occupò della distillazione dandone resoconti dal 1320 circa, presentò la tecnica della distillazione dell’alcool inserendola in un progetto alchemico complessivo, finalizzato sia alla produzione di medicine per il corpo umano sia alla trasmutazione dei metalli.
Negli anni 1351-52 un francescano, Giovanni da Rupescissa, rinchiuso nel carcere di Avignone per la sua attività profetico-politica, scrisse l’opera che segnava l’ultima tappa creativa dell’alchimia latina, il Liber de consideratione quintae essentiae. Egli insegnava a distillare “alchemicamente” (e cioè in un vaso ermeticamente sigillato) il vino, modificando una tecnica già in uso per la produzione di aquae medicinali. Egli designò l’alcool ottenuto col nome di quinta essentia, riservata alla materia dei cieli, perché

continuando a sublimare con elevazioni e discese fino a mille volte giunge ad una glorificazione così eccelsa da diventare un composto incorruttibile quasi come il cielo, e perciò, dal fatto che ha la natura del cielo, è chiamata quintessenza, poiché sta in rapporto col nostro corpo come il cielo sta in rapporto col mondo intero.

Risale al xiii secolo (epoca di Dante) la Summa alchemica, scritta da un semi-sconosciuto francescano, Paolo da Taranto, e attribuita sino al xix secolo a Geber, massimo esponente dell’alchimia araba, attivo nella prima metà del ix secolo. Egli tentò di dare una nomenclatura, un ordine, una base fondamentale della tecnica chimica, descrivendo la generazione e le caratteristiche fisiche dei metalli, indicati con i nomi dei pianeti corrispondenti, e della sostanza alla base dell’opus, il mercurio “non volgare”. Secondo la teoria alchemica, infatti, variando il tenore di zolfo in esso presente, il mercurio poteva essere trasmutato in qualsiasi altro metallo, oro compreso.
Lo schema operativo è scandito in sette procedure: sublimazione, distillazione, calcinazione, soluzione, coagulazione, fissazione, fluidificazione.

Il primo alchimista europeo fu però Alberto Magno (1206-1280), maggiormente ricordato per essere stato il maestro di san Tommaso d’Aquino, oltre che il più grande filosofo e teologo mitteleuropeo del Medioevo. Negli esperimenti descritti nei suoi testi trattò l’arsenico (usato all’epoca per la preparazione di una lega simile al bronzo) con molta chiarezza.

I più importanti risultati dell’alchimia medioevale furono la descrizione dell’acido solforico e la preparazione dell’acido nitrico concentrato.
Questo fu il più importante progresso della chimica dopo l’estrazione del ferro dai minerali avvenuta 3000 anni prima; si apriva agli alchimisti la possibilità di effettuare reazioni chimiche negate a chi li aveva preceduti.
L’acido nitrico (HNO3), fortemente corrosivo, era chiamato acquaforte ed era prodotto per azione dell’acido solforico sul salnitro minerale. A sua volta quest’ultimo è composto da nitrato di potassio, di formula KNO3, si presenta sotto forma di croste saline granulari sulla superficie di rocce e di muri di pietra ed è un componente del terreno in Spagna, Egitto, Iran e India. Il nitrato di potassio è usato come fertilizzante e conservante alimentare; in medicina trova impiego come diuretico e in metallurgia come fondente; un tempo componente della polvere da sparo, è ancora usato nella produzione di fuochi d’artificio e fiammiferi.

24 – una chimica “naturale”

Nella storia della chimica si attraversano in maniera propria le tre fasi della tecnica, per come descritte da Ortega y Gasset. La “vera” chimica nacque dopo la Rivoluzione Scientifica (xvii secolo), anche se le componenti pseudoscientifiche e parascientifiche saranno in essa presenti ancora sino alla metà del xix secolo. Ciò è in prima battuta dovuto al fatto che la maggior parte dei fenomeni osservati hanno base microscopica. La teoria atomica, tanto importante per la comprensione dei fenomeni alla base del comportamento degli elementi, fu portata a un livello accettabile di formalizzazione e comprensione solamente tra la fine del xix secolo e l’inizio del xx.
Similmente, il concetto di “elemento” non fu univocamente definito per lungo tempo. Esso fu applicato in maniera propria solo verso la fine del xx secolo, anche se risale al 1774 la scoperta contemporanea e indipendente dell’ossigeno ad opera dell’inglese Joseph Priestley e di Carl Wilhelm Scheele, un farmacista svedese che definì questo elemento chimico “aria di fuoco”.
E’ del 1869 la tavola periodica degli elementi, congegnata dal chimico russo Dimitrij Mendeleev. Ma solamente nel 1902 Thomson propose il primo modello fisico dell’atomo, il cosiddetto “modello a panettone”, secondo cui l’atomo era una sfera fluida di massa caricata positivamente in cui erano immersi gli elettroni. Questo modello fu poi superato dalle scoperte di Rutherford.

La chimica “naturale” fu la prima chimica. Le prime applicazioni della chimica riguardarono per lo più la raccolta di essenze naturali. Ne sono un esempio la distillazione di succhi; l’estrazione di sostanze alla base farmacologica; la tintura, effettuata con aggiunte di fissanti; la concia delle pelli. Riguardo a quest’ultima, la pelle prelevata da un animale, come tale, non poteva essere utilizzata per coprirsi in quanto se non fissata, va in putrefazione.

L’alchimia si diffuse in Europa dal xiii secolo, per poi lasciare spazio alla chimica dal xvii. Una definizione di alchimia pone al centro la ricerca della pietra filosofale, non per forza una vera pietra, un lapis, ma anche un procedimento, un ingrediente, una sostanza che sarebbe dovuta essere aggiunta ai metalli per ottenere da questi l’oro, il metallo “perfetto”. L’alchimia fu sempre intimamente connessa a un sistema esoterico di conoscenza.

Per “esoterismo” si intende una dottrina segreta, iniziatica, che prevede un sistema di conoscenza rivelato a membri scelti, all’interno di un consesso isolato dall’esterno e dalla moltitudine. Prevede spesso la trasmissione orale della conoscenza, a garantire ancora maggiormente il carattere segreto delle nozioni trasmesse. Quando trasposti in forma scritta, i concetti erano spesso connotati di doppi significati, cosicché i pochi testi visibili fossero di difficile interpretazione. L’etimo del termine è greco (esoterikos, “interno”).

La presenza del cappello esoterico è spiegabile poiché l’uomo è storicamente ricorso a interpretazioni “superiori” ogni volta che si è spinto al limite della propria conoscenza: si intravvedeva la posta in gioco (la comprensione ultima della struttura della materia e dei suoi componenti), ma le leggi non erano a portata di mano.
Tra i vari sistemi simbolici, si creò ad esempio un parallelismo con le lettere dell’alfabeto, un’ars combinatoria tra numeri, lettere ed elementi che cercava di capire quali fossero le combinazioni “giuste”, nello stesso modo in cui la Qabbalah (Cabala), la porzione esoterica della mistica ebraica, cercava di capire quale fosse la combinazione di lettere che portava al vero e ultimo nome di Dio.
Altra sistematizzazione simbolica vide l’associazione dei sette metalli noti con i pianeti: secondo questa visione, la costituzione dei metalli era determinata dalla materia del pianeta corrispondente e ciò che accade in Natura doveva essere riprodotto per artificio. L’oro viene dal Sole; l’argento dalla Luna; il ferro da Marte; l’argento vivo da Mercurio; lo stagno da Giove; il piombo da Saturno; il rame e il bronzo da Venere; i metalli potevano essere anche chiamati con il nome del pianeta relativo.

23 – IMP, mainframe e i pc d’oggi

A metà degli anni ’60, nel mondo universitario la coscienza della necessità di condividere i dati delle ricerche era piuttosto avvertita. La struttura dei centri informatici del tempo prevedeva enormi mainframe, nei quali si concentrava la potenza di calcolo, e piccoli IMP (Interface Message Processor) in grado di ricevere le istanze degli utenti e sottoporle correttamente al mainframe.
Gli IMP erano connessi tra di loro nella cosiddetta IMP subnet, governata inizialmente dal NCP (Network Control Protocol), successivamente sostituito dal TCP (Transmission Control Protocol).
Occorrevano delle regole, condivise tra tutti coloro che volessero aderire a un network: la necessità era quindi di definire dei protocolli unificati, grazie ai quali le comunicazioni sarebbero state non solo fisicamente possibili, ma coerenti.
La NPL (National Physical Laboratory), la rete inglese costituita sin da subito con finalità commerciali (compreso il trasferimento di fondi), doveva garantire la consistenza dei dati inviati. Per garantire i trasferimenti la NPL scomponeva i dati in pacchetti, controllando che l’invio fosse andato a buon fine con le regole del protocollo TCP: era nato il packet switching. Questo fu un passo fondamentale per lo sviluppo di interconnessioni tra reti.
Concepita dall’Institut de Recherche d’Informatique et d’Automatique, la rete francese “Cyclades” stabiliva invece una connessione tra più reti, fondando il paradigma di una inter-net. Gli elaboratori intermedi (ossia dai mittenti e dai destinatari della comunicazione) servivano solo da appoggio per la trasmissione. Reti di questo tipo furono favorite dall’insorgere di standard telefonici quali l’X.25.
Nel 1969 i nodi di ARPAnet erano 4, ma già negli anni ’70 il loro numero crebbe notevolmente. Nel 1983 furono sdoppiate due reti, MILNET per usi militari, e ARPA-INTERNET per la ricerca. La maggior parte dei nodi si trovava negli USA, ma esempi di connessioni a ARPAnet si avevano nel Regno Unito.

L’unione del protocollo TCP con la necessità di indirizzare correttamente i flussi di messaggi, dividendo i livelli fisici e software delle comunicazioni, diede luogo allo standard TCP-IP (ove “IP” sta per “Internet Protocol”). Dal 1974, questo garantì la compatibilità tra le diverse sottoreti.
ARPANET, invece, “moriva” nel febbraio del 1990 con la dismissione del suo hardware, ma al suo posto nasceva Internet.
Il Federal Networking Council stabilì nel 1995 una definizione del termine “Internet”. Esso si riferisce al sistema di informazione globale che è logicamente interconnesso da un address space unico e globale, basato sull’Internet Protocol (IP) o le sue successive estensioni/sviluppi; è in grado di supportare la comunicazione tramite la suite “Transmission Control Protocol/Internet Protocol” (TCP/IP) o le sue successive estensioni/sviluppi, e/o altri protocolli compatibili con l’IP; e fornisce, utilizza o rende accessibili, sia pubblicamente che privatamente, servizi di comunicazione di alto livello stratificati.
Nel 1992 Tim Berners-Lee, un ricercatore del CERN di Ginevra, mise a punto l’idea di ipertesto, che permise di formare il WWW, che comprende l’insieme degli ipertesti pubblicati in Internet. Parallelamente furono creati i primi browser, necessari per la ricerca dei documenti, come Nexus (1991), Gopher e VERONICA (Very Easy Rodent Oriented Netwide Index to Computerized Archives) prima, e come Mosaic (1993) e Netscape (1994) poi.
Nel 1996 gli utenti di Internet erano 10 milioni; diventeranno 200 milioni solo 3 anni dopo, mentre attualmente (2010) le connessioni alla rete delle reti sfiorano il miliardo.

23 – una crescita esponenziale

Il mondo dell’elettronica e della tecnologia informatica dovevano però di lì a breve essere sconvolti da un nuovo manufatto: nel 1947 tre fisici dei laboratori Bell misero a punto il transistor. William Shockley, Walter Brattain e James Bardeen inventarono un dispositivo a stato solido composto da un materiale semiconduttore, che fungeva da rettificatore e amplificatore per la corrente e che sostituì presto le valvole.
L’introduzione dei transistor al posto delle valvole, all’interno del computer, aumentò notevolmente la velocità di elaborazione dei dati e permise di ridurre notevolmente le dimensioni, nonché i guasti.
Il passo ulteriore fu la realizzazione di un certo numero (che crebbe in pochi anni) di transistor sullo stesso supporto. Nel 1958, nei laboratori della Texas Instruments di Dallas, l’ingegnere Jack S. Kilby riuscì per la prima volta a combinare in una sola unità monolitica compatta le funzioni di bobine, transistori, condensatori e resistori, il tutto a partire da un solo materiale, il germanio (sostituito successivamente con il silicio): nasceva il circuito integrato.
Il germanio, così come il silicio, sono dei semiconduttori; si comportano cioè in modo diverso secondo la corrente dalla quale sono attraversati. Così come un diodo, possono essere conduttori o isolanti, semplicemente in funzione delle caratteristiche elettriche dei segnali che li attraversano.
Il transistor non ebbe immediata fortuna negli Stati Uniti, tanto è vero che il primo vero utilizzatore in grande scala di questo dispositivo fu il Giappone, che anzi basò buona parte della sua crescita industriale sulla nascente industria elettronica. Le applicazioni del transistor furono le più disparate, anche se il linguaggio comune registra quelle di maggior impatto: “transistor” per una persona che sia stata giovane negli anni ’60, può semplicemente voler dire “radiolina portatile”.
Si dovrà tuttavia attendere il 1964 per vedere il primo computer a circuiti integrati, l’IBM modello 360, che segnò l’avvento del computer di “terza generazione”. Con questa si passava dalle 2.200 moltiplicazioni al secondo del computer di prima generazione, alle 38.000 della seconda, ai due milioni della terza, con costi che erano scesi di oltre cento volte. Lo sviluppo era vertiginoso: l’ENIAC impiegava tre secondi per moltiplicare due numeri di 23 cifre e un minuto e mezzo per calcolare un logaritmo fino alla ventesima cifra decimale, a fronte rispettivamente dei millisecondi e dei centesimi di secondo della serie 360 IBM.

Sino alla metà degli anni ’50 il batch processing era l’unica modalità di lavoro dei calcolatori elettronici: essi potevano svolgere una sola operazione alla volta, con sprechi di efficienza.
E’ evidente come le operazioni eseguite secondo la logica del flusso continuo (del tutto analogo al principio che governa la catena di montaggio) risultino molto convenienti per tempo impiegato e occupazione della potenza di calcolo del processore.
Le dimensioni degli elaboratori, poi, erano sempre maggiori, con notevole emissione di calore. Si resero sempre più necessari degli ambienti a temperatura controllata, in grado di difendere i componenti elettronici da rotture da stress termico. Ciò, tuttavia, allontanò fisicamente gli elaboratori dai loro utilizzatori, in un momento nel quale gli input erano forniti a mezzo di schede perforate, che spesso potevano portare errori.
Nel 1957 fu realizzata per la prima volta una connessione remota ad un calcolatore elettronico: essa consentì agli utenti di lavorare pur non nelle prossimità fisiche della macchina. Nel contempo, fu realizzato un elaboratore in grado di lavorare non solo per batch processing: non solo si poterono far eseguire diverse operazioni in modo parzialmente sovrapposto, ma soprattutto fu possibile far utilizzare la potenza di calcolo a più utenti contemporanei.

Il 1957 è anche l’anno del lancio dello “Sputnik” (4 ottobre), che portò Yuri Gagarin nello spazio. La paura di una supremazia russa indusse il governo americano alla formazione di un ente, il DARPA (Defence Advanced Research Project Agency), nel febbraio 1958.
Primo progetto perseguito dal DARPA fu la formazione di una rete di elaboratori, utile a:
– accelerare lo scambio di informazioni;
– evitare la replica di queste.
Ulteriore motivazione per la ricerca nel campo delle reti di elaboratori apparve nel 1962, quando la Difesa americana prese coscienza che le postazioni missilistiche situate a Cuba minacciavano il suolo degli USA. Insieme con altre problematiche vi era quella della connessione tra nodi della rete di computer. Questa, basata sulle onde lunghe, in caso di attacco nucleare avrebbe funzionato in modo migliore. La struttura della rete era inoltre ridondata, per resistere alla soppressione di uno o più nodi.

23 – la luce della radio

Guglielmo Marconi realizzò nel 1895 la prima trasmissione a distanza tramite le onde radio e nel 1901 la prima trasmissione del telegrafo senza fili attraverso l’Atlantico). Da tali principi avrà origine la radio, che vedrà le prime trasmissioni regolari solamente nel 1922. Nel 1904 John Ambrose Fleming ottenne il brevetto per il diodo, o valvola termoionica, che sarà di grande aiuto per il miglioramento e in definitiva per la diffusione dell’invenzione marconiana.
Il diodo si basa su di una osservazione di Thomas Alva Edison, che nel 1877 rilevò la presenza di fuliggine all’interno del bulbo di una lampadina. Sin dalle prime sperimentazioni si era capito che un modo per prolungare la vita dei filamenti era di sigillarli in atmosfera povera di ossigeno, quindi in condizione di vuoto il più possibile spinto. Per questo motivo la fuliggine non poteva provenire dall’esterno del bulbo, ma da qualche sorgente interna alla lampadina. Edison eseguì allora dei test, collocando all’interno del bulbo una lamina metallica, e connettendola con il circuito della lampadina, secondo una configurazione variabile.
Nell’esperimento, la lampadina è connessa in entrambi i casi all’alimentazione; nel circuito di sinistra l’elemento metallico all’interno del bulbo è connesso al polo positivo, mentre in quello di destra lo è al polo negativo. Il riscaldamento del filamento produce elettroni (particelle elementari di segno negativo), attratti dal polo positivo e respinti da quello negativo. Nel circuito di sinistra gli elettroni fluiscono così verso l’elemento metallico polarizzato positivamente, dando luogo a un circuito chiuso; nel circuito di destra, gli elettroni, pur prodotti per riscaldamento del filamento, non fluiscono verso l’elemento, che in questo caso è polarizzato negativamente, e li respinge.
La corrente del circuito di sinistra fu rilevata per mezzo di un galvanometro, rappresentato nei circuiti dal cerchio con la freccia all’interno.
Edison immaginò l’invenzione come destinata alla misura di correnti variabili all’interno di un circuito, e al più all’apertura o alla chiusura di un circuito per mezzo dell’ago di un galvanometro ad essa collegato. L’ago, muovendosi per effetto della variazione di corrente, chiudeva o apriva un circuito, fungendo da interruttore.
Avere a disposizione una corrente continua permetteva l’integrazione del segnale, ossia la sua accumulazione, a mezzo di condensatori. Il segnale ricevuto era di bassissima potenza, e il suo accumulo e successivo rilascio ne consentivano l’ascolto in cuffia a mezzo di un ricevitore di tipo telefonico. Ciò permise il passaggio dalla trasmissione di tipo booleano (segnale / assenza di segnale) a una modulazione delle onde: era nata la radiotelefonia.
La valvola funzionava come raddrizzatore, e svolgeva sufficientemente bene questa funzione sia alle basse frequenze della rete elettrica ordinaria, sia a quelle alte proprie della trasmissione senza fili. A maggiore corrente in ingresso nel circuito corrispondeva un suono di frequenza maggiore; così, a corrente minore corrispondeva un suono di frequenza minore in uscita dal telefono.

Il primo passo verso il computer moderno fu fatto tra il 1939 e il 1944 con il Mark I. Si trattava di un calcolatore elettromeccanico a relè costruito presso l’università di Harvard sotto la guida di Howard M. Aiken e con la collaborazione dell’IBM. La macchina misurava 17 metri di lunghezza, 1 metro e 80 di altezza e conteneva 800.000 componenti e 80 km di fili. Essa era ancora lenta poiché funzionava con i relè in uso nelle centrali telefoniche.
Nel 1943 l’esercito degli USA affidò all’università della Pennsylvania la realizzazione di un calcolatore digitale. L’ENIAC (Electronic Integrator And Computer), proponeva innovazioni nell’hardware con l’uso delle valvole, ma soprattutto quella portata dal software. L’uso delle valvole produsse un incremento della velocità fra le 500 e le 1000 unità rispetto al Mark I, ma le dimensioni erano ancora mastodontiche: 30 tonnellate di peso su una superficie di 150 mq e 18.000 valvole all’interno con altissimi consumi (150 kilowatt) e dispersioni di calore.

L’aspetto fondamentale comunque era il software: l’ENIAC fu uno dei primi computer programmabili, predisposto di volta in volta a differenti funzioni; la programmazione avveniva attraverso la sostituzione di cavi e per questo serviva personale altamente specializzato. Il calcolatore fu utilizzato presso il centro di ricerche balistiche di Aberdeen per calcoli di previsioni meteorologiche, progettazione di gallerie del vento, studio dei raggi cosmici ed elaborazione di tavole balistiche.
I progettisti furono l’ingegnere John Prespert Eckert e il fisico John William Mauchly, con la collaborazione del matematico Herman H. Goldstine.