Monthly Archives: marzo 2010

11 – dalla città turrita alla città bastionata

pianbelve
Con l’avvento delle armi da fuoco, il profilo delle mura di cinta delle fortificazioni e del territorio circostante cambiò radicalmente: nacque il fronte bastionato, progettato e costruito a seguito di precisi studi geometrici, in relazione alle traiettorie dei proiettili.
L’altezza delle mura pertanto diventò inversamente proporzionale alla loro sicurezza: mura alte erano sinonimo di facile bersaglio per i cannoni, anche poco precisi e grossolani, dell’epoca. Esse diventarono più basse e robuste, sviluppandosi in piano e non in altezza, allo scopo di presentare un profilo nullo per le armi da fuoco dei nemici.
La fortezza del xvi secolo si presentava quindi più ribassata di quella medievale, e con angoli tra le mura adiacenti tali da far rimbalzare dalle superfici delle torri angolari i proiettili sparati. Essa era edificata con la tipica “forma a stella”: a seguito di studi geometrici, si era infatti notato che le vecchie torri circolari soffrivano della presenza di un angolo cieco, ovvero di una zona non visibile e non esposta al fuoco difensivo delle torri laterali. La base circolare delle torri (come in quelle della fortezza di Forlì, 1464) quindi evolve sempre più verso una forma triangolare (come nella fortezza di Barletta, 1537), o meglio “a picca”, dove i lati dei triangoli risultavano coincidenti con la traiettoria dell’artiglieria posta sulle due torri laterali, intersecandosi con il vertice del triangolo, ed eliminando così gli angoli ciechi.
Lo sviluppo di una fortificazione che risultasse efficiente non solo nel piano, ma anche in presenza di dislivelli altimetrici fu un problema risolto dalle tecniche di geometria proiettiva, facendo variare l’angolo di incidenza tra le torri proporzionalmente al dislivello del terreno.
Tra gli ingegneri militari più importanti del tempo ricordiamo Sébastien le Prestre Vauban (1633-1707), che nell’ultimo terzo del xvii secolo e il primo decennio del xviii lavorò alle fortificazioni di oltre 200 città, progettando l’edificazione di una quarantina di fortezze e porti militari, per lo più in Francia, ma con una eco che lo rese famoso in tutta l’Europa.
Parallelamente all’evoluzione del fronte bastionato, crebbero e si evolsero anche le tecniche d’assedio secondo criteri scientifici: gli “assedi scientifici” furono infatti teorizzati e poi efficacemente sperimentati più volte.
Si tratta di applicazioni matematizzate delle migliori strategie di assedio e di attacco alle fortificazioni: tra le principali, il metodo delle parallele (teorizzato da Vauban) prevedeva l’avanzamento delle linee attaccanti per trincee parallele a quelle delle mura.

In presenza di strutture di difesa come i forti bastionati di Vauban, l’attacco diretto diventava molto difficile. Spesso l’assedio risultava vincente non già militarmente, ma per l’impossibilità da parte degli assediati di sostentarsi, per la mancanza di approvvigionamenti.
Altra possibilità era il passaggio per linee sotterranee: si scavavano trincee radiali, avanzando sottoterra alla profondità di anche 6 metri, che si avvicinavano alla città sotto assedio: una volta raggiunta una distanza ottimale, il nemico avrebbe piazzato dell’esplosivo sotto le mura di cinta. Ci si difendeva di conseguenza, costruendo una galleria alla profondità più probabile alla quale avrebbe potuto incrociare quella nemica. La galleria aveva forma circolare, ciò che tra l’altro, le consentiva di sopportare bene un’interruzione, trattandosi di una rete ad anello; infine, le gallerie radiali di servizio venivano costruite al di sopra della rete circolare (sempre sottoterra), per meglio difendersi dalle esplosioni, con una pendenza negativa rispetto al forte.
Con il potenziamento delle artiglierie fu necessario estendere la linea di difesa delle città oltre il raggio consueto: le mura difensive si allontanavano sempre di più, e venivano costruite numerose fortezze oltre le mura di confine (come visibile nella Parigi attorno alla metà del xix secolo: essa era circondata da una serie di fortezze che controllavano la campagna intorno alla città).
Anche questa strategia si rivelò insufficiente quando la gittata delle artiglierie cominciò a superare le decine di chilometri, così come anche il bastione si rivelò presto oramai inutile e superato, quasi anacronistico, di fronte ai progressi del tempo: perfezionamento delle armi da fuoco e degli esplosivi chimici, definizione sempre migliore della forma ogivale dei proiettili che ne ottimizzava l’uso, sviluppo ed evoluzione delle tecniche metallurgiche di fusione, ovvero qualità sempre più alta delle artiglierie. Il bastione diventò inutile.
Durante la Prima guerra mondiale si ebbe un ritorno del valore deterrente dell’arma da fuoco: Parisgeschütz (ossia “Cannone di Parigi”, o ancora “Cannone Kaiser Guglielmo”) fu il nome dato dall’esercito tedesco al più grande pezzo d’artiglieria usato durante la Prima guerra mondiale; tuttavia, per via della piccola carica esplosiva, i colpi di questo cannone non procuravano grandi danni ed oltretutto la canna doveva essere sostituita spesso, mentre la precisione del tiro era così scarsa che i bersagli avevano le dimensioni di una città.
L’obiettivo dei tedeschi era però disporre di un’arma psicologica per intaccare il morale dei parigini, dal momento che un’arma così potente e al tempo stesso così imprevedibile avrebbe avuto solo l’effetto di generare “terrore” tra la popolazione civile e non.
Il simbolo contemporaneo della fine dell’era del fronte bastionato è la Linea Maginot, edificata nel 1928 dai francesi: essa si rifaceva al paradigma bellico della Grande Guerra, il conflitto di trincea per antonomasia, risultando assolutamente fuori luogo nel corso della Seconda guerra mondiale, che si rivelerà poi una guerra di movimento. Fu installata negli stessi luoghi che videro la guerra di trincea durante il primo conflitto mondiale, ed essa infatti non si rese mai effettivamente utile, dal momento che i tedeschi la aggirarono.

11 – moschetti, gatti e bertesche

archibugio
Il problema della scarsa manovrabilità delle armi da fuoco pesanti fu in parte ovviato dalla costruzione, in parallelo, delle prime armi da fuoco “leggere”: notevole impatto sui campi di battaglia ebbe infatti l’introduzione dell’archibugio, che pur a fronte di un iniziale svantaggio rispetto all’arco (minore gittata, minore cadenza di fuoco) fu adottato massicciamente per l’estrema facilità d’uso, nonostante però necessitasse ancora di un apposito sostegno per esser usato.
L’archibugio fu poi sorpassato dal moschetto (dotato di calcio, quindi imbracciabile), che ebbe diffusione dall’inizio del xvii secolo, e che può essere considerato la prima vera e propria arma da fuoco portatile.
L’adozione delle armi da fuoco, in qualità di innovazione tecnologica, diede forte stimolo alla standardizzazione della produzione industriale.
Sino a tutto il Medioevo e per buona parte del xv secolo, ogni arsenale produceva la polvere nera secondo le proprie regole; si può parlare di formulazioni più simili a ricette che a composizioni caratterizzate da precisione e ripetibilità.
Con l’aumento dei numeri in gioco, la necessità di riparare i pezzi e quella di velocizzare i rifornimenti, si rese necessaria l’uniformazione dei pezzi di ricambio (per garantire l’intercambiabilità delle componenti) e delle munizioni a misure standardizzate.
I pezzi prodotti (cannoni e munizioni) erano inoltre controllati a mezzo delle dime, forme realizzate per poter riprodurre una spaziatura, il profilo o la forma di un oggetto, al fine di poter confrontare il risultato della produzione con un profilo ideale.
La qualità della fusione, infine, era controllata per mezzo di metodi spesso ingegnosi, atti a controllare l’eventuale presenza di crepe, punti di taglio, irregolarità di fonditura all’interno del prodotto finito.
Presso l’Arsenale torinese, ad esempio, si adottavano il metodo del fumo, quello dell’acqua e quello del “gatto”: il metodo del fumo consisteva nell’inserire della paglia ardente all’interno della canna del fucile, che veniva quindi subito tappata: qualora la canna avesse presentato delle imperfezioni, si sarebbe visto del fumo fuoriuscire, indice della presenza di crepe. Il metodo dell’ acqua si basava sullo stesso principio: veniva inserita dell’acqua nella canna del fucile lasciandola decantare per un determinato periodo di tempo. Qualora il livello dell’acqua fosse sceso, il pezzo sarebbe stato da scartare. Il metodo del gatto, infine, consisteva nel verificare l’eventuale presenza di rugosità e tagli all’interno della canna mediante l’utilizzo appunto del “gatto”, ovvero uno strumento fatto da un insieme di fili ferrosi, uncinati, che venivano fatti scorrere nella bocca del fucile, e che eventualmente si impigliavano in fenditure e irregolarità.
Le mura e in generale i profili di tutte le fortezze medievali subirono anch’esse le conseguenze dello sviluppo delle armi da fuoco, e furono costrette ad evolversi di conseguenza.
Le classiche mura medievali, edificate prima della diffusione di fucili e cannoni, erano progettate al fine di rendere quanto più difficile possibile l’ingresso della fanteria all’interno della città: erano quindi, innanzitutto molto alte ed estese, nei limiti delle possibilità economiche: mura più alte era sinonimo di maggiore protezione.
Vi erano inoltre fossati e dislivelli, che rendevano visibili i nemici a distanza di sicurezza, esponendoli al tiro delle balestre e degli arcieri nascosti dietro i merli delle torri di controllo, dal quale potevano essere lanciati anche proiettili sopra la fanteria intenta nell’opera di sfondamento. Il sistema era adatto a controllare anche gli angoli ciechi: per coprire meglio lo spazio tra le torri si costruiva una bertesca in legno, che sporgeva rispetto al filo delle mura e permetteva di sorvegliare gli angoli bui lontani dalle torri.
L’accesso alle torri e al cammino di ronda si effettuava con scale in legno potevano essere velocemente rimosse in caso di necessità.

11 – Fuoco!

mostro-di-urban
Le armi da fuoco costituiscono un’innovazione tecnologica rivoluzionaria, per il peso avuto su tutto il sistema economico e produttivo alle loro spalle: l’invenzione e la successiva produzione della polvere da sparo, l’evoluzione delle tecniche di fusione metallurgiche a supporto di una sempre migliore qualità, sicurezza ed efficienza dei prodotti, la standardizzazione della produzione: più in generale, è lecito quindi parlare delle armi da fuoco come di una innovazione sistemica.
La tecnologia delle armi da fuoco ha origine in Cina, dove prima che altrove (la tecnologia cinese, sino alla comparsa della “scienza elettrica” ha in numerosissime occasioni preceduto quella occidentale) si svilupparono le conoscenze necessarie alla produzione della polvere nera, menzionata in un testo del 1044.
Solo verso l’inizio del xiv secolo, all’epoca di Dante, passando per il mondo arabo, la polvere da sparo arrivò in Europa. La sua disponibilità permise lo sviluppo della tecnologia delle armi da fuoco. Nello stadio iniziale del loro sviluppo queste avevano effetti più deterrenti che pratici: spesso si rivelavano pericolose per gli stessi loro utilizzatori e potevano addirittura risultare fatali. Un esempio è dato dal “mostro di Urban”: un fonditore di campane ungherese, Urban, dopo essersi offerto all’impero bizantino, si schierò con gli Ottomani, per i quali lavorò durante l’assedio di Costantinopoli del 1453. Proprio in quell’occasione morì per l’esplosione di una delle sue creazioni, ed è ricordato per l’enorme bombarda detta “mostro di Urban” : lunga 8 metri, pesante 48 tonnellate, i suoi proiettili di granito avevano una circonferenza di 3 metri e un peso di mezza tonnellata. Per trasportarla erano necessarie 50 paia di buoi; una volta posizionata non veniva più mossa per molto tempo, e aveva una cadenza di fuoco molto bassa, non superiore ai 5-8 colpi al giorno.
Oltre alla poca efficacia distruttiva, i pezzi d’artiglieria cinquecenteschi potevano essere pericolosi per i propri stessi utilizzatori, per via dell’alto rischio di esplosione. La tecnica metallurgica, pur migliorata, non garantiva fusioni sempre perfette, specie per i pezzi di grandi dimensioni. Una cricca, un difetto, un’inclusione di elementi che indebolivano la struttura, potevano risultare nella deflagrazione del cannone. Gli “scoppiettari”, addetti all’accensione dello stoppino dei cannoni, erano tenuti alla confessione prima delle battaglie, ed era fatta loro assoluta proibizione di formulare giuramenti.
Essendo l’arma da fuoco un oggetto al limite delle capacità e delle conoscenze tecnico-scientifiche del tempo, la sua produzione si rivestiva quindi di un carattere quasi esoterico: oltre che riccamente adornata e decorata, essa veniva anche benedetta e le era conferito un nome, al fine di ingraziarsi la divinità.
Le pratiche scaramantiche dei produttori e degli utilizzatori dei cannoni ricordano, per molti aspetti, quelle operate dal pontifex maximus romano, ossia la figura politica che si occupava della gestione amministrativa delle opere civili nell’antica Roma.
Il pontifex, infatti, godeva non solo un potere di ordine amministrativo-gestionale, ma si occupava anche del corollario di pratiche religiose che seguivano la costruzione di ponti e grandi infrastrutture in generale: scongiuri, sacrifici e altri gesti apotropaici e divinatori per cercare una sicurezza mistica che la scienza e la tecnologia del tempo non potevano assicurare completamente.
Questa tendenza dell’uomo ad affidarsi a entità superiori, nel momento in cui non riesce più a spiegarsi fenomeni naturali grazie unicamente alle conoscenze scientifiche e tecniche, non è caratteristica della sola età classica e del Medioevo, ma si protrae più in generale in tutta la storia della tecnologia fino ai giorni nostri: basti pensare alla rottura della bottiglia di champagne nel battesimo delle navi, erede e sostituta della polena dei velieri, o al nose painting, le decorazioni degli aerei da guerra che dalla Seconda guerra mondiale sino ai giorni nostri rendono unici i singoli velivoli.

10 – la stampa a caratteri mobili

gutenberg
Convenzionalmente si può datare la nascita della stampa tipografica di Gutenberg intorno al 1450. Il valore aggiunto di tale procedimento è rappresentato dall’utilizzo di superfici di stampa costituite da carta resistente a considerevoli pressioni e dal metodo di impressione dell’inchiostro. I caratteri erano allineati in riga in modo da formare una pagina e, una volta cosparsi di inchiostro, venivano pressati su un foglio di carta o di pergamena.
Il successo del sistema fu decretato dall’enorme aumento della produttività che derivò dal suo impiego. Parallelamente diminuivano il lavoro svolto e il tempo impiegato nella esecuzione delle singole stampe, oltre che il capitale investito. I caratteri erano realizzati in una lega di piombo e stagno, sufficientemente resistente alla compressione e con basso punto di fusione. Ciò consentiva una più semplice sostituzione delle matrici, rifuse nella stessa stamperia. L’inchiostro originariamente adoperato era una soluzione acquosa di gomma (che fungeva da agente addensante) avente come pigmento il nerofumo (banalmente, fuliggine) o una sospensione di gallato ferrico. Solo successivamente fu introdotto l’uso di un inchiostro a base di olio di lino (lo stesso usato in pittura nelle colorazioni), di cui non si conosce l’inventore, sia pure alcuni ritengono sia stato Gutenberg. Tale tipo di inchiostro permise l’adozione del torchio tipografico, derivato dalle presse a vite usate per la produzione del vino, che permetteva l’uniforme distribuzione dell’inchiostro sulla carta.
Il numero di copie di un singolo foglio realizzabili da una coppia di stampatori si attestava intorno alle 200 unità giornaliere e, raggiunta la tiratura pianificata, era necessario riordinare i caratteri secondo l’ordine che essi assumevano nella pagina successiva da stampare. Tale operazione era molto complessa considerando che una singola pagina della Bibbia di Gutenberg contiene circa 2750 lettere. Anche la fusione dei caratteri, richiedeva notevole impiego di manodopera: ciascun carattere a forma di prisma quadrangolare (alto circa 2,5 cm), necessitava di finiture manuali per essere conforme agli standard. Durante la stampa erano necessari complessivamente 20000 caratteri, ma una coppia di operai era in grado di realizzarne solo 25 all’ora.
La composizione dei caratteri di una singola pagina richiedeva molto tempo: l’addetto doveva prenderli da una serie di cassettini e ordinarli in un vassoio di legno utilizzando delle pinze metalliche, onde evitare che il sudore delle dita, permanendo sul carattere, potesse acidificare la soluzione dell’inchiostro. Terminata questa fase, vi era un correttore di bozze o “lettore”, solitamente un dotto, che controllava l’assenza di errori in una prima bozza stampata dal compositore, il quale avrebbe altrimenti ricomposto la pagina e stampato una seconda bozza. Ciascun addetto non riusciva a comporre più di una pagina al giorno.
Una delle opere più importanti stampate nel xv secolo fu la Bibbia di Gutenberg, detta anche “Bibbia di 42 linee”. Pubblicata tra il 1455 e il 1456 è storicamente considerata la prima opera completa realizzata con la stampa a caratteri mobili. Ecco alcune delle sue caratteristiche:
– fu stampata in caratteri gotici in due colonne di 42 righe ciascuna;
– era costituita da 641 carte;
– era divisa in due, tre o quattro volumi secondo delle richieste dell’epoca.

La stampa a caratteri mobili rivoluzionò anche la società europea occidentale. L’abbattimento dei costi di inizializzazione di ciascun processo di stampa e lo sviluppo delle prime forme di economie di scala determinarono l’abbassamento del costo dei libri, che non rappresentavano più un bene di lusso. Furono realizzate le prime stampe in volgare, che sostituì progressivamente il latino, provocando la nascita delle lingue e delle identità nazionali.
Nel xviii secolo nacquero i giornali periodici, che si diffusero particolarmente grazie alle classi sociali emergenti. La stampa divenne strumento di battaglie politiche e culturali, veicolando nuove idee, teorie scientifiche e religiose, che formarono l’opinione pubblica, dotata di spirito critico.

Tra la fine del xv e l’inizio del xvi secolo Aldo Manuzio, tipografo veneziano, si rese autore di alcune innovazioni nel campo della stampa tipografica: anzitutto ideò il carattere corsivo (o aldino, o italico); poi, pubblicò opere religiose in libri di piccolo formato: il “formato ottavo”, termine che indica il numero di fogli equivalenti derivanti dalle piegature successive di un singolo foglio.
Secondo il numero di pieghe si otteneva un formato diverso, con diverso ingombro. La nomenclatura è ben definita:

Formato Pieghe h (cm)
In plano 0 55-65
In folio 1 30-40
In quarto 2 28-33
In ottavo 4 15-20
In sedicesimo 8 10-15

Nel 1798 il tedesco Aloys Senefelder elabora un nuovo procedimento di stampa, detta litografica. Essa prevede l’utilizzo di una pietra che, levigata e disegnata con una matita grassa, trattiene l’inchiostro sulle sole parti grasse, dalle quali questo si deposita poi su un foglio di carta grazie alla pressione di un torchio. Dall’evoluzione di questa tecnica nascono, nel 1840, le macchine “pianocilindriche”, in cui la pietra è sostituita da una matrice di zinco (litografia offset).
Le innovazioni di maggior rilievo furono la macchina da stampa a vapore, le macchine di produzione di rulli continui di carta e la linotype, il primo dispositivo tipografico meccanico. Questo sistema, ideato da Ottmar Mergenthaler nel 1881, rivoluzionò le tecniche di stampa perché dotato di caratteri mobili, che scendono da un magazzino di alimentazione una volta digitate da tastiera le lettere ad essi corrispondenti. La matrice si componeva così in modo automatico; i caratteri erano poi fusi insieme per garantire la stabilità delle posizioni reciproche, mentre dopo la stampa erano recuperati e riavviati a popolare il serbatoio a monte della macchina.

10 – carta bianca, vetriolo e melanconia

amanuense
Tra il xii e il xiii secolo si intensificò notevolmente l’opera dei copisti e degli amanuensi, in contemporanea con la nascita dei primi distretti di lavorazione della carta, che utilizzavano tecniche di produzione importate dall’Islam. Il nuovo supporto di scrittura ebbe sin da subito grande sviluppo, visti gli alti costi della pergamena (la realizzazione di un volume in-folio di 200 pagine richiedeva le pelli di 25 pecore).
La commessa, specie da parte di privati, di un crescente numero di manoscritti implicava la necessità di ripartire il lavoro tra più figure professionali: il bibliotecario, che conduceva la trascrizione dei testi; lo scriptor, deputato alla scrittura e il corrector alla correzione.
Il valore di un libro era particolarmente legato alle miniature (dal latino minium, il colore usato per riquadrare le pagine e per scrivere i titoli e le lettere iniziali dei manoscritti), illustrazioni che impreziosivano notevolmente i codici e richiesero la nascita del ruolo del miniator.

La realizzazione di opere a tiratura sempre più elevata determinò lo sviluppo di varie tecniche di stampa, tra le quali:
– la stampa a intaglio o incisione;
– la stampa a rilievo o topografica;
– la stampa litografica (in epoca più tarda rispetto alle prime due).
Il metodo più diffuso era la xilografia, l’intaglio su legno di figure e caratteri in rilievo. Gli esperti di tale tecnica si servivano di un sottile scalpello con una punta in acciaio (bulino) per incavare le parti bianche rispettando quelle disegnate, in modo che queste ultime definissero in rilievo la figura da ottenere.
In concomitanza con la stampa a caratteri mobili, la xilografia (di origine cinese, viii secolo) ebbe particolare diffusione in Europa dal xiv secolo fino a quando il metallo non sostituì il legno nelle sue principali applicazioni (xvi secolo). Tuttavia aree come quella francese, in cui l’abbondanza di legni duri come il bosso consentiva tirature molto elevate, videro scomparire tale tecnica solo nel xix secolo.
Agli inizi del xvi secolo Albrecht Dürer (secondo altri Tommaso Finiguerra, orefice fiorentino) introdusse un nuovo tipo di incisione su rame, zinco o acciaio: l’acquaforte (dal termine latino per l’acido nitrico). La tecnica consiste nel ricoprire una lamina metallica con uno strato di speciale vernice resinosa, su cui, con una punta di acciaio, si incide il disegno.
Immersa la lamina in acquaforte, una miscela di forti agenti ossidanti, quali l’acido nitrico, quello solforico (detto altresì vetriolo) e quello cloridrico (detto anche muriatico), si ricava una matrice che, inchiostrata e compressa con un torchio, trasferisce alla carta l’inchiostro trattenuto nei solchi realizzati. Le diverse gradazioni cromatiche sono ottenute per “copertura”, per “rimozione” o variando i tempi di esposizione della lamina all’azione ossidante della miscela.
Uno degli esempi più celebri di acquaforte è Melanconia i, eseguita da Dürer nel 1514. Essa simboleggia la sfera intellettuale dominata dal pianeta Saturno, secondo la tradizione astrologica espressione del sentimento della melanconia, che associa al mondo razionale delle scienze quello immaginativo dell’arte.
Sul finire del Medioevo un ulteriore incremento delle stampe da eseguire (principalmente carte da gioco, icone religiose e certificati di indulgenza) rese inadeguate le tecniche fino a quel tempo utilizzate nell’editoria. La dispendiosa e poco produttiva manifattura di matrici in legno mutò nella produzione di tipi in metallo, più semplici da lavorare e più precisi nella stampa. Tale procedimento fu sicuramente utilizzato già a partire dal 1447 in una stamperia attiva a Magonza, e fu probabilmente l’esigenza di riparare le tavolette consunte con la sostituzione di una singola lettera (nella lavorazione lignea) a suggerire l’idea di scrivere un’intera parola con la stessa tecnica.

10 – “fa freddo nello scriptorium, il pollice mi duole”

miniatura
L’invenzione della stampa a caratteri mobili è una delle tappe che segna il passaggio dal Medioevo all’epoca moderna.
I precedenti di tale tecnica nascono in Estremo Oriente, per poi diffondersi nel continente europeo. Tra i più significativi ritrovamenti vi sono il disco di Festo (Creta, 1700 a.C. circa), recante incisioni che sembrano realizzate con punzoni simili a quelli poi usati per la stampa a caratteri mobili, carte da gioco e amuleti religiosi. Tale manufatto, però, è episodico, e a esso non segue alcuna evoluzione.
Si deve arrivare in pieno Medioevo perché un occidentale (Marco Polo, nel 1298) incontri un esempio di oggetto stampato in serie: si tratta della cartamoneta, che l’esploratore veneziano incontra in Cina. La produzione delle banconote deve per definizione avere carattere di uniformità poiché il valore (solamente nominale e non materiale) dell’oggetto si ritrova nella sua rispondenza a un canone ben definito.
In precedenza, in epoca romana si erano diffuse le tavolette in cera (incise con uno stilo di legno, metallo o osso), utilizzabili più volte.
Altro supporto alla scrittura era basato sull’utilizzo del volumen, un rotolo costituito da papiri arrotolati, lungo fino a 12 metri. Il papiro fu poi gradualmente sostituito dalla pergamena (termine etimologicamente legato a Pergamo, in Asia Minore), ottenuta dalla lavorazione di pelli animali e tagliata in fogli di dimensioni standard. L’uso della pergamena consentì poi la realizzazione di fogli utilizzabili su entrambi i lati, a cui si deve la nascita del codex (iii secolo circa), formato da un insieme di quaterni, piccoli fascicoli di quattro fogli, cuciti tra loro e protetti da una copertina.
Tornando al medioevo, il xiv secolo vide la diffusione di tavolette lignee (quale quella di Digione del 1370) che, per la poca praticità e la costosa esecuzione, cedettero il posto alla diffusione della carta. In epoca medievale, la diffusione del codex portò alla nascita dell’editoria, che nelle sue prime forme si sviluppò nei conventi, nelle scuole ecclesiastiche e specialmente in quelle monastiche. In particolare, all’intensa attività filologica dei monaci di ordini come quello benedettino si deve il recupero della maggior parte delle opere della letteratura classica oggi pervenuteci.
Le opere più riprodotte erano quelle a carattere religioso, prime fra tutte la Bibbia. Poco diffuse, ma non meno importanti, anche le opere a carattere enciclopedico acquisirono un certo rilievo nella cultura del tempo. Pur essendo prive della sistematicità e del rigore scientifico moderni, esse passavano in rassegna i fenomeni naturali sino ad allora noti (storia naturale), spesso interpretati in modo più finalistico e religioso che deterministico.
Tra le opere più diffuse in epoca medievale spiccano alcune:
– la Grammatica latina di Donato (iv secolo);
– il De doctrina christiana di Sant’Agostino (iv-v secolo);
– le Institutiones di Cassiodoro (vi secolo, preparazione allo studio della Sacra Scrittura e delle arti liberali)
– il De consolatione philosophiae di Boezio (vi secolo, opera base della Patristica, carica di filosofia platonica);
– la monumentale Origines sive Etymologiae di Isidoro di Siviglia, vera e propria enciclopedia medievale (vii secolo);
– Opere scientifiche di Beda il Venerabile (viii secolo, in particolare un De rerum natura).
I temi affrontati in queste opere toccavano i punti essenziali del sistema conoscitivo medievale: il latino era indispensabile per approcciare i testi classici, i testi di critica filosofica davano gli strumenti per comparare (e adattare) l’insegnamento dei filosofi con quello dello delle sacre scritture, anch’essi analizzati dal sistema dei testi della patristica latina prima e della scolastica poi. Il novero dei testi fondamentali comprendeva infine le opere enciclopediche, che sistematizzavano la conoscenza del mondo reale in una gerarchia finalistica.

09 – edifici nuovi e nuovissimi

palazzo-Carignano
Nei periodi successivi, dal rinascimento al romanticismo, passando per il barocco, il rococò e il neoclassicismo, non ci saranno cambiamenti paradigmatici delle tecniche costruttive, ma solo continui cambiamenti dal punto di vista stilistico.
L’architettura rinascimentale riprendeva gli ordini e le proporzioni classiche. Il barocco (termine prima dispregiativo, indicante l’apparente disordine di questo stile), la cui caratteristica distintiva è la curva che va sotto il nome di voluta, fiorì nel xvii secolo; un esempio ne è Palazzo Carignano a Torino, sede tra l’altro del primo Parlamento italiano.
Al barocco seguirà il rococò, caratterizzante la prima metà del xviii secolo. Un ulteriore ritorno ai canoni classici segnò invece, tra la seconda metà del xviii e il xix secolo, l’avvento dello stile neoclassico.
Il romanticismo (xix secolo) fu connotato dai “neo-”, riprese di stili precedenti; esempio ne è il neogotico.
A tutti questi periodi seguirà la cosiddetta “architettura moderna”, connotata in particolare dal movimento razionalista.

Cambiamento rivoluzionario anche se inizialmente quantomeno mal utilizzato, fu l’invenzione del calcestruzzo armato.
Il primo esempio di calcestruzzo armato, risalente al 1850, è infatti il canotto di Lambot, una vera e propria piccola barca, esposta poi all’Esposizione Universale parigina del 1855.
Fondamentale apporto allo sviluppo di questo materiale fu dato da un giardiniere parigino, Joseph Monier, che iniziò con l’utilizzare fili di ferro all’interno del cemento costituente vasi per piante (che mal resistevano a trazione).
Negli anni ’60 l’ingegnere François Coignet iniziò a fornire i risultati di applicazioni del cemento armato a costruzioni civili in un suo studio teorico. Ma fu solo con François Hennebique, che nel 1892 brevettò il sistema omonimo, che si diede grande sviluppo alla tecnica del cemento armato.
Hennebique comprese la proprietà fondamentale del cemento armato: la resistenza alla flessione, e su questa fondò il suo sistema.
Proprio questo sistema fu introdotto in Italia nel 1894 dallo “studio degli ingg. Ferrero e Porqueddu”, di Torino, al quale si deve la realizzazione, tra gli altri, del ponte Risorgimento a Roma (110 metri di luce).
Inoltre, un altro mirabile esempio di applicazione del calcestruzzo dotato di un anima di ferro è proprio la realizzazione dello stabilimento Fiat del Lingotto.

Un ulteriore incremento alla solidità e alla leggerezza delle strutture fu l’introduzione dell’acciaio nelle strutture portanti degli edifici, una vera e propria rivoluzione che aprì l’età dell’acciaio e soprattutto l’era dei grattacieli.
L’Home Insurance Building a Chicago, edificato nel 1885, è convenzionalmente considerato il primo grattacielo, non tanto per la sua altezza (42 m) quanto per l’uso del telaio metallico, che permetteva un notevole ampliamento delle superfici vetrate.

Soluzioni del tutto originali ideate solo nel xx secolo sono le strutture geodetiche. Si tratta per lo più di cupole semisferiche le cui strutture portanti si distendono sulle circonferenze massime, come accade per le rette della geometria ellittica. Le intersezioni delle geodetiche formano elementi triangolari o esagonali (secondo una trasformazione che porta a configurazioni cosiddette duali), che garantiscono la consistenza locale della struttura e allo stesso tempo, mediante le loro direttrici, anche quella complessiva.
Può parere quasi paradossale, ma le cupole geodetiche non risentono negativamente (anzi, sembra il contrario, anche se gli studi non sono ancora completi in questo senso) dell’aumento delle proprie dimensioni; questo le rende particolarmente appetibili per la realizzazione di coperture di grandi spazi, quali ad esempio i padiglioni delle esposizioni.
Se i primi esempi di strutture geodetiche risalgono agli anni della Prima guerra mondiale, con i progetti di Walter Bauersfeld, che concepì una simile forma per un planetario, realizzato poi nel 1922 a Jena, presso la sede della Carl Zeiss, è dopo il secondo conflitto mondiale che si hanno gli esempi più importanti e il rappresentante di maggiore spicco.
Si tratta di R. Buckminster Fuller, al quale si deve tra l’altro la definizione propria per questo tipo di cupole, e l’utilizzo in applicazioni di grande visibilità, come il padiglione americano dell’Expo di Montreal del 1967.
In realtà, la scarsa applicazione delle cupole geodetiche a fini civili dipende dalla difficoltà di adattamento di queste strutture alle necessità (ad esempio, quella delle uscite di sicurezza, che indeboliscono la struttura) e dagli alti costi di realizzazione (si pensi a quello di una finestra triangolare o esagonale) volendole rendere permanenti.

Attualmente le avanguardie dell’edilizia stanno ulteriormente stravolgendo i paradigmi preesistenti, non considerando come partenza immancabile l’elevazione di una pianta, ma la considerazione dell’edificio come un corpo solido consistente nella sua interezza. In tal senso, le realizzazioni della blob architecture esi adattano quant’altre mai alla definizione di edificio data da Le Corbusier; tali strutture sono propriamente delle machine à habiter.

09 – nuovi stili e nuove professioni

chiesa-romanica
In Europa tra la fine del x e la metà del xii secolo va diffondendosi lo stile romanico, le cui caratteristiche tecnologiche distintive sono: uso dei pilastri (agglomerati di più colonne in luogo delle colonne stesse), tetti a capanna, divisione in navate, peso e dimensione orizzontale preponderanti.
In questo periodo, specialmente nell’erezione di chiese, si ripresenta il problema già visto nelle strutture a tholos dello scarico dei pesi sulle pareti laterali. Tale problema è risolto attraverso uno sviluppo della dimensione orizzontale. Le navate laterali hanno la funzione di meglio distribuire, sostenere e scaricare verso il basso il peso della navata centrale, la cui componente orizzontale tenderebbe diversamente a provocare il collasso della struttura.

Nello stile gotico, che nasce nel xii secolo in Francia, per poi diffondersi in tutta l’Europa occidentale e termina, in alcune aree, anche oltre il xvi secolo, questo problema sarà risolto con espedienti che consentiranno una notevole evoluzione verticale.
Lo stile gotico fu definito come modernus, aggettivo che compare nella lingua latina a partire dal v secolo, e utile per distinguere il recente mondo da quello antico; era usato con accezione negativa poiché era sinonimo di recente, di nuovo, di minor durata rispetto a ciò che era stato prima; era contrapposto all’Antichità, per definizione infallibile in tutte le sue manifestazioni.
Grazie all’ausilio di nuovi accorgimenti non c’era più bisogno di navate laterali o terrapieni per distribuire i pesi, ma bastavano strutture molto più snelle, che dal punto di vista strutturale sostituivano le navate laterali: i contrafforti e gli archi rampanti.
L’arco rampante apparve per la prima volta intorno al 1100, come prima evoluzione del contrafforte. Inizialmente non ebbe la funzione di equilibrio delle spinte laterali delle murature, ma di pura e semplice facilitazione funzionale alla posa della copertura.
Successivamente l’arco rampante divenne un elemento architettonico utilizzato per contenere e scaricare al suolo spinte laterali e verso l’esterno delle parti superiori dell’edificio; divenne in seguito parte integrante della definizione estetico-formale dell’architettura gotica, contribuendo alla smaterializzazione dell’edificio, con valenze simboliche oltre che strutturali.
La nuova immagine estetica che ne risultava, riducendo l’intera struttura al suo scheletro progettuale, era quanto mai orientata al verticalismo, all’elevazione. Splendido esempio di questa tensione è la Sainte-Chapelle parigina, il cui rapporto quasi pari a 2 tra altezza e larghezza sembra moltiplicarsi per la presenza delle vetrate policrome e dei pilastri.

Se fino a quasi tutto il Medioevo le scritture tecniche furono pochissime, uno tra i primi a mettere in evidenza la necessità di una rappresentazione progettuale simbolica e formalizzata fu Villard de Honnecourt; questi, nel suo Album o Livre de portraiture (1265 ca.) affermò che il disegno (portraiture) e la matematica (iometrie) sono alla base del linguaggio degli ingegneri e degli architetti. Sta di fatto che l’Album di Villard de Honnecourt è forse il primo trattato di ingegneria moderna.

Ulteriore passo avanti nella direzione della rappresentazione tecnica fu compiuto da Filippo Brunelleschi (1377-1446), con l’invenzione della prospettiva.
Il genio di Brunelleschi non si limitò tuttavia alla prospettiva ma si palesò anche nell’erezione della cupola di Santa Maria del Fiore a Firenze.
Il problema tecnico legato alla cappella era legato alle dimensioni di questa, smisurate per quell’epoca, tanto da non poter consentire la realizzazione di una centina tanto ampia e resistente.
Brunelleschi ideò una struttura autoportante costituita da una cupola a doppia calotta (idea poi ripresa per la cupola di san Pietro a Roma) e un sistema di alleggerimento, scarico e distribuzione dei pesi legato proprio alla struttura in sé e non a strutture aggiuntive: il sistema a spinapesce di disposizione dei mattoni costituenti una delle due calotte.
I mattoni erano disposti posizionando un mattone in verticale dopo un certo numero in posizione orizzontale.
Poiché era impensabile che i manovali potessero interpretare schema progettuale, Brunelleschi rese “leggibili” le posizioni dei mattoni da posizionare a spinapesce per mezzo di cordicelle tese e fili a piombo, che seguivano una struttura lignea (sulla quale erano segnati gli inviluppi delle curve relative alla tecnica) che saliva insieme con la costruzione della struttura.

09 – pietre dritte, pietre coricate, archi e volte

tholos-micene

La forma più elementare di costruzione, che riprende archetipicamente le strutture offerte dalla natura, come ad esempio le grotte, è quella delle pierres levées e delle pierres couchées, (letteralmente “pietre diritte” e “pietre coricate”), identificabili con i menhir e i dolmen delle costruzioni megaliti, di cui Stonehenge è uno tra i più celebri esempi.
Questo sistema è precursore del sistema piedritto-architrave o colonna-architrave, il paradigma sul quale poggia buona parte dell’evoluzione della tecnologia edilizia dei secoli successivi.
Di più, per avere un’idea del grado di evoluzione costruttiva del periodo analizzato, potrebbe essere analizzata e tracciata la storia del rapporto altezza/base dell’edificio. Tale rapporto dipende dal coefficiente di attrito interno delle costruzioni, e la sua evoluzione vede un costante innalzamento, sino a quello dei grattacieli in vetro acciaio di altezza superiore ai 500 metri dell’ultima parte del secolo xx.
In epoca preistorica, tra il v e il i millennio a.C., le strutture megalitiche basate sul paradigma piedritto-architrave avevano forte valenza simbolica, e come tali inserite nelle costruzioni religiose, cosa che poi si ritroverà nell’architettura classica, nella quale sull’architrave si appoggeranno il fregio e la cornice (che spesso è fatta coincidere con il timpano).

Altra struttura costruttiva primitiva è quella del tholos (solitamente con funzione funeraria). Questa struttura è, in qualche modo, più rozza del sistema piedritto-architrave. Tale struttura è ottenuta per successive rastremazioni di corsi circolari di conci, la cui stabilità è assicurata dal carico di terra che grava su di essi.
La disposizione sovrapposta delle pietre per formare i corsi circolari era fatta in modo che il piede del baricentro di ciascun elemento di un livello superiore ricadesse all’interno dei limiti dell’elemento inferiore. Questa tecnica, però, presentava il problema di un forte scarico dei pesi sulle pareti laterali che, senza adeguati sostegni, sarebbero collassate; in assenza di elementi architettonici utili a sopperire a questo problema strutturale, i tholos furono edificati interrati o circondati da un terrapieno.

In epoca romana, oltre alla ripresa degli elementi fondamentali (colonna e architrave), ormai perfezionati in epoca greca (divenuti colonnato e tetto a falde), si avrà l’introduzione di un nuovo rivoluzionario elemento, fondamentale nell’evoluzione delle tecniche per la costruzione di edifici: l’arco.
Propriamente l’arco fu utilizzato per la prima volta dagli Etruschi, ma fu con i Romani che ebbe la sua massima espressione arrivando fino alla sua evoluzione tridimensionale: la volta.
La volta, che è la giustapposizione di più archi, ha nel Pantheon romano uno dei migliori e più celebri esempi, non solo per le sue dimensioni (cupola: 43,44 m di diametro) e per le sue proporzioni auree, ma anche per il magistrale uso dei materiali.
I Romani, infatti, apportarono numerosi miglioramenti nell’uso dei materiali e in particolare adottarono come agente legante il betunium.
Il betunium è un antesignano del calcestruzzo, nel quale il legante è la pozzolana mista a calce. Questo conglomerato era impiegato per realizzare fondazioni, murature spesse, e per riempire di mattoni i cassettoni delle cupole formati dall’intersezione dei costoloni di muratura lungo i meridiani e i paralleli delle cupole.
Proprio il Pantheon è un esempio dell’impiego di questo conglomerato, al cui interno si ritrovano cocci di laterizio e di altro materiale, cosicché la sue preparazione era anche l’occasione per smaltire notevoli quantità di materiali di risulta. E’ da sottolineare anche che i Romani riuscirono a rendere di uguale efficienza leganti con materiali di luoghi diversi, in quanto la loro architettura tendenzialmente era portata a usare materiali disponibili in loco.

08 – l’ora esatta

evoluzione-precisione-orologi
Volendo brevemente tracciare l’evoluzione degli orologi seguendo la precisione raggiunta, si può fare riferimento anche qui a Cipolla, che nel suo Le macchine del tempo presenta un grafico a far data dalla metà del xiv secolo, da prima che appaiano gli orologi con bilanciere a verga. In corrispondenza dell’introduzione di questo meccanismo si ha uno scarto giornaliero che passa dall’ordine del migliaio di secondi (tra i 16 e i 17 minuti) a uno di qualche centinaio. L’avvento del pendolo con Huygens nel 1657 dà luogo alla maggiore rivoluzione tecnologica nel campo dell’orologeria, poiché l’errore giornaliero scende drasticamente a circa una decina di secondi, ossia cento volte più piccolo di quello di tre secoli prima.
I perfezionamenti degli scappamenti, riguardanti per lo più il controllo degli attriti, danno miglioramenti incrementali, che saranno amplificati, nella prima metà del xviii secolo, prima dalle tecniche di compensazione della temperatura, principalmente a opera del’inglese George Graham, che nel 1726 diede notizia delle sue realizzazioni nelle Philosophical Transactions, e successivamente dai meccanismi a frizione ridotta che permisero a John Harrison di assicurarsi il Longitude Price. Il cronografo di Harrison scartava giornalmente di non più di tre decimi di secondo.
Il xix e l’inizio del XX secolo videro altri miglioramenti, dovuti a sistemi di compensazione rispetto all’azione della pressione atmosferica, e a riduzioni degli attriti. Con la compensazione barometrica di Alvin Robinson, lo scappamento del tedesco Sigmund Riefler e le riduzioni degli attriti operate da William H. Shortt l’errore giornaliero passò all’ordine di grandezza del millisecondo. Sino a questo momento (1929 circa) il pendolo era stata la base del funzionamento dei più precisi orologi esistenti.

Una nuova importante svolta si ebbe nel 1928, con l’invenzione dell’orologio al quarzo, che basa il calcolo sulle regolari vibrazioni meccaniche prodotte da un cristallo di quarzo. Un cristallo di questo materiale possiede la caratteristica della piezoelettricità: se sollecitato meccanicamente, vede la generazione di una differenza di potenziale ai propri poli; all’inverso, se percorso da corrente a una certa frequenza caratteristica, detta di risonanza, è in grado di vibrare. La frequenza di vibrazione è proporzionale alla forma e alla dimensione del cristallo, e soprattutto è costante. Come tale può essere utilizzata come segnale meccanico utile per il funzionamento di un orologio (occorre la realizzazione di un semplice circuito RLC). L’orologio al quarzo può raggiungere precisioni giornaliere vicine alla centesima parte di millisecondo.
A partire dagli anni ’60 l’evoluzione tecnologica permise la realizzazione dei primi orologi da polso al quarzo (il cui funzionamento dipende anche da una differenza di potenziale elettrico). Contemporaneamente si diffondevano quelli controllati a transistor e quelli a diapason basati sulle oscillazioni di un elemento in acciaio.
Considerando invece il dominio delle altissime precisioni, gli orologi atomici sfruttano le frequenze di oscillazione proprie di un certo atomo. Il più utilizzato è il cesio; per questo motivo la definizione operativa ultima del secondo è la sua uguaglianza con 9.192.631.770 cicli della radiazione corrispondente alla transizione tra due livelli energetici dello stato fondamentale dell’atomo di cesio. Ciò permette a tali strumenti di avere errori che non sorpassano il miliardesimo di secondo al giorno.
Sviluppi futuri vedono l’uso di “trappole di ioni” di mercurio, che secondo le attese potranno dare precisioni di 5 ordini di grandezza maggiori.

« Older Entries