22 – un caso esemplare

La realizzazione, nel 1893, delle fogne torinesi, fu preceduta da una lunga serie di risoluzioni, e di altre contrarie a quelle precedenti, di decisioni in una direzione e di brusche sterzate in senso opposto. Ciò fu determinato, tra l’altro, dalla presenza di due fazioni contrapposte di peso quasi equivalente, che si batterono sino all’ultimo sfruttando sia la sede consigliare sia i mezzi di diffusione delle opinioni (in particolare, i mezzi a stampa, tra cui, oltre alla già citata “L’ingegneria sanitaria” si annovera anche “La gazzetta del popolo”).
Gli antefatti parlano di un primo progetto di canalizzazione doppia stilato sotto Nomis di Pollone nel 1842. La costruzione della rete fu interrotta attorno al 1860, quando si preferì incoraggiare l’utilizzo di pozzi neri, che tra l’altro permettevano l’impiego di molta manodopera.
Con relativo anticipo rispetto alla “rivoluzione batteriologica”, ma in ogni modo dettata dal peggiorare della situazione igienica della città, il 15 novembre 1880 si situa l’istituzione, da parte del Sindaco Luigi Ferraris, di una commissione per lo studio del miglior sistema di fognatura. La commissione, presieduta dall’avvocato Calandra, ebbe come relatore il senatore Pacchiotti, e come estensore del progetto l’ingegner Boella. Il progetto fu anche presentato all’Esposizione Nazionale di Torino del 1884, e la sua discussione in sede di Consiglio comunale iniziò l’anno successivo; tuttavia, la continuazione fu subito bloccata per via di una mozione dell’onorevole Carlo Compans, che chiese un approfondimento degli studi.
La Giunta, già diretta da Ernesto di Sambuy, deliberò quindi il 4 marzo 1885 della formazione di una seconda commissione, incaricando i consiglieri Casana, Ceppi e l’ingegner Velasco, capo dell’Ufficio Tecnico, di portare a conoscenza la Giunta stessa della situazione delle fognature in diverse città europee.
Seguirono anni di relativa quiete, nei quali il dibattito, anche quello condotto dalle colonne delle riviste, si fece meno intenso; si arrivò così al 1887, anno nel quale il Consiglio Comunale deliberò la stesura da parte dell’Ufficio Tecnico di due progetti di massima: uno a canalizzazione doppia ed uno a canalizzazione unica.
L’anno successivo il Consiglio stesso diede la propria approvazione per il progetto di canalizzazione unica, ma ancora una volta le opposizioni di alcuni membri non permisero l’inizio delle opere. Nel 1889, incredibilmente, lo stesso Consiglio mutò nuovamente la propria decisione, propendendo per la canalizzazione doppia.
Urgeva fare chiarezza, e il pretesto fu dato dall’insediamento della nuova Giunta, insediata dopo le elezioni estive. Fu dato carico all’ingegner Ernest Bechmann, che si era già occupato della sistemazione delle fogne di Parigi, di cui divenne responsabile dal 1888, di redigere un progetto di canalizzazione unica. Seguendo il mandato ricevuto dal Consiglio, la Giunta nominò il 21 aprile 1890 un’ulteriore commissione, composta dagli ingegneri Berocchi di Roma, Tagliasacchi di Milano, Delfino di Cuneo, Meano di Torino e del professore d’igiene di Roma, Angelo Celli.
Tale commissione si dimostrò sostanzialmente favorevole al sistema del tout à l’égout, dando così soddisfazione al partito dei monocanalisti.

Parallelamente, la Società degli Ingegneri ed Architetti di Torino aveva pure istituito una commissione, che avrebbe dovuto dare un parere sulla questione delle fogne. Tale commissione si pronunciò per il sistema della canalizzazione doppia. Il dissenso rispetto alla posizione della commissione fu manifestato anche in Giunta, dove nel 1891 tre assessori ingegneri su quattro (Galileo Ferraris compreso) sostennero il progetto di fogne separate.

Il dibattito proseguì, tra esposizioni di pro e contro, proposte serie e meno serie, incomprensioni, errori, stime di costi e velati insulti, all’insegna di lodevoli intenti di alcuni e di una conoscenza frammentaria del problema dimostrata da diversi consiglieri comunali, alcuni dei quali tecnici di primo livello.
Le stime dei costi furono diverse, e diversamente interpretate dai fautori dei due sistemi; analogamente, medesimi fattori furono interpretati diversamente a seconda che si sostenesse la canalizzazione unica o doppia. Tuttavia, ciascuno dei due schieramenti aveva dei punti forti, che richiamava ad ogni nuova descrizione.
In sintesi, il tout à l’égout o canalizzazione unica era considerato dai propri propugnatori come:
• il più economico, per la semplice considerazione secondo cui un canale costa meno di due;
• il più semplice, sia dal punto di vista sistemico sia per le operazioni di manutenzione;
• il più efficiente, malgrado si dovessero mettere in conto spiacevoli fuoriuscite nei giorni di intense precipitazioni.
La doppia¬¬¬¬ canalizzazione era invece presentata con questi aspetti positivi:
• igienicità, dovuta alla chiusura stagna delle acque nere in tubi metallici;
• sicurezza, per la maggior facilità di contenimento di volumi d’acqua eccezionali (gestiti attraverso la messa in comunicazione delle due canalizzazioni);
• profittabilità, perché anche a fronte di una non dimostrata maggior spesa iniziale, permetteva l’uso degli scarichi come concimi.

Per contro, le posizioni opposte si manifestarono anche nell’esposizione dei difetti del sistema concorrente. Sostanzialmente il tout à l’égout era tacciato di scarsa igienicità per le fuoriuscite nel caso di grandi piogge e per il rischio di stagnazione in caso di siccità; la doppia canalizzazione era accusata di considerare come “bianche” delle acque che in realtà erano tanto mefitiche quanto quelle intubate nei canali neri, oltre che di difficile manutenzione. Inoltre, era considerata attuabile solamente in città di dimensioni maggiori di Torino.

Il 1892 vide l’estensione della legge per il risanamento di Napoli alle Amministrazioni comunali che ne avessero fatto domanda entro il gennaio 1894. Esse avrebbero potuto beneficiare di finanziamenti statali per ristrutturazioni cittadine giustificate da importanti motivi igienici (ove qui “igiene” è da intendersi in un senso abbastanza esteso, se è vero che l’apertura dell’attuale via Pietro Micca a Torino fu compiuta grazie alla legge). Ciò provocò un’accelerazione delle attività decisionali, sino a giungere al maggio 1893, quando la vicenda si concluse.
La votazione conclusiva prevedeva l’approvazione del cosiddetto ordine del giorno Pacchiotti, che comportava la costruzione di un unico collettore sulla sponda sinistra del Po, oltre che la connessione ad esso dei canali bianchi e neri. Il risultato vide trenta voti per parte, con Compans unico astenuto. L’ordine del giorno non fu approvato, e la seconda votazione, per alzata di mano, vide una lieve prevalenza della doppia canalizzazione (30 voti favorevoli e 28 contrari). Uno dei sei assenti alla votazione fu proprio Giacinto Pacchiotti, tenuto a letto dalla malattia che di lì a poco tempo lo avrebbe portato alla morte.

22 – nuove figure professionali

Torino provvide tardivamente all’attuazione definitiva della legge sanitaria, poiché grazie ai buoni offici di Pietro Baricco (il teologo Pietro Baricco, autore tra l’altro di una onnicomprensiva guida di Torino, Torino descritta, Torino : Paravia, 1896, fu presidente della Commissione direttrice permanente dal 1851 al 1864. Ricoprì anche gli incarichi di assessore comunale al Servizio scuola e beneficenza e di vicesindaco) fu ritardata di molto l’abolizione dei Consigli di beneficenza parrocchiali in favore dell’istituzione di una sola Congregazione di carità. Ciò, se da un lato permise ai parroci di mantenere la propria posizione preminente nell’amministrazione della sanità a livello zonale, impedì lo sviluppo di una strategia organica di gestione del problema sanitario ed igienico.
Nonostante questo handicap iniziale, la città fu comunque in grado di bruciare le tappe nella formazione delle proprie strutture nel campo, sino ad essere punto di riferimento a livello europeo. Ciò fu dovuto ad una serie di fattori, tra cui di sicura importanza la costituzione della maggioranza a livello consigliare da parte della fazione liberal-progressista a partire dal 1876. Nello stesso periodo l’università torinese incontrava un concreto sviluppo per l’affidamento di cattedre a nomi già prestigiosi, o che avrebbero fatto di Torino il proprio trampolino di lancio (da Serenella Nonnis Vigilante, Igiene pubblica e sanità municipale, in Storia di Torino, vol. 7, Umberto Levra, ed., Torino : Einaudi, 2001, p. 381):

Alla vitalità dell’ateneo torinese avevano dato il via le facoltà scientifiche: nel 1861 Jakob Moleschott era stato chiamato alla cattedra di Fisiologia; nel 1879 questi veniva sostituito dal fisiologo Angelo Mosso; nel 1864 lo zoologo Filippo De Filippi aveva sviluppato le teorie di Charles Robert Darwin, suscitando inevitabili polemiche e contestazioni; nel 1873 Giulio Bizzozero aveva fondato il laboratorio di Patologia generale e introdotto l’uso del microscopio per lo studio delle piastrine del sangue; dal 1876 Cesare Lombroso aveva creato l’istituto di Medicina legale; nel 1878 Michele Lessona, autore del libro Volere è potere, ispirato alle teorie del self-help di Samuel Smiles, proseguiva l’opera di De Filippi. A partire da quell’anno veniva pure attivata la cattedra di Igiene, assegnata a Luigi Pagliani (la disciplina era precedentemente aggregata a quella di Medicina legale).

Che la discussione nel campo della sanità e dell’igiene fosse a Torino più che mai vivace è testimoniato tra l’altro dalla presenza di due riviste, nate quasi negli stessi anni: si tratta de “L’ingegneria sanitaria” e “L’ingegnere igienista”. La prima, nata nel 1890, ebbe come spiriti animatori Giacinto Pacchiotti e Francesco Corradini. “L’ingegnere igienista” nacque invece nel 1897, ma fu solamente a partire dal 1900 che poté avvalersi della spinta di due personaggi come Luigi Pagliani e Giulio Bizzozero. Entrambe confluirono poi nel 1905 a formare la “Rivista di ingegneria sanitaria”.

Gli anni Ottanta furono il decennio nel quale presero definitivamente piede le teorie di Pasteur e Koch, in virtù delle quali si può parlare di “rivoluzione batteriologica”. Esse erano un potente mezzo di spiegazione dell’origine delle malattie, e fu grazie ad esse che si poté pensare alla costituzione o all’ammodernamento delle città così da permettere alla popolazione di vivere in un ambiente che avrebbe mantenuto o condotto alla loro “sanità”.
Esperimenti condotti già negli anni precedenti sotto l’ampio cappello della statistica delle popolazioni – oppure, secondo un’espressione nata verso la fine del secolo, dell’ecografia sanitaria – avevano dimostrato il nesso causale tra condizioni di vita e sviluppo fisico ed intellettuale. Occorreva quindi costruire o ammodernare secondo i nuovi criteri, coniugando conoscenze derivanti dal campo medico con quelle tipiche della scienza ingegneristica, sino alla formazione di una nuova tipologia professionale, che avrebbe fatto parlare di sé sino a tutto il primo ventennio del xx secolo.
Pogliano (Claudio Pogliano, L’utopia igienista (1870-1920), in Franco Della Peruta, ed., Storia d’Italia. Annali. 7: Malattia e medicina, Torino : Einaudi, 1984, pp.618-19) sintetizza bene il “fervore tecnicista” del periodo:

Dall’incrocio fra medicina e ingegneria era nato un nuovo specialismo, insieme con una sotto-disciplina ed uno strato di cultori. I quali si pensavano figli dei “progressi” chimici e batteriologici da un lato, e dei nuovi ordinamenti sanitari dall’altro. All’ingegnere più che al medico sembrò affidata la vita umana, vista l’impotenza terapeutica di fronte ad ambienti malsani. La percezione dei germi aveva sfatato l’inevitabilità della malattia: restava il passo conseguente – “un’immensa compagine di studi e di applicazioni” – capace di attuare schemi preventivi. Gli ingegneri igienisti additavano scuole rigogliose già esistenti all’estero, oppure rivendicavano nazionalisticamente una primogenitura “italiana”: acquedotti e fogne della Roma antica. Non si stancarono, comunque, di volere la ratifica di un loro ingresso nella direzione della cosa pubblica, e di chiedere, per intanto, cattedre obbligatorie nelle scuole d’applicazione; oppure ancora, l’affiancarsi di un ingegnere all’ufficiale sanitario. […] Dovettero esserci, allora, gelosie di corporazione e diffidenze se in ogni loro uscita pubblica gli ingegneri sanitari sentivano il bisogno di definire una sfera propria, confinante ma non invadente il campo dell’igiene.

Agli ingegneri non mancavano le credenziali ufficiali: sin dal 1889 fu istituito presso tutte le scuole d’Applicazione un corso dimostrativo di principi d’igiene. Superato l’esame, il futuro ingegnere avrebbe potuto accedere ai concorsi indetti dalla pubblica amministrazione nel campo dell’igiene. A Torino il corso di “igiene applicata all’ingegneria” era tenuto da Pagliani, autorità riconosciuta in materia, ma comunque contestata dall’ingegner Poggi, il già ricordato progettista della fognatura milanese, che sosteneva l’inutilità di un corso che secondo lui non aggiungeva nulla a quanto già insegnato nei corsi di architettura pratica. Il volano, tuttavia, era stato messo in moto.

Il xix secolo vide il moltiplicarsi dei metodi per lo smaltimento dei rifiuti organici di origine umana e per l’attenuazione del loro potere infettivo. Il fatto che molti di questi sistemi fossero di origine francese è da ricercarsi nel tentativo di porre riparo alle spiacevoli situazioni cui dava spesso luogo la fogna parigina, costituita secondo il classico sistema del tout à l’égout, ossia dalla confluenza di tutte le acque, quelle bianche e quelle nere, in un unico canale sotterraneo. Nelle situazioni normali, grazie ad una sufficiente diluizione garantita dalle piogge, la fogna parigina permetteva il riversamento di tutto il proprio contenuto nella Senna. Tuttavia, nelle rare occasioni in cui una bassa piovosità non permetteva un’adeguata circolazione, i miasmi si diffondevano nell’aria attraverso i tombini a fianco delle strade.
Per questo motivo tali sistemi si interessavano propriamente del primo tratto della fogna, ossia quello che va dal servizio sanitario domestico sino al primo collettore, anche se in taluni casi non era presente alcuna connessione con un sistema fognario centralizzato, poiché lo spurgo era effettuato attraverso pozzi neri o per mezzo di carri che rilevavano un contenitore di varia natura destinato all’accumulo delle materie.
A giudicare dalla quantità, quindi, l’interesse principale non sembrava concentrarsi tanto sulle caratteristiche del sistema fognario nel suo complesso, quanto sul metodo più razionale ed igienico per provvedere allo smaltimento delle deiezioni nelle vicinanze delle abitazioni. In sede di dibattito, però, sarà proprio l’opposizione tra “monocanalisti” e “bicanalisti”, secondo le definizioni introdotte dallo stesso Giacinto Pacchiotti, a tenere banco per diversi anni, con plurimi cambiamenti di rotta che avrebbero portato ad una decisione definitiva solamente nel 1893, ultimo anno utile per usufruire delle agevolazioni della cosiddetta “legge di Napoli”.

22 – le tecniche dell’igiene

Nella seconda metà del xix secolo, ed in particolar modo nell’ultimo quarto di secolo, Torino assunse, in materia d’igiene, un ruolo guida nella penisola, sia nell’attività più squisitamente teorica sia nelle realizzazioni pratiche.
Da un lato, infatti, il primo corso di igiene a livello universitario, tenuto da Luigi Pagliani, fu istituito a Torino già nel 1877, e la città ospitò, prima in Italia, il terzo congresso internazionale d’igiene nel 1880, dopo quelli del 1876 a Bruxelles e del 1878 a Parigi. Il laboratorio d’igiene torinese, dopo una fase embrionale iniziata già sul finire degli anni Cinquanta, ebbe origine istituzionale il 26 ottobre 1865. Ancora, la città subalpina fu sede di ben due riviste, “L’ingegneria sanitaria” e “L’ingegnere igienista”, che nonostante il differente approccio si porranno come importanti poli di aggregazione di idee e discussione sul tema. A ciò si aggiunsero opere a stampa di vasta portata, manuali che comprendevano accezioni di “igiene” spesso piuttosto diverse: si andava infatti dal complesso di condizioni che permettono l’ottenimento ed il mantenimento dello stato di salute fisica dei cittadini, sino al più ampio insieme di requisiti che denotano la sanità in senso lato del cittadino, e quindi non solo quella meramente legata alle condizioni della sopravvivenza, ma anche quella sociale, sino a giungere a quella morale.
Da aggiungere che a Torino svolsero la propria attività figure che rimarranno tra le principali in Italia nel campo dell’igiene; tre nomi su tutti: Luigi Pagliani, Giacinto Pacchiotti e Francesco Corradini. A loro si ascrivono attività sia intellettuali sia realizzazioni all’avanguardia per il tempo, e fu proprio l’unione tra teoria e prassi che li fece emergere come modelli della figura che in questo periodo si intagliò nel panorama delle professioni: l’igienista.
Dal punto di vista pratico, anche i regolamenti igienici della capitale sabauda erano all’avanguardia, tanto che la città divenne punto di riferimento per l’organizzazione delle strutture dedicate alla salvaguardia dell’igiene: per la costituzione dei propri uffici di igiene numerose città italiane si basarono su copie dei regolamenti torinesi. Ulteriormente, il progetto di fognatura della città fu uno dei primi organicamente costituiti, datando del 1840. La fognatura sarà compiuta solo nel 1893, quando sotto l’egida della legge di Napoli la municipalità torinese prenderà finalmente la decisione a proposito del sistema da adottare per la propria canalizzazione.

Il 20 marzo 1865 è data che segna l’estensione a tutto il Regno d’Italia del regolamento sanitario in vigore nello Stato sabaudo da oltre dieci anni. Tale regolamento introduceva sostanziali cambiamenti soprattutto in relazione agli enti preposti alla direzione ed alla gestione della sanità e dell’igiene. In particolare, con la legge sanitaria erano istituite le Commissioni municipali di Sanità, che andavano a rilevare la funzione sino a quel momento svolta dalle Commissioni direttrici permanenti. Oltre a ciò, il servizio sanitario di beneficenza, controllato dalle stesse Commissioni direttrici, era posto sotto l’egida degli Uffici di igiene.
Ciò significò per le Congregazioni di carità la perdita del controllo dei fondi destinati al sostentamento dei più bisognosi; infatti ora spettava all’Ufficio d’igiene la gestione dei certificati di povertà, prima di competenza dei parroci, accusati di accordi con farmacisti, medici ed ostetrici.
Inoltre, secondo la struttura dettata dalla legge sanitaria del 1865, la Commissione municipale di sanità doveva essere composta da (da Serenella Nonnis Vigilante, Igiene pubblica e sanità municipale, in Storia di Torino, vol. 7, Umberto Levra, ed., Torino : Einaudi, 2001, p. 375):

[…] tre consiglieri comunali, due medici ed un ingegnere, nonché dal direttore dell’Ufficio d’igiene (che ricopriva l’incarico di segretario), oltreché da membri aggiunti quali gli assessori all’assistenza sanitaria ed alla polizia municipale, due professori di Medicina, uno di Chimica, uno di Veterinaria, un ingegnere ed un dottore (ambedue membri del Consiglio provinciale di sanità) […]

La figura dell’ingegnere riceveva perciò una prima legittimazione ad essere inclusa tra quelle preposte a difendere la salute dei cittadini. Questa tendenza si sarebbe consolidata successivamente, sino a far considerare da taluni l’ingegnere come la persona più indicata per applicare la scienza al servizio del benessere della collettività.

Alla legge sanitaria del 1865 avrebbe fatto seguito la legge “Sulla tutela della igiene e della sanità pubblica” n. 5849 del 22 dicembre 1888 (legge Crispi-Pagliani). Si trattava di una norma di peso teorico ben maggiore, sia poiché faceva tesoro della cosiddetta “rivoluzione batteriologica” avvenuta in quello stesso decennio, e sia perché legava in modo efficace le esigenze della popolazione alle istituzioni.
La legge si attuava con la formazione di un organismo statale centrale, la Direzione generale di sanità, che doveva farsi carico di filtrare le conoscenze scientifiche in modo tale da poter essere recepite dall’esecutivo, oltre che stendere le linee-guida dell’azione nei campi della sanità e dell’igiene nel rispetto dei vincoli di bilancio imposti dall’amministrazione statale. Discendendo nella piramide, si incontravano poi i medici provinciali, figura che doveva connettere la Direzione generale con i medici comunali, istituiti come “Ufficiali dello Stato”.

Il sistema così costituito si sarebbe fatto carico della igiene dei cittadini, ove con questo termine si volle intendere qualcosa di più ampio rispetto alla semplice nettezza della persona o dell’ambiente in cui essa vive.

La realizzazione delle opere pubbliche esulava dalla giurisdizione delle strutture create dalla nuova legge. Si può parlare di una contaminazione più teorica delle discipline “igieniche” nei confronti delle figure tecniche, in particolare degli ingegneri. L’integrazione compiuta anche e soprattutto grazie all’attività di Pagliani permise lo sdoganamento dei principi igienici che allora si andavano affermando anche all’interno della comunità dei tecnici.

21 – setting of the stage, scatole nere e alberi impossibili

Secondo Abbott P. Usher (A History of Mechanical Inventions, 1929 e 1954), invece, l’atto di intuizione individuale può essere formalizzato come un percorso a quattro stadi: percezione del problema, setting of the stage, atto di intuizione, revisione critica.
Con la locuzione setting of the stage, letteralmente, “sistemare il palcoscenico”, Usher intendeva il contesto nel quale deve avvenire l’invenzione, cioè gli elementi che l’inventore prende come riferimento, e sulla base dei quali avviene l’atto di intuizione, una possibile soluzione del problema che sfocia nella produzione di un prototipo sottoposto a successiva revisione critica. Per capire meglio questo ciclo ricorsivo possono essere di aiuto alcuni esempi. Corradino D’Ascanio ideò la “Vespa” mutuando alcuni elementi dalle costruzioni aeronautiche. Similmente, Gustave Eiffel prima di intraprendere la costruzione dell’omonima torre, si occupò di studi di aerodinamica, che gli servirono per la determinazione di alcune importantissime caratteristiche proprio della Torre. Ancora, il “Flyer” dei fratelli Wright derivava dalle esperienze dei due fratelli come costruttori di biciclette, dalle prove in galleria del vento e da numerosi esperimenti preliminari.
In tutto ciò si inserisce l’importante contributo di Nathan Rosenberg, che nel suo Dentro la scatola nera: tecnologia ed economia (1984) affrontò il problema della “scatola nera”; trattò cioè delle strette interazioni tra economia e tecnologia. Secondo Rosenberg sono poche le aziende che possono permettersi di “pensare a lungo termine”, per diverse cause, che possono essere economiche, e manageriali.
Altro concetto introdotto da Rosenberg fu quello di “squilibrio tecnologico”, che si riferisce al mutamento nel quadro organizzativo che fa sì che un sentiero sia preferito ad un altro; Rosenberg, in altre parole, descrisse degli esempi in cui certe condizioni portano a prendere determinate direzioni tecnologiche.
Da un punto di vista sistematico, gli approcci all’atto di intuizione sono principalmente due, quello riduzionista e quello olistico. Il primo ha tendenza a simulare un evento naturale, come nel caso dell’ala battente che riproduce quella di un uccello, mentre il secondo non si cura di quello che c’è dietro, ma è interessato solo al risultato finale. Ancora, nel primo caso abbiamo un approccio analitico, nel secondo sintetico, cioè guarda al suo insieme; il primo apprende da eventi, dal caso singolo, il secondo invece guarda al modello, e infine se il primo ha un tipo di cultura scientifica, il secondo multidisciplinare, cioè mette insieme elementi apparentemente esterni e non coerenti.
Una teoria molto diffusa è quella per cui la necessità spiega l’esigenza tecnologica.
Secondo George Basalla (L’evoluzione della tecnologia, 1991), invece, le invenzioni sono slegate dalle necessità attuali. Esse sono determinate come nel caso delle mutazioni biologiche, che hanno portato all’affermazione ed evoluzione delle specie più adatte all’ambiente, dal caso stesso.
Questa teoria che vede gli oggetti tecnologici slegati dalla necessità sembra essere avvalorata dal fatto che Marx stesso, ad esempio, nel 1867 apprese che a Birmingham esistevano più di 500 tipi di martelli. Tutto ciò proverebbe che “ogni società, in ogni tempo, possiede un potenziale di innovazione tecnologica superiore a quello che essa può sperare di sfruttare”.
Basalla propose inoltre una nuova visione della relazione causale tra necessità e invenzione, e prendendo spunto dalla vicenda dell’automobile, affermò che è l’invenzione a creare la necessità, cioè dubitando che l’automobile fosse realmente necessaria a priori? Più realisticamente, secondo lo storico, fu l’invenzione dei veicoli a motore a creare la necessità del trasporto motorizzato.
Un esempio contrario è rappresentato dai Mesoamericani, i quali non si servirono dei trasporti su ruote, perché la configurazione topografica della regione e la forza di trazione animale di cui potevano disporre non li rendeva possibili. Questo dimostra che la ruota non è l’unico meccanismo necessario, o utile, a tutti i popoli e in ogni luogo.

Per inciso, secondo alcuni la tecnologia non è nemmeno necessaria per soddisfare i bisogni elementari dell’uomo; il filosofo José Ortega y Gasset la definisce “produzione del superfluo”. La tecnologia è sviluppata non per soddisfare a bisogni dettati dalla natura, ma per coltivare bisogni che sentiamo come tali. I manufatti non rappresentano un insieme di soluzioni nate dalle necessità fondamentali, ma sono le manifestazioni materiali dei modi scelti nel tempo dagli uomini per vivere la propria vita.

Un’ulteriore analogia tra oggetti tecnologici e individui biologici vuole che nel corso dei secoli e dei millenni, senza un disegno precostituito, gli uomini abbiano selezionato i manufatti più idonei a determinati scopi, scartando quelli meno idonei e modificando gradualmente i manufatti superstiti in modo da far svolgere nel modo migliore le funzioni ad essi assegnate.
In questo quadro di evoluzione tecnologica l’inventore singolo fa pochissimo: prende quello che ha e aggiunge un dettaglio, modifica un particolare, quindi l’individuo perde di significato nel segno della continuità, per cui tutto continua rispetto a qualcosa di preesistente.
Continuando nel paragone con il mondo biologico, vi è però una differenza: nella descrizione del primo operata da Basalla manca la mutazione. Un altro studioso, Kroeber, metterà in luce la possibilità di “strani incroci” nel mondo tecnologico, tra tecnologie apparentemente non affini (come ad esempio quelle della bicicletta e dell’aereo), con una rappresentazione ad albero che dà un’immediata idea delle differenze tra mondo biologico e mondo dei manufatti tecnologici.

21 – le teorie di Schumpeter

Joseph Schumpeter modificò questa visione. L’invenzione non è per tutti, non tutti gli imprenditori riescono a vedere l’innovazione migliore in quel dato momento, quindi l’innovazione crea un extra-profitto.
Si introduceva inoltre la distinzione tra innovazione, invenzione e diffusione dell’innovazione. Per semplicità, si può assumere che l’innovazione sia un’invenzione acquisita dal mercato; se ciò non si verifica, l’invenzione si ferma al suo aspetto di nuovo trovato che non ha nessuna finalità sul mercato in quanto non se ne riscontra l’utilità.
Schumpeter introdusse anche una classificazione delle modalità in cui l’innovazione si diffonde all’interno dell’industria. Ne elenca cinque: nuovo prodotto, nuovo processo, nuovo mercato e nuove materie prime; oppure riorganizzando la produzione. Esempio in questo senso di riorganizzazione della produzione è quello della Fiat, che passò dallo stabilimento e dallo schema produttivo ottocentesco di corso Dante, dove è l’isola di produzione a costituire l’elemento fondante dello schema organizzativo della produzione, a quello del Lingotto, nel quale la concezione tayloristica prese piede e fu implementata in modo quasi paradigmatico.
Il filone neo-schumpeteriano cambiò ancora una volta le carte in gioco: il nesso non era più quello tra innovazione e profitto; al contrario, era il profitto a determinare le condizioni per l’azienda tali da consentirle di investire in ricerca e sviluppo, consentendole eventualmente di ottenere un altro extra-profitto. Al contrario, nei momenti in cui le aziende languono non è semplice per queste pensare a investimenti di medio o lungo periodo, quali quelli di ricerca e sviluppo.
Il successivo filone neo-tecnologico mise al centro della realtà produttiva la tecnologia. Prima infatti questa era sempre stata considerata marginalmente; ora invece diventa il driver; l’insorgenza di nuove tecniche danno la possibilità di avanzamento.
Si negava altresì in modo sempre più diffuso l’ipotesi neoclassica di indifferenza delle imprese nei confronti del cambiamento tecnologico; in altre parole, l’assunzione sempre più comune teneva conto di disparità nella visione delle nuove tecnologie, nella loro valutazione e adozione.
Vale la pena di svolgere una considerazione di portata generale. Quanto più una tecnologia è matura, tanto maggiore è la possibilità che l’innovazione sia introdotta attraverso una riorganizzazione aziendale: sempre per rimanere sull’esempio della Fiat, a un cambiamento epocale, legato sì all’organizzazione ma anche al processo produttivo, quale lo spostamento dagli stabilimenti di corso Dante a quello del Lingotto, succedette lo spostamento all’impianto di Mirafiori, dove la riorganizzazione dell’impresa fu l’azione di maggiore profondità. Il modello Toyota ne è un ulteriore esempio: si tratta di un metodo tecnologico molto organizzato, sottoposto a controllo, in cui ogni “granello” è apportatore di innovazione e viene considerato.

La figura dell’inventore nell’antichità non godette di ottima considerazione, soprattutto presso i Greci, che consideravano gretto colui che modificasse lo stato di natura delle cose. Occorrerà attendere quasi la fine del Medioevo perché questa concezione sia completamente rimossa.
Giorgio Vasari, con le sue Vite (Vite de’ più eccellenti pittori, scultori e architettori italiani, da Cimabue insino a’ tempi nostri, 1550), si fece portavoce di quella che si sarebbe poi chiamata visione trascendentalista, secondo cui esiste il genio individuale e l’invenzione è atto del singolo. Ci sono cioè persone più capaci, che hanno più abilità, che hanno quel sensus mechanicus, che consente loro di vedere oltre quando si approccia un problema meccanico.
Un’altra teoria dell’invenzione è quella sociale. Secondo questa c’è sì il singolo, ma la sua azione dipende dall’ambiente in cui si trova, cioè viene riconosciuto un valore sociale a ciò che sta intorno, mentre l’inventore è visto come prodotto della società.
Una posizione intermedia ha come presupposto teorico la scuola psicologica della Gestalt, secondo cui esiste una componente sociale nell’invenzione, ma anche una componente intuitiva, e l’intuito non è una caratteristica del singolo, ma di tutti, sebbene stimolato diversamente in diverse condizioni. Non è neppure una risposta meccanica ad un bisogno, che si ritiene debba accadere necessariamente.

21 – Archimede, Edison e gli altri…

Quando si parla di innovazioni e invenzioni tecnologiche, gli approcci e le teorie che ne trattano sono molto legati al periodo che analizzano; sono in altre parole molto contestuali. Per fare un esempio, parlare di innovazione o invenzione a fine xix secolo, quando la figura di Edison pare essere rappresentativa della possibilità di infinite invenzioni, quasi sempre rispondenti a un bisogno più o meno espresso, in un mondo in cui esistono molte persone perfettamente aderenti alla figura di Archimede Pitagorico. L’invenzione è manifestazione del genio, e questo modello si conferma perché le cose sembrano svolgersi in questo modo.
Un altro chiaro esempio di come le teorie siano dipendenti dalle circostanze è da riscontrarsi nelle teorie economiche, e nel loro cambiamento dopo l’11 settembre 2001, dovuto all’impossibilità di dipingere uno scenario nel quale si hanno segnali (ad esempio la pubblicazione di risultati periodici di un certo bene, commodity o altro; c’è altro in gioco, e le teorie vi si adattano in modo diverso. Le formalizzazioni teoriche, malgrado tutti i tentativi contrari, sono storiche, e pertanto hanno spesso un periodo di validità dovuto a determinate condizioni di contorno.
Sempre in ambito economico, l’invenzione è stata vista come una scatola nera, qualcosa del quale non si conosce l’interno e non si è interessati a studiarlo, del quale non importa il funzionamento, quanto l’esistenza in quanto tale: all’imprenditore è dato solo di scegliere la tecnica migliore.
Ulteriori approcci nel xx secolo che proposero una visione diversa, integrando diverse discipline per spiegare invenzione e poi innovazione.
Da non dimenticare però che, come per ogni teoria ci si riferisce ad un modello ideale, per qualsiasi teoria economica, per quanto legata alla dimensione tecnologica esistono delle assunzioni ideali di cui tener conto, e che verranno esposte di seguito.
Un primo approccio è stato quello classico, il quale portato agli estremi è fondamentalmente il “mondo delle favole”, il mondo perfetto in cui l’imprenditore mette il capitale e lascia gli uomini lavorare; è in altri termini la raffigurazione dell’andamento e del modo di comportarsi delle industrie durante almeno i primi cento anni della Rivoluzione Industriale.
Dall’approccio classico verso la meta del xix secolo si passò a quello neoclassico.
Questo considerava l’invenzione tecnologica come un fattore esogeno, cioè proveniente dal di fuori dell’ambito economico, e come tale non controllabile. L’unico compito dell’imprenditore sarebbe di scegliere la tecnologia migliore, o tutt’al più la combinazione di capitale che gli consente la massimizzazione della sua funzione profitto o soddisfazione. Subentra qui un’assunzione di cui tener conto, quella per cui la scelta viene fatta nella perfetta razionalità dell’imprenditore: l’imprenditore farebbe sempre la scelta migliore per la sua azienda. Questo vale nella maggioranza dei casi, ma possono esserci delle informazioni, dei sistemi di conoscenza, delle condizioni di mercato o delle assunzioni all’interno delle aziende per cui non sempre viene effettuata la scelta migliore.
Un esempio in questo senso: la scelta dell’Olivetti di non optare per la realizzazione di una piattaforma per personal computer, ma per i mini computer, dotati di maggiore capacità di elaborazione ma più costosi e meno largamente diffondibili, si rivelò sbagliata e determinante, soprattutto in un campo come quello informatico dove le barriere all’ingresso (i capitali necessari per l’apertura di una produzione) esistono e sono molto alte.
Sempre secondo l’approccio neoclassico, la struttura produttiva si adattava istantaneamente e totalmente alle tecniche più avanzate. Si assumeva che le scelte imprenditoriali relative alle capacità produttive ottimali fossero fatte sulla base dei prezzi dei fattori e dei prodotti all’interno di uno stato delle tecniche noto.
La produzione era ottimizzata facendo riferimento ad una curva di produzione, funzione di due parametri: il capitale e il lavoro.
In questa curva, detta di isoproduzione, in cui ogni punto corrisponde cioè ad un’uguale quantità prodotta, mentre qualsiasi combinazione di capitale e lavoro necessaria per il raggiungimento della quantità da produrre è rappresentata da ascissa e ordinata del punto.
Insieme a questa curva ne veniva usata un’altra, in questo caso una retta che indica il limite di bilancio, che indica come modificare i parametri di lavoro e capitale spendendo la stessa quantità di capitale. In altre parole, una determinata quantità di prodotto potrà essere prodotta aumentando le macchine di produzione e diminuendo gli operai o viceversa. Dunque questa curva indica il tasso di sostituzione.
Come agire per l’ottimizzazione della scelta? Soluzione del sistema è la ricerca del punto di tangenza tra la curva di produzione e il vincolo di bilancio.
Se si verifica un mutamento delle condizioni, per cui è possibile produrre le medesime quantità con una diversa curva di produzione, normalmente il limite di bilancio si abbassa, mentre l’imprenditore ne è sempre a conoscenza, per cui compie sempre la scelta migliore.

20 – la conquista dei cieli

Solo 6 anni dopo il primo volo del “Flyer”, avvenuto sulla spiaggia di Kitty Hawk il 17 dicembre 1903, nel 1909 Louis Blèriot, con un aeroplano mosso da un motore di 25 CV, riuscì nell’impresa di attraversare la Manica. Dieci anni dopo si sarebbe avuta la prima traversata atlantica (da Terranova all’Irlanda) da parte di Alcock e Brown. In questa fase l’aereonautica ebbe un’accelerazione anche per via dell’uso dell’aeroplano in impieghi bellici: bombardieri, caccia, cacciabombardieri, aerei da ricognizione, con diverse strutture e funzioni, sperimentarono nuove soluzioni e servirono da banco di prova per numerose innovazioni che sarebbero poi state utilizzate anche in campo civile.
Tra la metà degli anni ’20 e la metà degli anni ’30 le migliori prestazioni erano raggiunte dagli idrovolanti, in grado di ottenere record di velocità: mancavano piste geometricamente precise, sicure e abbastanza lunghe, quindi gli idroscali e gli altri specchi d’acqua costituivano un punto di partenza e di arrivo più comodo e con superfici molto vaste. Non è un caso se la prima linea italiana, la Torino-Trieste, con soste tra l’altro all’idroscalo Milano (costruito in epoca fascista) e a Venezia. Gli idrovolanti perdettero l’egemonia dell’aria già prima della Seconda guerra mondiale, surclassati dagli aeroplani “terrestri”.
Il primo motore a reazione fu sperimentato già nel 1910, da Henry Coanda. Il pioniere rumeno capì che un fluido che scorre in una certa direzione lungo un profilo curvilineo, muta il proprio andamento seguendo la forma della superficie del solido, grazie ad un gioco di attriti. L’effetto Coanda purtroppo si ritorse contro il suo scopritore: le fiamme uscite dal propulsore del velivolo avvolsero la fusoliera, alimentate dai gas di scarico del motore.
Nel 1944-45 la Germania introdusse sul campo il primo formidabile caccia a reazione, il Me-262, che era difficile da controllare ad alte velocità e, superata quella di Mach 0.86, rischiava di danneggiarsi. A metà anni ’50 la De Havilland mostrò il primo aereo commerciale a reazione, il “Comet”; la giovane scienza dei materiali non garantiva una fusoliera immune alle alte velocità, per cui l’aereo servì quasi più per i propri errori che per la propria storia di servizio.
All’inizio anni ’60 la tecnologia del volo impattò su altri versanti, come quello sociale. Pietra dello scandalo furono i tre progetti di aereo supersonico civile immaginati rispettivamente da Stati Uniti, URSS e dal binomio Francia/Regno Unito. Se quest’ultimo portò alla realizzazione del “Concorde”, che volò dal 1969 al 2003, anno del suo “pensionamento”, nel caso degli Stati Uniti fu un’azione pubblica a porre la questione del bang sonico prodotto dall’aeroplano. Se Londra e Parigi all’epoca disponevano di aeroporti sufficientemente distanti dai centri cittadini, ciò non era valido negli Stati Uniti, e il progetto, voluto sin dall’amministrazione Kennedy, fu rimesso nel cassetto. Analoga fine ebbe il progetto sovietico, abortito probabilmente per carenza di fondi e per la contemporanea decisione americana. I 20 esemplari costruiti servirono per lo più come fiore all’occhiello delle compagnie nazionali francese e inglese, che dovevano vendere i biglietti a un prezzo enorme per rientrare degli alti costi di gestione del velivolo.
Sin dall’invenzione del radar l’aviazione militare sognò l’aereo invisibile, in grado di non essere tracciato. Il principio è semplice: la superficie dell’aereo deve “spargere” l’onda radar, disperdendola quanto più possibile per evitare che rimbalzi indietro all’emittente. In alternativa, doveva essere in grado di assorbirla.
Le tecnologie stealth (tale è il nome di questa classe di velivoli), pur costosissime, non poterono dare risultati soddisfacenti almeno fino agli inizi degli anni ’80, quando nacque l’F-117 “Nighthawk”. Per ottenere un’invisibilità maggiore furono studiati metodi per ovviare alla rilevazione termica dei fumi di combustione e alla rilevazione delle emissioni elettroniche degli strumenti di bordo, oltre a impiegare materiali schermanti come il Kevlar o l’acciaio inox austenitico (essendo quest’ultimo non ferromagnetico) per diminuire la traccia radar.

20 – fotografie, biciclette ed aerei

Etienne-Jules Marey, un fotografo francese, aveva intanto iniziato a fotografare i filetti aerodinamici, tramite il fumo o nastrini, in una primordiale galleria del vento: riuscì a fotografarli per capire la distribuzione delle forze generate dalla pressione dell’aria sul profilo di un velivolo. Va detto che Marey aveva acquisito fama internazionale con l’esperimento sul cavallo al galoppo, richiesto nel 1879 dall’allora ex-governatore della California, Leland Stanford, per verificare se un cavallo al galoppo stacchi tutte e quattro le zampe da terra. Le 12 macchine utilizzate per fotografare il cavallo diedero esito positivo, dando fama a Marey.
Marey fece pure esperimenti con gli uccelli perché era convinto di poter riprodurre il volo animale studiandone minuziosamente le movenze con l’aiuto della nascente fotografia (i primi dagherrotipi funzionanti sono degli anni ’30).
Nel 1871 Alphonse Penaud esibì il suo modellino di aeroplano, il planophore, in grado di volare per 60 metri con la sola propulsione data da un’elica ad elastico. La dimostrazione data di fronte alla Société Française de Navigation Aérienne convinse moltissimo, ma Penaud morì a soli 30 anni nel 1880, prima di aver portato avanti il proprio progetto come avrebbe voluto. Egli enunciò pure tre dei principali problemi che stavano alla base della navigazione aerea, e che già in qualche modo Sir George Cayley aveva sviscerato: resistenza dell’aria, resistenza della macchina e leggerezza del motore.
Il “giocattolino” di Penaud andò a finire in mano ai fratelli Orville e Wilbur Wright, figli di un pastore protestante che per motivi legati alla propria missione doveva spostarsi sovente, e che donò loro, di ritorno da un viaggio, un esemplare di planophore.

I fratelli Wright sfruttarono i contributi teorici di Lilienthal e i suoi tabulati per dimensionare le proporzioni dell’ala. Inoltre, Wilbur escogitò un sistema di tiranti (metallici e in legno) in grado di modificare le geometrie dell’ala biplana, in modo che la torsione risultante facesse ruotare in senso positivo un’estremità dell’ala, in senso negativo l’altra: così facendo, il mezzo poteva virare a destra o a sinistra.
Così insistettero su questa strada, che terminò, però, con l’esperimento fallimentare dell’anno 1900: il volo dell’aliante costruito dai fratelli si schiantò al suolo. Wilbur si perse d’animo, non riuscendo a trovare il bandolo della matassa, ed era deciso ad abbandonare i progetti, finché un ingegnere ferroviario “prestato” all’aeronautica, un certo Chanute, non li convinse a presentare presso un convegno a Chicago i risultati da loro ottenuti sino a quel momento.
Gratificati dai consensi ottenuti, gli Wright si rimisero al lavoro, iniziando un’analisi più approfondita del problema, che per stessa ammissione di Wilbur Wright poteva essere inquadrato in questi termini:

E’ sembrato tristemente carente nella forza di sostentamento [oggi diremmo portanza] rispetto a quella calcolata per superfici di quella dimensione. Abbiamo supposto che questa mancanza possa essere dovuta a una o più tra le seguenti cause: (1) che la profondità della curvatura delle nostre superfici fosse insufficiente, essendo soltanto nel rapporto di 1/22 anziché di 1/12. (2) che il tessuto usato per le nostre ali non fosse sufficientemente ermetico, e lasciasse passare aria. (3) che le tavole di Lilienthal fossero in qualche modo esse stesse in errore.

Le ipotesi trovarono conferma nell’ultima opzione, in quanto i fratelli provarono sperimentalmente che i parametri indicati da Lilienthal nelle sue tabelle (larghezza, altezza, profondità di curvatura, ecc.) erano errati.
All’epoca i due producevano e riparavano biciclette, così Wilbur ne utilizzò proprio una per condurre un esperimento, ponendo un cerchione, in posizione orizzontale e libero di ruotare, nella parte anteriore della bicicletta. Sul cerchione erano fissate perifericamente due profili: uno rettangolare a costituire la resistenza, e un profilo alare che doveva generare una portanza opposta alla resistenza. Lanciata la bicicletta in discesa, così da lasciare il guidatore libero dal dover pedalare, una volta raggiunta una velocità minima (una trentina di chilometri orari) necessaria per creare un sufficiente effetto portanza, il guidatore della bicicletta, che sino a quel momento aveva mantenuto bloccata la ruota orizzontale posta di fronte a sé, la lasciava libera, permettendone la rotazione. Secondo i calcoli che Otto Lilienthal aveva presentato nelle proprie tavole, per un certo valore di incidenza del profilo alare (ossia per un certo valore angolare di disallineamento del profilo rispetto alla direzione di marcia), la portanza originata da questo doveva essere perfettamente controbilanciata dalla resistenza generata dall’elemento rettangolare e dallo stesso profilo alare.
Successivamente, con una galleria del vento e due bilance di torsione a molla appositamente progettate, gli Wright poterono ulteriormente verificare che le tavole di Lilienthal erano effettivamente sbagliate, ma non per causa dell’imperizia del veleggiatore tedesco; l’errore risiedeva nel valore abbondantemente errato di un coefficiente, detto di Smeaton dal nome dello scienziato (John Smeaton, 1724-1792) che lo formalizzò, utilizzato in fluidodinamica per la determinazione delle forze, così come da Lilienthal nei calcoli per la redazione delle proprie tavole.
Nel dicembre 1903 fece la sua apparizione il “Flyer”. Disponeva di comandi di direzione, pattini per lo scivolamento a terra, motore leggero ed eliche perfezionate; ulteriormente, poneva il pilota in mezzo ai piani alari, non obbligandolo a rimanere “appeso” per comandare gli spostamenti laterali del velivolo, a differenza della maggior parte degli alianti progettati sino a quel periodo.

20 – la hybris dei primi volatori

La tecnologia del volo si è affermata da non più di un secolo, sebbene i tentativi da parte dell’uomo in questo senso datino dalle epoche più remote.
Nella mitologia greca Icaro spiccò il volo con ali costruite con penne di uccello tenute insieme da cera, peccando di hybris, ovvero presunzione nel voler modificare lo stato naturale delle cose (sacro per definizione per gli antichi Greci), e il destino non gli sorrise.
Ruggero Bacone teorizzò una “sfera cava di rame” riempita con aria calda (hollow globe of copper […] filled with aetherial air or liquid fire): intuì la possibilità di rendere l’aria rarefatta, riscaldandola, affinché potesse galleggiare in aria più densa, ma le sue idee non furono prese in considerazione.
Nel Medioevo si tentò la via della propulsione per mezzo di razzi ma non si fronteggiarono ancora adeguatamente i tre problemi fondamentali legati al volo con mezzi più pesanti dell’aria: la spinta, la geometria del mezzo idonea alla partenza e il controllo in fase di volo.
Anche in questo campo Leonardo è l’icona dell’approccio riduzionista, per la sua propensione a scomporre in minuziose funzioni la tecnica del volo per imitare il movimento naturale degli uccelli; l’idea dell’ala battente si manterrà viva anche in tempi successivi, ma di fatto, un secolo e mezzo dopo, Giovanni Alfonso Borrelli, nel De motu animalium (1680), e Robert Hooke dimostrarono che il tentativo di imitare la natura nel volo era vano: si resero conto che la costituzione della muscolatura umana è inadatta al volo e il peso dell’apparato scheletrico è eccessivo (i volatili hanno le ossa cave, quindi molto leggere). L’ultimo barlume di speranza lo accese Lilienthal, che con i suoi alianti non solo tentò il volo umano, ma diede aiuto notevole agli stessi fratelli Wright.
Nel novembre 1783, i fratelli Montgolfier, industriali della carta, si librarono nel cielo con un pallone aerostatico, che da loro prese il nome. Il globo era fatto di carta sottile alternata a seta, tessuto di elevata resistenza a trazione, usato anche per giubbotti antiproiettile e armature (xiii-xiv secolo in Corea); la mongolfiera arrivò fino a mille metri di altezza. L’obiettivo di questo celeberrimo evento era quello di spettacolarizzare la scena, adibita per stupire lo spettatore.
Nel dicembre dello stesso anno, Jacques-Alexandre-César Charles, al quale si deve la legge omonima dei gas, ascese fino a 550 metri con la sua “charlière”. Questo nuovo pallone era composto da un materiale innovativo: veniva impregnata la seta imbevuta in una soluzione di trementina (un idrocarburo estratto dalle conifere) e lattice del caucciù. Una volta evaporato il solvente si otteneva una superficie impermeabile e dalle caratteristiche di resistenza alla trazione ancora incrementate.
Come in molti altri casi, allo stato prematuro una tecnologia assuma la stessa matrice (in questo caso il pallone), per poi dipanarsi in diverse ramificazioni atte farla evolvere (la diversificazione dei materiali).
Dalla fine del xviii secolo si iniziarono ad approfondire gli studi sulla fluidodinamica: fino ad allora, Torricelli, Newton, Pitot, Bernoulli ne avevano stabilito i fondamenti; Eulero si occupava solo del fluido in moto in un condotto fisso. Va menzionato il tubo di Pitot, strumento per misurare la velocità dell’acqua, che sarà il fulcro di studi successivi: era congeniato per quantificare il fluido che penetrava all’interno di un tubo muovendosi con moto laminare e velocità prefissata; il flusso è parallelo all’imboccatura di uno dei due tubi dello strumento, e il fluido non vi entra; il flusso è invece perpendicolare a quella dell’altro; il fluido riempirà il tubo di un dislivello che, confrontato con quello “a riposo” potrà fornire un’idea della velocità del flusso.
George Cayley nella sua opera On aerial navigation (1809) definì per la prima volta i cardini dell’aerodinamica, ossia “portanza” e “resistenza” di un corpo in moto relativo con il fluido dentro il quale è immerso. Da notare il termine navigation, con il quale si fa diretto riferimento al moto mezzo-fluido più semplice e conosciuto fino ad allora: la nave sull’acqua.
Nel xix secolo si cercò di perseguire la strada del pallone aerostatico con l’ausilio di svariate tipologie di propulsori: dal dirigibile governato da braccia umane, a quello spinto da un motore a vapore (1852, Giffard), poi a gas (1872, Haenlein), ed infine elettrico (1884, Renard e Krebs). Il solito problema che sussisteva ancora era quello della spinta: il mezzo non doveva sempre essere un “razzo-vettore”, ma si doveva anche sostenere in modo autonomo.

19 – l’ingegnere a scuola

Parallelamente a Francia e Inghilterra, anche in altri paesi si svilupparono scuole tecniche specializzate in settori considerati strategici dal governo centrale. Nacquero in questo periodo:
– la scuola di Applicazione di Artiglieria e Genio nel Regno di Sardegna (1739); in essa, tra gli, altri insegnò il matematico Joseph Louis Lagrange;
– la scuola di Ingegneria e Artiglieria a Berlino (1816);
– l’esempio di Berlino fu seguito dalla Svezia solo due anni dopo: nel 1818 fu istituita una scuola di ingegneria;
– scuola tecnica mineraria in Belgio (1836);
– medesimo indirizzo in Inghilterra (1851).

Questo fatto evidenzia come la nascita di scuole tecniche sia sempre legata strettamente a un redditizio sfruttamento delle risorse. Analogamente la nascita di scuole minerarie avveniva per ottimizzare la produzione; così, se da un lato si insegnavano i metodi per spurgare le miniere dall’acqua, dall’altro si insegnavano le cosiddette tecniche di “coltivazione” della miniera stessa. Una delle tecniche insegnate era, ad esempio, il “metodo delle ripiene”, per costruire una galleria di scavo senza dover trasportare quantità eccessive di residui, procedendo per successivi riempimenti.

Nel giro di 60-70 anni tutti gli Stati europei si dotarono di Scuole tecniche. Sino alla metà del xix secolo i corsi erano tipicamente triennali, e le materie studiate erano, tra le altre:
• meccanica;
• filosofia;
• progettazione di macchine;
• fortificazioni;
• architettura;
• chimica (laboratori);
• geometria;
• idraulica e tecniche minerarie (con visite).

La chimica ottocentesca è ancora una materia molto qualitativa dal momento che si hanno solo un numero ristretto di nozioni riguardo gli elementi; per questo motivo il lato pratico della chimica risulta ancora preponderante rispetto a quello teorico, almeno fino alle metà del xix secolo.
Inoltre anche l’osservazione dello stato dell’arte per quanto riguarda macchine e lavorazioni era ritenuto fondamentale per lo stimolo alla comprensione e allo sviluppo di nuove soluzioni. Le scuole si dotavano così di collezioni di oggetti, dei quali si poteva seguire un certo legame evolutivo, o parti isolate, la cui rappresentazione fisica permetteva da un lato la comprensione piena del funzionamento; dall’altro, si voleva che questi oggetti fossero stimolo per il tracciamento e l’immaginazione delle possibili evoluzioni.
Anche i docenti prevedevano ibridazioni non scontate: nel caso del Corps des ponts et Chaussées, scuola tecnica di di ingegneria civile nata intorno al 1748, il corpo docente era talvolta formato da allievi di anni successivi o ufficiali del corpo. La didattica prevedeva insegnamenti scientifici generali, meccanica idraulica, sezioni coniche, misurazioni topografiche e infine istruzione su progetti pratici.
Nel 1794 fu fondata l’Ecole Politechnique, una scuola a inquadramento militare che costituiva una base preparatoria all’ammissione a scuole di specializzazione come ad esempio l’Ecole de l’Artillerie e du Genie Militaire o l’Ecole des ponts et Chaussées. Questa scuola dipendeva direttamente dal ministero della guerra e divenne un modello da seguire per tutti i paesi come ad esempio la Russia (risale al 1805 la formazione di un Corpo degli Ingegneri di Ponti e Strade), e la Spagna, dove a Madrid fu istituito il Gabinete de Maquinas.

In Italia era presente già dalla seconda metà del xvi secolo il Collegio degli Architetti di Milano; in un secondo tempo Giuseppe Piermarini fondò nel 1773 presso l’Accademia di Brera una scuola di architettura.
A Torino nasceranno le prime scuole tecniche professionali che porteranno poi alla formazione del Regio Istituto Tecnico nel 1852. Il promotore di questo tipo di istruzione più che altro utile alla formazione di tecnici di livello intermedio fu Carlo Ignazio Giulio, docente di matematica presso l’Università del capoluogo sabaudo: costui istituì nel 1845 delle “scuole di meccanica, chimica applicata alle arti, chimica agraria, agraria e forestale, “condite” da corsi di geometria applicata alle arti (si badi al significato del termine “arti”, che sino a tutto il xix secolo significò “attività produttive”) geometria descrittiva e disegno geometrico.
A seguito della promulgazione della Legge Casati, datata 1859 (due anni prima dell’Unità d’Italia), e poco dopo estesa a tutto lo stato italiano, furono istituiti a Torino e la scuola di Applicazione per Ingegneri (1859) e il Regio Museo Industriale (1862); quest’ultimo, soprattutto grazie alla spinta del fondatore, il commendator Giuseppe Devincenzi, si richiamava in modo esplicito al Conservatoire des Art et Métiers.
Il Regio Museo Industriale era anche autorizzato a rilasciare brevetti e certificati a tutte quelle invenzioni che erano ritenute utili e innovative. La scuola, invece, prende sede al palazzo del Valentino e viene scelto a svolgere il compito di direttore il professore di meccanica e idraulica applicata Prospero Richelmy. Infine l’8 luglio del 1906 viene fondato il Regio Politecnico di Torino che sorgeva dalla fusione delle due precedenti istituzioni.