TUTTOSCIENZE 30 ottobre 96


PRIMA DELLA PRIMA ACUSTICA I criteri per giudicare la musicalità del Regio di Torino «restaurato»
Autore: RIGHINI GIUSEPPE

ARGOMENTI: ACUSTICA, MUSICA, TECNOLOGIA, ARCHITETTURA, TEATRO
ORGANIZZAZIONI: TEATRO REGIO
LUOGHI: ITALIA, EUROPA, ITALIA, TORINO (TO)
TABELLE: D. Giochi dispecchi con le note

DURANTE la stagione lirica che sta per iniziare gli spettatori potranno valutare l'esito del «restauro acustico» eseguito al Teatro Regio di Torino. Inevitabilmente ci saranno discussioni, confronti, magari polemiche. Ma quali sono i criteri per realizzare sale con una buona acustica? E con quali criteri si può giudicare il risultato finale? Quando entriamo in un teatro o in una sala da concerto lo sguardo scorre subito sulle pareti, sul soffitto, sulla platea, sulle poltrone e si sofferma sul palcoscenico, cercando di valutarne la distanza e la linea di vista dal posto che ci accingiamo ad occupare. Grazie a questa carrellata siamo in grado di valutare il comfort ambientale e quello visivo e di predisporre il livello di attenzione dei nostri sensi (vista e udito) necessario al godimento dello spettacolo. Analogamente, quando nella sala aleggia ancora il brusio del pubblico in attesa dell'attacco della prima nota, a sipario abbassato, l'esperto di acustica può già farsi una prima opinione della «musicalità» della sala. In effetti tutto ciò che abbiamo abbracciato con lo sguardo - pareti, soffitto, poltrone, boccascena - ha anche una specifica valenza in termini di «risposta sonora» della sala, che può essere individuata in base ai canoni della progettazione acustica dei teatri e delle sale per musica. Il concetto di «risposta sonora» di un ambiente può essere compreso ricorrendo al modello di propagazione del suono mediante raggi sonori, cui si attribuisce un comportamento simile a quello dei raggi luminosi. Alcuni dei raggi emessi dalla sorgente, considerata puntiforme, raggiungeranno direttamente l'ascoltatore, altri dopo essere stati riflessi da una delle superfici che confinano con lo spazio occupato dalla sorgente e dall'ascoltatore, altri dopo aver subito due riflessioni tra coppie di superfici, altri ancora dopo più riflessioni. L'intensità dei raggi riflessi dipende dalla regolarità delle superfici riflettenti e dal loro potere assorbente. Nel nostro caso bisogna tener conto della velocità del suono, un milione di volte più piccola di quella della luce, per cui i raggi riflessi arrivano all'ascoltatore con un certo ritardo, rispetto al raggio diretto, proporzionale al tragitto percorso. L'andamento dell'energia sonora nel tempo, determinato dal susseguirsi dei contributi energetici dei raggi riflessi nel punto di ascolto, costituisce la risposta acustica della sala, che non è univoca ma dipende dalla relativa posizione della sorgente e del punto di ascolto. Le riflessioni giocano un ruolo diverso per l'ascoltatore e per l'esecutore. Sull'area occupata dal pubblico è importante che le riflessioni più energiche giungano, frontalmente e lateralmente, entro 10 centesimi di secondo dall'arrivo del suono diretto: esse contribuiscono infatti a rinforzare il suono; a dare la sensazione di un più intimo rapporto con gli esecutori, neutralizzando l'effetto della distanza che separa l'ascoltatore da essi; inoltre conferiscono alla sorgente sonora una spazialità maggiore di quella sottesa dall'angolo di vista. Se il soffitto è troppo alto o le pareti laterali troppo distanti, il numero di queste riflessioni si riduce: tenendo conto che il suono percorre 3,5 metri in un centesimo di secondo, si può vedere che allora solo le superfici vicine agli esecutori, cioè il boccascena e la parte antistante del soffitto e delle pareti laterali, sono in grado di produrre riflessioni così precoci. La scelta di una appropriata geometria e di appropriati materiali - devono essere molto rigidi - per queste superfici ha una importanza fondamentale per il conseguimento di una buona risposta acustica ambientale. I raggi riflessi che giungono negli istanti successivi, con qualche decimo di secondo di ritardo, hanno subito in genere più di una riflessione e se hanno energia appropriata, minore di quelli più precoci, contribuiscono favorevolmente alla risposta sonora procurando amalgama e sostegno ai suoni dei vari strumenti. A ridurre naturalmente l'energia di queste riflessioni provvede l'effetto fonoassorbente del pubblico, eventualmente corroborato dall'aggiunta di materiali appositi, come moquette, velluto, intonaco acustico. Quando il ritardo supera il mezzo secondo, il raggio sonoro ha subito ormai numerose riflessioni perdendo ad ogni impatto parte della sua energia iniziale e della identità della sorgente. Il magma di queste riflessioni produce l'effetto di riverberazione che induce il senso di spaziosità dell'ambiente e che conferisce calore al suono aggiungendogli una coda sonora. Per una buona prestazione gli esecutori hanno una esigenza fondamentale: sentire se stessi e sentirsi l'un l'altro. Ciò vale sia per i professori d'orchestra nella fossa sia per i cantanti sul palco. La qualità dell'ascolto da parte del professore d'orchestra è del tutto diversa da quella dello spettatore: egli sente soprattutto il suono del proprio strumento, che sovrasta, ma talvolta ne è sovrastato, quello degli altri esecutori; nel suo posto di lavoro la dinamica sonora risulta aspra, con istantanee variazioni di livello anche tra valori estremi, e la percezione del timbro dei vari strumenti falsata per l'effetto del mascheramento reciproco. Ogni esecutore conosce bene il proprio mestiere e le possibilità del proprio strumento e per la propria esecuzione non ha bisogno di un ascolto molto fedele. Però ha bisogno di poter comunicare con gli altri esecutori, nella fossa e sul palcoscenico, e di avere un riscontro dell'assieme. Ciò è reso possibile dalle riflessioni prodotte dal boccascena e dagli specchi acustici disposti a lato e sopra la fossa. Sono riflessioni discrete in numero ma molto energiche che pervengono ai musicisti con pochi centesimi di ritardo. Per quanto riguarda il cantante sul palcoscenico, bisogna aggiungere che, a differenza degli orchestrali, riceve un ritorno del suono della propria voce dalla sala e ciò lo porta automaticamente a regolare l'apparato fonatorio in base alla impressione ricevuta. Questa flessibilità gli consente di sopperire ai difetti dell'acustica, ma talvolta a prezzo di grandi sforzi. L'obiettivo della progettazione acustica è quello di realizzare le migliori condizioni per un buon ascolto da parte degli spettatori e per la migliore prestazione da parte di tutti gli esecutori. Per raggiungere questo scopo si interviene anzitutto sulla forma della sala e quindi sul suo allestimento, gestendo in modo opportuno la scelta dei materiali delle pareti, del soffitto, del pavimento (comprese le poltrone) ed eventualmente sugli elementi di decoro e sugli accessori tecnologici. Proprio ciò che il nostro sguardo ha potuto cogliere entrando nella sala. Giuseppe Righini Istituto Elettrotecnico Nazionale «Galileo Ferraris», Torino


AL CENTRO RICERCHE MUSICALI DI ROMA Rumori o musica, tutto è virtuale Come si simula qualsiasi suono in qualsiasi ambiente
Autore: ROTA ORNELLA

ARGOMENTI: MUSICA, ACUSTICA, TECNOLOGIA, RICERCA SCIENTIFICA
NOMI: LUPONE MICHELANGELO
ORGANIZZAZIONI: CRM CENTRO RICERCHE MUSICALI, CENTRO RICERCHE FIAT, JAPAN FOUNDATION, KRONOS QUARTET
LUOGHI: ITALIA, EUROPA, ITALIA, ROMA

PARLI in un microfono e senti la voce cambiare a seconda dell'immagine che si delinea sullo schermo di un computer. Com'è quando esce da uno spazio equivalente a una collina di 400 metri per 400? E da uno spazio che abbia le dimensioni di un granello di sabbia di 1,02 millimetri? «Analogamente alla simulazione dell'ambiente spaziale, noi ricostruiamo e presentiamo ai sensi qualcosa che non esiste», spiega Michelangelo Lupone, direttore artistico del Centro Ricerche Musicali (Crm). C'è un computer speciale, Fly 30, guidato da un normale personal, e collegato a un mixer, ad alcuni amplificatori e altoparlanti, e a un microfono: regolando dei cursori si possono variare praticamente all'infinito (dipende soltanto dalla potenza del sistema) le dimensioni delle figure che compaiono sullo schermo del primo elaboratore; le modificazioni sonore conseguono. Lo stesso per scegliere il punto da cui il rumore dovrà scaturire: un angolo in fondo, o al centro, oppure il soffitto... Oltre a stabilire con precisione assoluta le variazioni di suoni e rumori a seconda delle dimensioni e del materiale dei vari contenitori, questi studi permettono di individuare in modo altrettanto sicuro le differenze dovute ai punti dai quali suoni e rumori fuoriescono e di conseguenza si espandono nell'ambiente. Si cominciò con l'analisi di strumenti musicali: organi a canne, flauti, clarinetti. «Dopo aver sezionato ad esempio un flauto», spiega Lupone, «abbiamo, con un microfono, rilevato come risuonasse diversamente lungo la canna un impulso elettrico corrispondente allo schiocco di due dita dato a una delle estremità» . Questo studio consentì di approfondire la progettazione delle piccole forme cilindriche e di quelle a tronco di cono, puntualmente registrando le variazioni del timbro del suono dovute ai punti da cui lo si ascoltava, alle dimensioni e ai materiali (acuto in un tubo metallico di grande formato, basso in un altro in plastica, più grave verso la fine della canna che nelle parti interne). Da queste misure furono estratti i parametri essenziali per progettare un «modello fisico», che consiste nella descrizione di un fenomeno reale tramite un procedimento di calcolo. «Ultimo passaggio», prosegue Lupone, che è docente di Composizione musicale elettronica presso il Conservatorio de L'Aquila, «è stata la creazione di un programma per il computer che, sviluppando questi calcoli in modo estremamente veloce, riproducesse non soltanto il modello fisico, ma anche la sua variazione geometrica in tempo reale». Con le dimensioni dell'oggetto occorre indicare all'elaboratore il coefficiente di assorbimento (cioè la differenza tra l'ampiezza dell'onda al momento in cui investe l'oggetto e quella successiva alla riflessione) del materiale su cui si svolgerà la ricerca: in altre parole il tipo di plastica, legno, metallo, vetro o altro in esame. Questi studi sulle nuove sonorità interessano tanto l'arte quanto l'industria. «Oggi», dice Lupone, «possiamo finalmente soddisfare il desiderio della musica di lavorare con strumenti certi. Conoscere gli strumenti in modo fisico, matematico, e non soltanto empirico, ci consente di modificare, soprattutto di generare, nuove sonorità più coerenti all'espressività contemporanea; il clarinetto, ad esempio, è rimasto legato alla tradizione dell'800, l'oboe al 700». Per quanto riguarda i risvolti industriali, su questi studi il Centro Ricerche della Fiat si è assicurato l'esclusiva totale. L'intento è di modificare il suono delle automobili, «nel senso», spiega il musicista, «di renderlo più funzionale, e gradevole, sia nel segnalare eventuali pericoli, sia nell'indicare la qualità dei materiali. Per esempio l'avvicinarsi di un veicolo, lo stato del motore e/o dell'asfalto, la solidità della portiera e così via». Dalle piccole geometrie cilindriche, la ricerca si è via via venuta concentrando sui parallelepipedi, cioè sugli interni. Qui, la risonanza è influenzata dalla forma, dalla qualità dell'intonaco, dall'arredamento, dalla presenza o meno di tutta una serie di oggetti, suppellettili, elementi. «Generalizzando un problema legato al quotidiano», continua Lupone, «si formulano possibili soluzioni per ottenere un'acustica perfetta in luoghi dall'utilizzo più diverso, dalle sale operatorie agli auditorium per concerti, fino agli abitacoli delle automobili». Insignito nel '92 del premio internazionale della Japan Foundation, Lupone è vissuto per qualche tempo in Giappone, impegnato in concerti e conferenze in istituti musicali e università. Qualche anno prima l'Accademia delle Scienze ungherese lo aveva interpellato per la progettazione del Centro di Informatica Musicale di Budapest. Il Kronos Quartet, che nel mondo è l'interprete massimo di musica elettronica e che ogni anno sceglie due compositori in tutto il mondo, lo ha selezionato per il 1997 insieme con un compositore cinese. In Europa i Paesi che più di frequente propongono le sue composizioni sono, oltre all'Italia e all'Ungheria, la Germania, l'Austria, la Francia. Ornella Rota


ASTROFISICA L'uomo che udì il Big Bang «Come scoprii quel radiosegnale cosmico»
AUTORE: GATTEI STEFANO
ARGOMENTI: ASTRONOMIA, FISICA, CONGRESSO
PERSONE: PENZIAS ARNO
NOMI: WILSON ROBERT, HOYLE FRED, PENZIAS ARNO
ORGANIZZAZIONI: AT&T BELL LABS RESEARCH
LUOGHI: ITALIA, EUROPA, ITALIA, MILANO (MI)
TABELLE: D. Il Big Bang

DA alcuni anni si svolge a Milano il convegno «Dieci Nobel per il futuro»: tre giorni durante i quali si confrontano dieci tra i vincitori del premio più prestigioso. Quest'anno la manifestazione è divisa in più appuntamenti, il secondo dei quali ha visto fra i protagonisti Arno Penzias: occasione preziosa per raccogliere una testimonianza in prima persona sulla scoperta della radiazione fossile del Big Bang a 3 gradi Kelvin. Nato a Monaco di Baviera nel 1933, laureato in fisica alla Columbia University, nel 1961 Penzias entra ai Bell Laboratories (di proprietà dell'American Telephone and Telegraph, la AT&T), per fare ricerca nel campo delle telecomunicazioni radio con esperimenti pionieristici sui satelliti Echo e Telstar. Appena assunto gli viene affidato l'incarico di rilevare le onde radio provenienti dalla Via Lattea. A sua disposizione è un'antenna a cono per comunicazioni satellitari. Penzias progetta la strumentazione necessaria per trasformare l'antenna in un radiotelescopio eccezionalmente sensibile. Il lavoro è lungo e difficile e nel 1963 arriva a dargli una mano un altro laureato in fisica: Robert Wilson. I due prendono in considerazione una lunghezza d'onda molto corta per questo tipo di esperimenti: 7 centimetri. Il 20 maggio 1964, durante le prove generali di taratura, le lancette degli strumenti rilevano un segnale inatteso. Nei mesi successivi i due fisici analizzano, per poi scartarle, tutte le possibili fonti di disturbo, dalle emittenti di New York alle bombe atomiche fatte esplodere dal Pentagono nell'atmosfera: quel segnale non poteva essere spiegato con nessuna sorgente di onde radio conosciuta. Doveva provenire dall'esterno della Via Lattea. Penzias e Wilson non conoscono i lavori teorici di quegli anni. Solo Wilson si era specializzato in radioastronomia e aveva seguito alcuni corsi di cosmologia con Fred Hoyle (uno dei teorici, con Hermann Bondi e Thomas Gold, del modello cosmologico dell'universo stazionario). Un amico fa avere a Penzias un pre-print di un articolo di Peebles per l'«Astrophysical Journal» (mai pubblicato): è così che viene a conoscenza della possibilità di controllare sperimentalmente il Big Bang. In un secondo tempo i due ricercatori si mettono in contatto con alcuni studiosi riuniti a Princeton per un congresso sulle tracce «fossili» dell'origine dell'universo, raccontando loro di quei 3 kelvin che l'antenna rivela ancor prima di essere puntata verso una qualsiasi fonte di onde radiostellari. Il resto è storia: quel segnale inatteso è «l'ultimo bagliore rimasto della nascita incandescente dell'universo». Penzias, diversamente da Wilson (che pochi anni dopo lascia i Bell Laboratories per fare il radioastronomo alla Smithsonian di Harvard) non è mai diventato un cosmologo, ma ha continuato a lavorare in questo ambito. Per primo, con un suo gruppo, è riuscito a «vedere» lo spettro di rotazione delle molecole più semplici. Ha identificato alcune nuove sostanze chimiche, ed è poi passato allo studio degli isotopi (in particolare il deuterio) e del loro miscelarsi. In questo modo ha posto le basi per la comprensione dell'origine degli elementi nel sistema solare e nella galassia. Negli Anni 70, fino ai primi Anni 80, Penzias ha continuato i suoi studi sulle molecole interstellari. «Quando si fa una scoperta come la mia all'inizio della carriera - ci dice - vi si rimane legati per sempre, e si continua a fare lo stesso tipo di esperimenti. Io non volevo fare la stessa cosa per tutta la vita». Dopo il premio Nobel, nel 1978, Penzias fa una rapida carriera e diventa responsabile del settore ricerca della Divisione scienze della comunicazione, laser, fibre ottiche, radio, computer, Internet. Ma l'AT&T viene smembrata, e negli Anni 80 Penzias, diventato vicepresidente, fa di tutto per proteggere il livello qualitativo della ricerca a fronte di un drastico taglio degli investimenti. La cosa diventa impossibile alla fine del decennio, e i Bell Laboratories rinascono come Lucent Technologies. Penzias svolge varie funzioni direttive nell'AT&T Bell Labs Research, un'organizzazione che, sotto la sua guida, ha saputo trasformarsi e adattarsi ai bisogni del mercato globale, conservando al contempo la sua reputazione di eccellenza scientifica. Con gli anni Penzias ha raccolto un'impressionante collezione di lauree honoris causa e di premi per i suoi contributi alla scienza, alla gestione della ricerca e dello sviluppo della società. E' inoltre uno dei vice presidenti del Committee of Concerned Scientists, un organismo internazionale che opera in vari Paesi a favore della libertà politica degli scienziati. Lo scorso anno decide che si è occupato abbastanza di «politica della ricerca» e si mette in gioco un'altra volta. Lascia un'organizzazione con un bu dget di centinaia di milioni di dollari e con migliaia di scienziati di personale e torna a lavorare da solo, alla Silicon Valley, vicino a San Francisco. Lì collabora con varie industrie dell'hardware e del software. Tornando all'astronomia, sua grande passione, Penzias sfiora alcuni temi d'attualità «la cosiddetta "materia mancante" in realtà non e" 'mancante", ma "assente"». Il termine «mancante» presuppone che gli scienziati non abbiano ancora scoperto qualcosa che sicuramente esiste. Ma le cose non stanno così: le misurazioni fatte indicano che l'universo è aperto, ma sono ancora molti a preferire un universo chiuso - e a questo proposito la determinazione della costante di Hubble non risulterebbe decisiva. I fisici insistono però col dire che è chiuso: «E' davvero uno scontro fra due culture diverse: i fisici partono con un modello, mentre gli astronomi possono solo fare delle osservazioni. Non fanno (e non possono fare), al contrario dei primi, esperimenti come gli altri scienziati. E in questo si differenziano da loro. Ma c'è anche un altro aspetto importante: gli astronomi non si curano dei risultati delle loro osservazioni». Certo, il Big Bang ha incontrato delle difficoltà. E il modello rivale, quello dello stato stazionario, che proprio la scoperta di Penzias e di Wilson sembrava aver definitivamente messo da parte, negli ultimi anni è tornato di attualità. Ma il problema, secondo Penzias, è valutare l'entità del rallentamento. «Non dovremmo scartare la possibilità che le galassie non abbiano rallentato, anche se questo comporterebbe un universo piatto, senza curvatura». Anche sull'inflazione Penzias ha qualche dubbio: «Si tratta di un concetto ingegnoso, ma aggira il problema». Un'ipotesi ausiliaria, insomma, con gravi difficoltà: «Per non parlare dei problemi legati alle conseguenti turbolenze per la creazione delle galassie». Il problema è sempre lo stesso: la forza dei pregiudizi nella mente degli scienziati: «Alcuni hanno una vera e propria fede in certe cose, credono che per forza la teoria generale della relatività debba valere, e che tutto debba essere compatibile con essa. E tutto questo solo perché Einstein è stato forse il più grande scienziato del secolo. Ma che cosa significa? Anche Einstein potrebbe essersi sbagliato - e del resto spesso gli scienziati commettono errori». Dovremmo insomma guardare alla relatività per quello che è: un'ipotesi, bellissima, ma soltanto un'ipotesi. «Tutto quello che posso dire è che c'è una fondamentale unità della natura, e il nostro senso estetico ha l'incredibile capacità di guidarci a ottimi risultati. Ma per questi discorsi i filosofi sono meglio equipaggiati dei fisici». Stefano Gattei


METEOROLOGIA L'alluvione di Firenze: 30 anni inutili
AUTORE: MERCALLI LUCA
ARGOMENTI: METEOROLOGIA, ALLUVIONI, GEOGRAFIA E GEOFISICA
NOMI: NENCINI FRANCO
ORGANIZZAZIONI: OSSERVATORIO XIMENIANO
LUOGHI: ITALIA, EUROPA, ITALIA, FIRENZE (FI)

HA una copertina in bianco e nero, livida come una mattina di pioggia. A sfogliarlo trent'anni dopo trasmette intatte le tragedie di un'alluvione passata alla storia. Tragedie che tuttora non mancano di riproporsi, immutate, ora sul Tanaro, ora sulle fiumare della Calabria. E' intitolato «Firenze, i giorni del diluvio», fu pubblicato il 30 novembre 1966, meno di un mese dopo la catastrofe. L'autore, Franco Nencini, giornalista de «La Nazione», vi concentrò in 100 pagine cronache, foto, domande e risposte nate sotto 600 mila tonnellate di fango. La mattina di venerdì 4 novembre 1966, le Forze armate di stanza a Firenze non si esibirono nella tradizionale parata: furono chiamate a dare ben altra dimostrazione. Alle 4 del mattino l'onda di piena dell'Arno, stimata in oltre 4000 metri cubi d'acqua al secondo, entrò in città. Le prime falle si aprirono sul Lungarno Acciaioli, mentre il fiume sfiorava le botteghe degli orafi sul Ponte Vecchio. Luce, acqua, gas saltavano ovunque. Quindicimila automobili erano in balia di una corrente limacciosa che si precipitava per le vie a 60 km/ora, insieme a seggiole, canterani, porte. Il funerale di Firenze si celebrò al suono dei clacson azionati dall'acqua sui contatti elettrici. Alle 9,45 la fiumana irrompeva in piazza Duomo. La linea nera della nafta galleggiante, uscita dalle cisterne, si insinuava ovunque, macchiando i marmi dei monumenti, distruggendo opere d'arte e suppellettili della vita quotidiana. Un milione e 300 mila volumi e manoscritti custoditi nella Biblioteca Nazionale, finirono fra i gorghi. A Santa Croce le acque dell'Arno si appropriarono di quello che fu poi simbolo del disastro di Firenze: il Crocifisso di Cimabue, alla cui base, per due giorni, i frati e i tecnici del restauro setacciarono il fango alla ricerca delle minuscole scaglie di pittura staccatesi dal legno. Furono 1400 le opere d'arte danneggiate, una decina le vittime, 5000 famiglie senzatetto, 6000 botteghe distrutte su 10.000, 500 industrie danneggiate... Le acque raggiunsero un'altezza massima di 4,95 metri in via delle Casine angolo via Ghibellina e, quando al mattino di sabato 5 novembre si ritirarono, lasciarono la città in una ripugnante melassa putrida e oleosa. L'Osservatorio Ximeniano di Firenze misurò 190 mm di pioggia in meno di 24 ore, dalle 13,40 del 3 alle 13 del 4 novembre. Fu un valore eccezionale, se con eccezionale si vuole considerare un tempo di ritorno di 150 anni per una città che esiste da millenni. La pioggia investì tutto il bacino dell'Arno e dintorni: 197 mm a Rifredo Mugello, 241 a Volterra, 235 a Siena, 307 a Grosseto. Ne fu causa la solita configurazione meteorologica che già ha fatto parlare di sè in occasione della recente alluvione del 1994 in Piemonte: una profonda depressione sul Tirreno, un violento afflusso di aria calda e umida proveniente dal Nord Africa, un anticiclone bloccante sui Balcani. Le montagne, che in Italia non mancano, fecero il resto, accentuando le precipitazioni: il massimo rilevato durante l'episodio del 1966 fu registrato a Barcis, sulle Alpi Carniche, con 700 mm in meno di due giorni. La macchina della Protezione civile funzionò ben peggio di oggi. Ma le polemiche che investirono i servizi tecnici dello Stato, i miliardi spesi male, le responsabilità dell'uno e dell'altro ente, l'apertura delle piccole dighe di Levane e di La Penna, furono, ahimè, del tutto simili a quelle che ci siamo ormai abituati a sentire in occasione di tutte le successive alluvioni. Le conclusioni di Nencini furono che Firenze non si poteva difendere ma si poteva avvertire. Alle 20 di giovedì sera. Chi aveva poco lo avrebbe portato in salvo. Chi aveva molto avrebbe salvato il meglio. Tutto il resto sarebbe ugualmente accaduto. E prosegue: «In 7 e passa secoli, comuni, signorie, granducati, autorità non sono riusciti ad arginare la maledizione di questo fiume infelice che ha sempre rotto gli argini negli stessi punti, per le stesse cause naturali non opportunamente corrette dall'intervento dell'uomo, negli stessi maledetti giorni di novembre perfino, fra il 3 e il 4 nelle tre maggiori alluvioni (1333, 1844, 1966)». Luca Mercalli Direttore di «Nimbus»


INFORMATICA Addio al padre dei supercomputer Cray creò macchine da milioni di dollari
AUTORE: SCAPOLLA TERENZIO
ARGOMENTI: INFORMATICA, ELETTRONICA, STORIA DELLA SCIENZA, MORTE
PERSONE: CRAY SEYMOUR
NOMI: CRAY SEYMOUR
LUOGHI: ESTERO, AMERICA, USA, COLORADO

CRAY-1, Cray-XMP, Cray- J90, Cray-T3D: sono sigle ben note non soltanto agli informatici di professione ma anche al pubblico più popolare e designano le linee dei calcolatori più potenti mai prodotti. Oggi in tutto il mondo Cray è sinonimo di supercomputer e mai equivalenza fu più appropriata, visto che l'idea stessa di macchina per il supercalcolo si sovrappone al nome di chi ha perseguito per tutta la vita l'obiettivo che si era prefissato. Nel mondo non mancano i ricercatori con ottime idee. Un numero molto più piccolo possiede idee eccezionali. Pochissimi sono in grado di dedicare la stessa intelligenza creativa all'ideazione, prima, e alla trasformazione delle proprie idee, dopo, in macchine funzionanti. Seymour Cray si inserisce a pieno titolo nel gruppo di personaggi, come Edison, Bell, Marconi, capaci di coniugare invenzione e impresa per produrre oggetti che lasciano il segno. Era riservato e autorevole, capace di persuadere ma anche di ascoltare. Aveva una fede assoluta nei suoi prodotti. Era famoso ma rifiutava di essere celebrato. Era, perché Seymour Cray si è spento il 5 ottobre scorso in un ospedale del Colorado, per le conseguenze di un incidente automobilistico. Aveva 70 anni, ma non era certo anziano: in agosto aveva fondato una nuova società e stava progettando una sorta di ultracomputer. Dopo aver ottenuto, nel 1950, un master in matematica applicata, Cray si impiega alla Remington e a metà degli Anni 50 progetta la Control Data 1604, la macchina più veloce dell'epoca. Nel 1957 fonda la Control Data e sviluppa i modelli 6600 e 7600, inutile dirlo, i modelli più veloci esistenti. Nel 1972 avvia la Cray Research e quattro anni dopo annuncia la prima macchina capace di oltre 100 milioni di operazioni al secondo: è il primo vero supercomputer, si chiama Cray-1 e viene installato ai laboratori di Los Alamos. L'ideatore, il progettista, il costruttore è Seymour Cray. Sbaglia chi si attende una macchina radicalmente diversa da quelle esistenti: l'unica vera innovazione, la sola brevettata, consiste nel sistema di raffreddamento, ottenuto con la circolazione di acqua all'interno di piastre di rame in grado di trasferire il calore prodotto dai circuiti. Il resto si poteva acquistare in un comune negozio di elettronica. Sarà proprio l'evoluzione nelle tecnologie di raffreddamento a consentire, insieme all'adozione di tecniche di elaborazione di tipo vettoriale e con l'impiego di più processori, una crescita rapidissima delle prestazioni. Le macchine, pur avendo costi dell'ordine di più miliardi di lire, si rivelano un successo anche commerciale. Dalla sola macchina venduta nel 1976 si passa a 50 nel 1982, a 250 nel 1989, anno in cui Cray, cui non fa certo difetto lo spirito imprenditoriale, lascia la compagnia e fonda la Cray Computer. Il progetto a cui lavora incontra difficoltà anche perché le compagnie concorrenti, americane e giapponesi, si impadroniscono della tecnologia necessaria. La società chiude nel 1995. C'era già una nuova idea da realizzare ma Seymour Cray non potrà più occuparsene. Tra pochi anni, forse mesi, sarà abbattuta la barriera dei teraflops, mille miliardi di operazioni in virgola mobile (floating point operations). Cray non ci sarà, ma le grandi idee sopravvivono agli uomini che le hanno prodotte. Sua, in tempi ormai lontani, è stata la convinzione ferma e ostinata che il supercalcolo fosse non già un capriccio ma uno strumento in grado di aprire nuove frontiere. Proprio le sfere più avanzate della scienza, dell'ingegneria e delle applicazioni industriali hanno colto l'importanza del supercalcolo, divenuto patrimonio ormai irrinunciabile. Terenzio Scapolla Università di Pavia


CONVEGNO IN VENETO Dilettanti di astronomia alla riscossa Ormai fanno ricerche (e scoperte) a livello professionale
Autore: PRESTINENZA LUIGI

ARGOMENTI: ASTRONOMIA, CONGRESSO
NOMI: VANIN GABRIELE
ORGANIZZAZIONI: UAI
LUOGHI: ITALIA, EUROPA, ITALIA, CITTADELLA (PD)

GLI astrofili italiani, cioè gli appassionati di astronomia, hanno tenuto il loro congresso annuale a Cittadella, nel Padovano. Un convegno senza clamori e senza inviati speciali - come avviene, invece, per gli astrologi e gli ufologi, banditori di pronostici e di fiabe che «si vendono bene». Ma un convegno utile e produttivo, non foss'altro che per lo scambio di esperienze che si realizza fra i vari gruppi e i ricercatori che si occupano di argomenti comuni: e oggi se ne occupano non soltanto con la passione di chi abbraccia quest'hobby ma anche, in vari casi, con mezzi d'indagine tali da offrire risultati interessanti e talvolta confrontabili con ciò che ottengono i professionisti. Gli astronomi che lavorano nei 12 Osservatori statali e negli Istituti di alcune Università non sono molti e non possono dedicarsi a tutte le ricerche, a parte le difficoltà e i vincoli creati loro dal crescente inquinamento luminoso, una piaga di cui - al solito - il nostro Paese si sta accorgendo in ritardo. I più operano in lontane stazioni del Cile, degli Usa, delle Canarie (dove è stato inaugurato da qualche mese il telescopio «Galileo»), che offrono condizioni privilegiate di osservazione; e i loro Istituti di massima non hanno molto tempo e personale da dedicare alla divulgazione di cui, fra il pubblico medio, v'è crescente richiesta. Tutto ciò lascia ampi spazi all'azione degli astrofili, che non solo scoprono pianetini, comete, esplosioni di supernove in lontane galassie, ma armati dei loro Ccd (intensificatori d'immagine che hanno molto esteso le possibilità della fotografia celeste) ottengono coi loro modesti telescopi risultati paragonabili a quelli degli strumenti professionali, per esempio nel campo della fotografia planetaria. Abbiamo visto e applaudito, a Cittadella, immagini del pianeta Giove ottenute da un ben attrezzato gruppo fiorentino: Leo-Quarra- Sarocchi. E citiamo un esempio solo. Pure a livello didattico e divulgativo esistono molti gruppi di amatori (se ne contano 150 circa, in tutta Italia) che lavorano intensamente e bene, con pochi appoggi locali, offrendo al pubblico mostre, sedute di osservazione in piazza, conferenze, corsi completi, gestione di Planetari (dove ci sono); e alle scuole interventi ben mirati e di solito sollecitati e graditi. Tutto ciò, peraltro, viene da iniziative locali, piuttosto che dall'Unione nazionale (Uai), che raggruppa attualmente poco più di 900 soci: pochi, rispetto alla realtà molto più consistente degli astronomi non professionisti, sicuramente parecchie migliaia, a cui si indirizzano ben quattro pubblicazioni divulgative, compresa quella della stessa Uai, che si chiama «Astronomia» e viene spedita gratuitamente ai soci. Pubblicazioni di solito ben fatte e, le tre che vanno in edicola, apprezzate da varie migliaia di lettori. I gruppi di astrofili più numerosi restano quelli del Nord, Lombardia e Veneto soprattutto, ma si vanno diffondendo ovunque, in Sicilia ce n'è una dozzina. Perché, in tanto fervore d'attività, l'Uai non cresce? Per il particolarismo dei vari gruppi, ma anche perché sinora è stata scarsamente pubblicizzata dai mass media. Gabriele Vanin, nuovo presidente feltrino, ha promesso di muoversi più efficacemente in tal senso, promuovendo iniziative nazionali e offrendo collaborazione al ministero della Pubblica Istruzione. Questa modesta apertura, peraltro, trova diffidenti e reticenti alcuni soci delle sezioni di ricerca, che evidentemente vedono l'Uai come un circolo chiuso, una pianticella («un bonsai», si è detto) da tenere al riparo da ogni spiffero. Un punto di vista non soltanto sbagliato ma inspiegabile. Luigi Prestinenza


L'INSETTO PIU' «DOMESTICO» Noiosa e pericolosa Ogni mosca porta milioni di batteri
Autore: BOZZI MARIA LUISA

ARGOMENTI: ZOOLOGIA
LUOGHI: ITALIA

UNA volta tanto lasciamo da parte gli animali esotici e parliamo invece della comunissima mosca. Invadente, noiosa, perfino pericolosa, esteticamente poco attraente: che cosa avrà mai di interessante? Ebbene, i curiosi delle mosche non sono solo scienziati, come dimostra un lettore di Tuttoscienze con le sue domande. A lui e a tutti quelli che come lui si interrogano sui comportamenti della mosca domestica questo articolo tenta di rispondere. Chissà se il lettore appartiene a quelle generazioni che si difendevano dalla mosche con la carta moschicida appesa al soffitto, quando questi insetti nella tarda primavera incominciavano a invadere le case e, a mano a mano che il caldo cresceva, riempivano a nugoli soprattutto la cucina, posandosi sui cibi, sul tavolo, sulle persone, e non c'era scacciamosche che ti liberasse dal fastidio: per una che eliminavi, altre comparivano al suo posto, come le teste del drago ucciso dal sarto ammazzasette, che di mosche se ne intendeva. Poi venne il Ddt, ma per ogni mosca abbattuta il prezzo fu molto salato sotto forma di inquinamento e di ceppi di mosche Ddt resistenti. Lo sostituirono nuove generazioni di insetticidi e altrettante forme resistenti, finché si ricorse alla strategia di fare «terra bruciata». Che nel caso delle mosche consiste nell'occultare o distruggere i cumuli di immondizia, letamai, escrementi animali e umani, e sostanze organiche in putrefazione: la nursery ideale per ogni mamma mosca dove crescere la progenie, per via del calore sviluppato dai processi putrefattivi, dell'umidità che di solito caratterizza questi ambienti e del cibo che le sostanze organiche forniscono. E poiché si tratta di femmine molto prolifiche, trovare o no il luogo adatto dove deporre le uova fa una certa differenza. Una femmina fecondata depone circa ogni due giorni un pacchetto di 120-150 uova per un totale di duemila. Lo sviluppo delle uova a insetto alato passa attraverso una larva, un bruco di colore bianco senza zampe e lungo nel massimo sviluppo 12 millimetri, che subisce due mute. Il processo è tanto più veloce quanto più elevata è la temperatura: 8-10 giorno a 35 gradi; 45-50 a 16 gradi. A tre giorni di vita una femmina adulta è in grado di iniziare la sua vita sessuale: fatti i dovuto calcoli, una sola femmina che incominci a deporre alla metà di aprile anche solo un centinaio di uova ottiene alla conclusione dell'estate, dopo cinque mesi, quattromila trilioni di discendenti. Per fortuna i predatori ne fanno stragi; tuttavia questi dati danno un'idea di come mai quando si parla di mosche si usano sostantivi quali legioni, nugoli e così via. Nelle zone temperate tutto finisce con l'estate, quando a ottobre gli adulti dell'ultima generazione si rintanano nei recessi freddi e bui delle nostre abitazioni e lì passano l'inverno senza toccare cibo. Pochi riescono però a scampare all'ecatombe provocata dall'Empusa mu scae, il fungo che cresce sui loro corpi inerti coprendoli di una bianca coltre di microscopici corpi riproduttivi. Ma la lotta alle mosche non sarebbe giustificata se fossero soltanto noiose. In realtà sono soprattutto insetti pericolosi. Infatti, se gli escrementi e i materiali organici in decomposizione costituiscono il luogo ideale dove deporre le uova, sono anche il posto ideale dove caricarsi di parassiti. Aggiungeteci la straordinaria mobilità dell'insetto e vi è subito chiaro come è velocissimo il passaggio dalle immondizie alle tavole imbandite. La mosca è campione di volo fra gli insetti con 200 battiti di ali al secondo e cambi veloci di direzione dovuti probabilmente a differenti frequenze di battiti fra le due ali. Virus, batteri, protozoi, uova e larve di vermi quali tenia e ossiuri ringraziano la mosca per l'efficiente servizio di trasporto, quando attaccati ai peli delle sue zampe vengono trasferiti sui nostri cibi o sulle labbra e gli occhi di persone addormentate. Senza contare quelli che si trasferiscono via apparato digerente dell'insetto, grazie alla sua peculiare modalità di assumere il cibo e di espellere i rifiuti. Le mosche si nutrono succhiando cibi in forma liquida con la proboscide che caratterizza il loro apparato boccale. I cibi solidi vengono sciolti dall'insetto con l'emissione di gocce di saliva, ovviamente cariche di un bel po' di batteri. Poi, dopo aver fatto una gran scorta di cibo nell'ingluvie, la mosca lo rigurgita per passarlo alla parte dell'intestino dove avviene la digestione, rivelandosi in un certo senso il ruminante del mondo degli insetti. L'operazione di rigurgito comporta più volte l'emissione di gocce dalla proboscide e quindi può essere ancora una volta veicolo di germi infettivi. Se invece transitano attraverso l'intestino, i parassiti vengono espulsi vivi con le deiezioni puntiformi che l'insetto depone con notevole frequenza, anche una ogni 5 minuti. E dal momento che una mosca può trasportare fino a 26 milioni di batteri, è chiaro che sia le larve sia l'insetto adulto possono diffondere pericolose malattie: tubercolosi, tifo e altre infezioni intestinali, poliomielite, tracoma, colera e lebbra tanto per citarne alcune. Se non fossimo le vittime, tanta efficienza avrebbe tutta la nostra ammirazione. Maria Luisa Bozzi


SFIGMOMANOMETRO: 100 ANNI Tra sistole e diastole
Autore: G_C_L

ARGOMENTI: STORIA DELLA SCIENZA, MEDICINA, TECNOLOGIA
NOMI: RIVA ROCCI SCIPIONE, LAVEZZARO GIAN CARLO, RAMELLO ADRIANO
ORGANIZZAZIONI: ACCADEMIA DI MEDICINA DI TORINO
LUOGHI: ITALIA, EUROPA, ITALIA, TORINO (TO)
TABELLE: D. Lo sfigmomanometro

LA pressione arteriosa è uno dei parametri che suscitano maggior interesse nel paziente durante la visita medica. Questa attenzione è più che giustificata: molte fra le principali malattie del nostro tempo pongono i valori elevati di pressione tra i possibili fattori di rischio. Bene: la possibilità di misurare in modo semplice, indolore e ripetibile il valore della pressione, possibilità che noi oggi diamo quasi per scontata, esiste solo da 100 anni. Proprio quest'anno, infatti, ricorre il centenario della presentazione dello sfigmomanometro all'Accademia di medicina di Torino. Per questa ricorrenza due studiosi della materia, Gian Carlo Lavezzaro e Adriano Ramello, organizzeranno in dicembre a Torino un Congresso internazionale sull'ipertensione arteriosa. Ideatore dello sfigmomanometro, descritto in due articoli apparsi sulla «Gazzetta medica italiana» del 1896, fu il medico piemontese Scipione Riva Rocci, nato ad Almese nel 1863, aiuto presso la Clinica medica diretta da Forlanini. Questo apparecchio, sicuro e semplice da usare, ha permesso ai medici di tutto il mondo di conoscere, studiare e curare l'ipertensione arteriosa, cioè la situazione in cui la pressione è elevata in modo eccessivo e persistente. Ma cos'è la pressione arteriosa? Cosa contribuisce a determinarne il valore? E perché in certi casi questi valori tendono ad innalzarsi in modo patologico arrecando danni al cuore, ai vasi sanguigni, ai reni, al cervello? Cerchiamo di rispondere a queste domande. Il ventricolo sinistro è la struttura del cuore che riceve il sangue ossigenato dei polmoni, la fase di riempimento ventricolare è chiamata diastole. Dopo essersi riempito, il ventricolo si contrae e immette, durante la fase detta sistole, il sangue ossigenato nell'aorta e nel sistema delle grandi arterie, il susseguirsi delle contrazioni cardiache permette al sangue di raggiungere la periferia del circolo, cioè i capillari dove avvengono gli scambi nutritivi tra i tessuti e i capillari stessi. La forza che il ventricolo sinistro genera ad ogni contrazione per spostare una certa massa di sangue dal centro verso la periferia si esercita anche sulla superficie dei vasi arteriosi determinando quella che viene definita pressione sistolica. Le pareti dell'aorta e delle grandi arterie sono elastiche e tendono così ad ammortizzare l'onda di pressione generata dal cuore durante la sistole, restituendo, per così dire, una quota di pressione durante la fase in cui il ventricolo non si contrae, cioè la diastole. Questa azione a mantice esercitata dalle grandi arterie elastiche ha essenzialmente due effetti: quello di evitare un incremento della pressione eccessivo durante la sistole e quello di impedire che la pressione cada a zero durante la diastole; ciò è esattamente quello che succederebbe se le pareti arteriose fossero rigide. In sostanza l'elasticità delle grandi arterie tende a rendere più uniforme il valore della pressione durante le varie fasi del ciclo cardiaco e, con il contributo delle arterie periferiche più piccole dette «di resistenza», trasforma il flusso intermittente generato dal cuore nel flusso continuo che si ha nei capillari. Abbiamo introdotto così un ulteriore concetto, quello delle piccole arterie periferiche di resistenza le quali determinano, assieme alla minore o maggiore rigidità delle grandi arterie elastiche, le cosiddette resistenze periferiche, cioè la resistenza che i condotti stessi oppongono al flusso di sangue. La gittata sistolica (cioè il volume di sangue immesso in circolo ad ogni battito cardiaco) e le resistenze periferiche rappresentano i due fattori meccanici determinanti la PA, che è uguale a: GS X RP, cioè Pressione Arteriosa = Gettata Sistolica X Resistenze Periferiche. L'aumento di uno o di entrambi questi fattori determina un rialzo della pressione; in pratica si hanno talora situazioni in cui la PA è aumentata a causa dell'incremento della gittata sistolica ma nella maggior parte dei casi il meccanismo sottostante ad un cronico rialzo pressorio consiste nell'aumento delle resistenze periferiche. Tanto la gittata sistolica quanto le resistenze periferiche sono sotto l'influenza di molti e complessi fattori che determinano il valore pressorio. Le arterie grandi e piccole sono in particolare sede di una regolazione finissima di tipo nervoso, ormonale e tessutale che ne determina la maggiore o minore dilatazione e rigidità. Uno dei più comuni e dannosi fenomeni patologici connessi con l'invecchiamento e con le abitudini di vita sbagliate è l'aterosclerosi; l'alterazione strutturale delle arterie provocata da questa patologia possiede la deleteria capacità di modificare da un lato la risposta delle arterie stesse alle sostanze preposte alla loro regolazione, e dall'altro di far perdere a questi vasi l'elasticità di cui abbiamo prima descritto l'importanza. Questo non è certamente l'unico meccanismo con cui la pressione tende ad aumentare, ricordiamo infatti le forme di ipertensione secondaria a disfunzioni ghiandolari o renali e non dimentichiamo che la ricerca sugli aspetti genetici ed ormonali dell'ipertensione è più che mai aperta e ricca di novità. Tuttavia lo stato e la funzione dei vasi in cui il sangue deve scorrere è indubbiamente molto importante, al punto di rendere verosimile quell'aforisma secondo cui ognuno di noi ha l'età delle sue arterie. (g. c. l.)


RETTOCOLITE ULCEROSA Ciclosporina meglio del cortisone Un farmaco estratto da un fungo della Scandinavia
Autore: ACTIS GIOVANNI

ARGOMENTI: MEDICINA E FISIOLOGIA, FARMACEUTICA
ORGANIZZAZIONI: DIPARTIMENTO DI GASTROENTEROLOGIA OSPEDALE MOLINETTE, SANDOZ
LUOGHI: ITALIA, EUROPA, ITALIA, TORINO (TO)

OGNI anno sono circa 5000 gli italiani che per la prima volta si ammalano di rettocolite ulcerosa, una malattia di causa ignota che colpisce il colon, cioè l'ultimo tratto dell'intestino. Alla base di questa malattia sta una disfunzione dell'abbondante tessuto linfatico del colon. In risposta a stimoli probabilmente innocui per individui non predisposti, i globuli bianchi locali producono una forte reazione infiammatoria, alla quale seguono alterazioni della motilità intestinale, ed essudazione di siero e sangue dalle cellule. Per il malato il sintomo corrispondente è la diarrea ematica, un disturbo al quale la maggioranza dei pazienti dovrà abituarsi, in quanto caratteristiche della rettocolite ulcerosa sono la tendenza a ricadere e a cronicizzare. Essendo una malattia dalla causa ignota e con base prevalentemente infiammatoria, la rettocolite ulcerosa è stata trattata tradizionalmente con il cortisone, sostanza ormonale prodotta dalle ghiandole surrenali dotata di spiccato potere anti-infiammatorio. Tuttavia, nel corso dei quarant'anni del suo impiego, il cortisone ha denunciato i propri limiti: almeno 4 pazienti su 10 non reagiscono alla terapia e devono quindi subire la rimozione chirurgica dell'intestino malato; inoltre, se continuato anche solo per pochi mesi, il cortisone provoca ipertensione, diabete, osteoporosi, facilità alle infezioni, e addirittura psicosi. Questo quadro, piuttosto sgradevole per il paziente, ha ovviamente stimolato le ricerche cliniche dell'ultimo decennio. Sulla base di risultati iniziali ottenuti da ricercatori americani alla fine degli Anni 80, il Dipartimento di gastroenterologia dell'ospedale Molinette di Torino ha condotto una propria indagine farmacologica a partire dal 1991. A distanza di 5 anni, il primo risultato cui le ricerche torinesi hanno condotto è stata la messa a punto dell'uso di un nuovo farmaco per la rettocolite ulcerosa: la ciclosporina. Questa sostanza si trova in natura come prodotto di un fungo della Scandinavia ed è stata studiata e poi sintetizzata nei laboratori della Sandoz di Basilea a partire dalla fine degli Anni 70. Le ricerche di laboratorio la identificarono in breve come il più potente immunosoppressore allora esistente. La sua entrata in uso nel campo dei trapianti d'organo all'inizio degli Anni 80 ha triplicato la sopravvivenza dei trapiantati, permettendo una drastica riduzione dei dosaggi del cortisone, unico farmaco fino ad allora disponibile. Partendo dall'osservazione che la ciclosporina esercita la propria azione immunosoppressoria attraverso una inibizione delle citokine (sostanze proteiche usate dai globuli bianchi per proliferare e distruggere il trapianto) e che tali citokine si trovano aumentate nell'intestino infiammato della rettocolite ulcerosa, si è provato l'uso del farmaco in quei pazienti che rischiavano di perdere il colon dopo vani tentativi con il cortisone. Dal 1991 sono stati trattati 46 pazienti di questo tipo. Nel 48 per cento di essi, dopo 14 giorni di ciclosporina endovenosa, la malattia è scomparsa e i pazienti sono stati dimessi senza sintomi con una prescrizione di farmaco orale. Di essi, il 60% non ha più avuto bisogno dell'ospedale per oltre 2 anni, e il 40 per cento ha mantenuto intatto il colon per 5 anni. Pur dotata di potenziale tossicità, nel nostro studio la ciclosporina si è rivelata sicura, per la semplice ragione che, a differenza del cortisone, la quantità di farmaco nel sangue del malato può essere dosata e all'occorrenza regolata. La recente commercializzazione della ciclosporina come semplici compresse a rapido assorbimento orale farà crescere il numero dei pazienti con rettocolite ulcerosa grave che nell'immediato futuro potranno evitare sia l'intossicazione cronica da cortisone sia l'intervento chirurgico. Giovanni C. Actis


TUTTOSCIENZE SCUOLA. MAGNITUDO E INTENSITA' Come misurare i terremoti Le differenze fra le scale Richter e Mercalli
LUOGHI: ITALIA
TABELLE: T. TAB. SCALE DI MISURA DEI TERREMOTI (tabella nel testo)

Gli esseri umani (e anche animali) percepiscono il terremoto come una violenta e indistinta perturbazione, un'oscura forza naturale che dal profondo delle viscere della Terra emerge all'improvviso, spesso provocando distruzione e morte e in ogni caso, anche quando la scossa è lieve causando un profondo malessere psico-fisico. L'uomo, pur consapevole della sua incapacità a dominare un evento così possente, ha sempre tentanto di comprenderne perlomeno la natura e di misurarne la forza. Ma l'energia delle scosse sismiche è alquanto difficile da calcolare e solo a partire dall'inizio di questo secolo è stato possibile mettere a punto una tecnica abbastanza precisa di valutazione. La gravità dei terremoti si misura in base alla magnitudine e alla intensità. La scala Richter (messa a punto nel 1935) misura la magnitudine del terremoto analizzando i dati registrati dai sismografi, al contrario la scala Mercalli (che risale al 1902) ne misura l'intensità sulla base degli effetti. T. TAB. SCALE DI MISURA DEI TERREMOTI ================================================================= RICHTER ------- La scala Richter consente di determinare l'energia liberata dal terremoto analizzando la registrazione di uno strumento apposito, detto sismografo. Questa scala di magnitudine non ha un limite superiore: il valore massimo ottenuto fino ad ora è di 9,8, registrato in due occasioni: nel 1906 alla frontiera fra la Colombia e l'Ecuador, e nel 1933 in Giappone. ----------------------------------------------------------------- CHE COSA INDICA IL SISMOGRAFO ----------------------------- Il tempo intercorrente tra l'arrivo tra delle onde P (inizio delle scosse) e delle onde S: con questa informazione è possibile determinare la distanza dell'epicentro L'ampiezza delle onde che è in relazione all'energia liberata dal sisma I dati registrati dai sismografi vengono tradotti in grafici; questo metoso consente di determinare la magnitudine, riportata nella colonna centrale A ciascun terremoto corrisponde una magnitudine che è indipendente dal luogo in cui sono stati registrati i dati; nell'esempio se il luogo fosse più lontano l'ampiezza sarebbe minore e il tempo maggiore; a dieci millimetri di ampiezza e 33 secondi di intervallo tra l'arrivo delle onde P e delle onde S corrisponderebbe sempre una magnitudine 5 ----------------------------------------------------------------- MERCALLI -------- La scala Mercalli si basa sugli effetti del terremoto sullo ambiente (edifici, terreno, etc,). In base a questi sono stati definiti dodici livelli di intensità indicati con i numeri romani da I a XII. Il I corrisponde ad una intensità minima percepita solo dai sismografi, il XII alla distruzione totale degli edifici e a grandi alterazioni nel paesaggio. ----- I Il terremoto è avvertito solo dai sismografi -- II Avvertito eccezionalmente dall'uomo --- III Avvertito in casa dove i lampadari oscillano --- IV Vetri e vasellame vibrano e tintinnano --- V Le persone che dormono si svegliano, i recipienti contenenti liquidi traboccano --- VI E' avvertito da tutti, qualche vetro si rompe --- VII La gente fugge in strada, piccoli danni agli edifici --- VIII Cadono comignoli e statue --- IX Compaiono crepe nel suolo e negli edifici, qualche vittima --- X Gli edifici crollano e vi sono numerose vittime --- XI I binari del treno si deformano, si aprono voragini nel terreno --- XII Distruzione totale, il paesaggio è sconvolto ----------------------------------------------------------------- I TERREMOTI PIU' VIOLENTI ------------------------- CINA 1920 180 mila morti nella provinci Han-Su ----- CINA 1976 800 mila morti in un terremoto di 8,2 gradi della scala Richter nella provincia di Tangshan ----- URSS 1988 100 mila morti in Armenia in un terremoto di magnitudine 7 ----- USA 1989 270 morti e 1600 feriti in un terremoto di 6,9 gradi Richter a San Francisco ----- TURCHIA 1992 Oltre 4000 morti a Erzinkan per una scossa di 6,3 gradi Richter ----- RUSSIA 1994 Nelle isole Kurili la scossa più violenta degli ultimi ventisette anni di 7,9 gradi Richter =================================================================




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio