TUTTOSCIENZE 7 luglio 93

BOTANICA Palme, miniera verde dei Tropici Le specie sono 1500 e gli impieghi utili 800
Autore: ACCATI ELENA

ARGOMENTI: BOTANICA
LUOGHI: ITALIA
NOTE: 003

LA palma è la pianta-simbolo delle vacanze, dell'estate, dell'esotismo. Vogliamo conoscerla un po' meglio? Tipiche dei climi tropicali, le palme sono monocotiledoni come il grano, le specie da bulbo, le orchidee; e sono piante tra le più antiche dopo le felci, essendo apparse 120 milioni di anni fa in Africa, in Asia, nell'Amazzonia, nella Malesia, nell'America settentrionale. Linneo, il celebre botanico svedese, conosceva soltanto 15 generi di palme, mentre oggi se ne conoscono ben 150 e 1500 specie. E' nella zona situata tra 10 di latitudine Nord e 10 di latitudine Sud che si incontra il maggiore numero di palme. Oltre i 1000 metri di altitudine sono rare, fatta eccezione per la Ceroxylon andicola che vive nelle Ande a 2900 metri, dove raggiunge 50 metri di altezza e fornisce un prezioso materiale, la cera. Un poeta tamil ha cantato gli ottocento impieghi della palma, che ha un posto fondamentale nell'economia delle popolazioni tropicali. Fornisce un'ombra provvidenziale, lungo il suo tronco i ragazzi, svelti come scoiattoli, si arrampicano, per raccogliere i frutti. Costituisce un valido appiglio: ad essa si aggrappano gli abitanti in caso di tifoni e di piogge torrenziali; le radici, oltre ad assorbire l'acqua eccedente dal terreno, che renderebbe certe zone inabitabili, sono usate in medicina per le proprietà astringenti o emollienti... L'elenco delle proprietà e utilizzazioni delle palme potrebbe continuare a lungo: le spine servono per fare i tatuaggi; il legno diviene un ponte sicuro e solido, lo stipite svuotato serve per fare condutture idriche; il legno è usato per fare armi, utensili, strumenti musicali. Dal tronco fuoriesce in alcune specie una sostanza usata in medicina, in altre un liquido che fatto fermentare dà un gradevole vinello che i musulmani, a cui non è concesso bere il vino, possono bere, dato che nel Corano sta scritto che l'«acqua di palma non è vino». Alcune specie di palme, poi, forniscono prodotti singolari. Dalla Caryota urens si ottiene un liquore, l'arack. L'interno dello stipite può essere ricco, come nelle palme che si trovano in Malesia, di «segou», una fecola usata per pane, dolci, pasta. Sono però le foglie quelle che si prestano alle utilizzazioni più varie: esse diventano tetti e parti per la capanna, stuoie e sedie, tappeti e canestri, nasse e corde, cibo per gli elefanti, cera (ricavata dalla pruina presente sulla pagina inferiore delle foglie), scope e spazzole. Infine frutti come datteri e cocco sono un cibo molto nutriente per dall'alimentazione povera. Come è fatta una palma? Possiede radici fascicolate, numerose, cilindriche, spesse, carnose, che affondano nel terreno per qualche metro. C'è un continuo ricambio delle radici: le più vecchie muoiono e altre nuove si formano di continuo nella parte inferiore, più giovane dello stelo. Alcune palme emettono radici avventizie, che sorgono alla base dei nodi dello stelo: queste portano radichette e ricoprono, a volte, come una specie di possente barba tutto il tronco, lo stipite, che si protende nell'azzurro del cielo anche per 40-50 metri. Altre volte diviene panciuto e rigonfio nella parte centrale, e altre ancora è tozzo, schiacciato, simile a un bulbo. Esso è formato da amido, zucchero e silice, è sempre molto duro. Può essere ricoperto da liane fiorite, da orchidee, da muschi, in forma di lunghe barbe, da licheni, da alcune piccole felci. Le foglie sono formate da una guaina sempre presente, dal picciolo e dal lembo. Possono essere indivise per tutta la durata della vita, avere la forma delle pinne di un pesce, essere simili alle penne di un colombo nelle pennate. Le flabelliformi, quando sono molto giovani, hanno in genere l'aspetto di un ventaglio chiuso che poi si allarga; possono essere peltate, simili alle foglie della cappuccina, il tropeolo, pianta rampicante o strisciante dai bei fiori muniti di un lungo sperone. I fiori maschili sono separati da quelli femminili, costituendo una infiorescenza a grappolo denominata spadice: quelli maschili stanno in alto e quelli femminili in basso, protetti da una spata, foglia trasformata, che assume una dimensione considerevole, di consistenza erbacea o legnosa; a volte persiste a lungo, a volte cade prima della fioritura. Lo spadice può avere lunghezza di 3-4 metri, si ricopre di frutti che possono pesare anche 20 chili ed essere in numero di 600. Ci sono palme i cui fiori emettono una piacevole fragranza, come la Chamadorea fragrans e la Morenia fragrans; altre profumano di muschio e di miele, altre emettono un odore sgradevole. I fiori di alcune specie, all'epoca della fioritura, emettono calore: la temperatura può raggiungere 34C mentre quella circostante è di soli 29C. Ciò è dovuto alla emissione di acido carbonico. Ifiori sono piccoli: è difficile distinguere il calice dalla corolla; gli stami sono sei, con grandi antere che si fendono longitudinalmente lasciando uscire una grande quantità di polline, che in alcuni momenti forma come una nuvola bianca e gialla che avvolge tutto l'albero. L'impollinazione, oltre che per via naturale, può essere compiuta dall'uomo, migliorando la priduzione. Dalla fioritura al frutto intercorrono anche 7-8 mesi. Alcuni frutti, come il dattero, una bacca dalla polpa carnosa ricca di zuccheri con un seme duro che reca una scanalaturalongitudinale, sono assai noti; lo è pure, il cocco, che porta una noce al suo interno, dura, con tre fori all'apice, residui dei carpelli (foglie che portano gli ovuli da cui appunto si hanno i semi). Un frutto alquanto particolare è quello della Phytelephas macrocarpa, una pianta dall'aspetto bizzarro che ricorda assai poco una palma. E' chiamato «testa del negro» per il suo colore, e all'interno è ricco di albume, sostanza denominata anche «avorio vegetale» perché viene destinata agli stessi usi dell'avorio animale. Elena Accati


SONDE SPAZIALI AL LAVORO Il Sole ignoto Spiamo la nostra stella
Autore: BIANUCCI PIERO

ARGOMENTI: ASTRONOMIA
LUOGHI: ITALIA
NOTE: 001

TRASCURATO per anni dalle navicelle spaziali, il Sole sarà il vero protagonista delle esplorazioni interplanetarie di fine secolo. Come merita il corpo celeste di gran lunga più importante per la nostra vita. Uno degli osservatori che dallo spazio si dedicheranno allo studio del Sole, la sonda europea «Ulisse», è già in dirittura di arrivo. Seguirà «Soho» (SOlar and Heliospheric Observatory, una collaborazione Esa-Nasa), che diventerà un pianetino artificiale su un'orbita interna a quella terrestre. E infine completeranno il piano di ricerca i quattro satelliti gemelli del progetto europeo «Cluster». La sonda «Ulisse» proprio in questi giorni sta addentrandosi in una regione del sistema solare rimasta finora del tutto inviolata. Fedele al suo nome, si è infatti allontanata dalle «Colonne di Ercole» rappresentate dal piano delle orbite planetarie (l'eclittica) più di qualsiasi altra navicella e si appresta a sorvolare, da giugno a ottobre del prossimo anno, il polo Sud del Sole e poi, da giugno a settembre del 1995, il polo Nord. «Ulisse» ha già svolto un buon lavoro preliminare su obiettivi secondari. Da Giove, che ha dovuto avvicinare per riceverne la spinta gravitazionale necessaria all'uscita dal piano dell'eclittica, ci ha inviato informazioni molto interessanti sulla magnetosfera. E in due occasioni si è prestata a esperimenti per la ricerca - tuttora infruttuosa - delle onde gravitazionali previste dalla teoria della relatività generale di Einstein. Ma il compito principale di «Ulisse» sarà appunto l'osservazione dall'alto dei poli del Sole, finora mai visti se non dalla scomoda prospettiva che ci è consentita stando sulla Terra; e più ancora l'analisi del vento solare e del campo magnetico interplanetario fino a circa 150 milioni di chilometri dal piano dell'eclittica. Non dimentichiamo che il nostro pianeta sta letteralmente immerso nella rarefattissima atmosfera del Sole, quella «eliosfera» di cui le sonde «Voyager» poche settimane fa hanno individuato il confine a una distanza cento volte maggiore di quella Terra-Sole. L'Italia ha in «Ulisse» una parte di rilievo sia dal punto di vista industriale, con Laben e Fiar, sia dal punto di vista scientifico: sono italiani due dei responsabili di ricerca, Bruno Bertotti dell'Università di Pavia per gli esperimenti sulle onde gravitazionali e Giovanni Noci dell'Osservatorio Astrofisico di Arcetri, vicino a Firenze. Il carico scientifico di «Ulisse» comprende nove strumenti per un peso complessivo di 55 chili sui 370 della navicella: un autentico miracolo di miniaturizzazione. Ben più massiccia sarà la navicella «Soho», che peserà al lancio 1850 chili, di cui 610 ripartiti tra i suoi 12 strumenti. Gli obiettivi principali sono lo studio dell'eliosismologia, della corona e del vento solare. L'eliosismologia è un settore di ricerca relativamente recente che mira a comprendere la struttura interna del Sole attraverso le sue «oscillazioni», un po' come si approfitta delle vibrazioni indotte dai terremoti per sondare l'interno della Terra. «Soho» coinvolge nove responsabili di ricerca europei e tre americani, che nell'insieme coordinano altri 200 ricercatori. La navicella verrà collocata in uno dei «punti di Lagrange» dove si ha un perfetto equilibrio gravitazionale rispetto a Sole e Terra. L'orbita di «Soho» correrà all'interno di quella terrestre di circa 1,5 milioni di chilometri e la distanza dal Sole della sonda sarà quindi pari a 99 centesimi di quella della Terra. Il vantaggio di questo osservatorio non consiste dunque in un forte avvicinamento alla nostra stella, ma nel fatto che da quella posizione potrà osservare il Sole ininterrottamente, cosa essenziale per molti tipi di ricerche ma impossibile a farsi dal suolo a causa dei capricci delle nuvole, dell'instabilità dell'atmosfera e dell'alternarsi del giorno e della notte. Infine, «Cluster» è un programma europeo che si propone di studiare i rapporti Sole-Terra soprattutto riguardo all'azione del vento solare sulla magnetosfera del nostro pianeta. I satelliti previsti sono quattro, perfettamente identici, per poter compiere le misure in tre dimensioni formando nello spazio un tetraedro dalla configurazione variabile. Le navicelle percorreranno in 66 ore orbite polari molto allungate, con apogeo a 140 mila chilometri dalla Terra e perigeo a 25 mila; la distanza tra le sonde potrà essere variata da 200 a 20 mila chilometri. Undici gli strumenti a bordo, per un peso complessivo di 550 chili, più 650 chili di propellente per effettuare i cambiamenti di posizione. Dalle sonde si allungheranno per ben 50 metri dei bracci che porteranno alla loro estremità gli strumenti di misura del campo elettrico. Durata del programma di studio, due anni. Le tre missioni sono in gran parte complementari, soprattutto per ciò che riguarda il flusso di particelle atomiche e il campo magnetico che permeano il sistema solare. Quando potremo mettere insieme le tessere del mosaico, cioè all'inizio del nuovo millennio, avremo finalmente una visione organica e tridimensionale dell'ambiente spaziale in cui la Terra si trova immersa. Piero Bianucci


«PALOMAR» Quando la radio parla di scienza
Autore: P_B

ARGOMENTI: COMUNICAZIONI, SCIENZA
LUOGHI: ITALIA
NOTE: 001

CON i suoi 1900 addetti sui 13 mila complessivi, la radio è la Cenerentola della Rai. E l'informazione scientifica, con una sola trasmissione quotidiana, la Cenerentola della radio. Il riferimento è a «Palomar», rubrica di Radio Tre in onda dal lunedì al venerdì dalle 16,30 alle 17,15. Bene, lunedì «Palomar» ha adottato la sua veste estiva, che non vuol dire indossare il bikini ma dimezzare l'organico: tre redattori invece di sei. Nonostante ciò, continuerà ad andare in onda, parte con repliche, parte con servizi nuovi. Fino alla ripresa d'autunno. La divulgazione scientifica nella radio italiana ha una lunga tradizione (da appassionato di astronomia ricordo, per esempio, le conversazioni che Ginestra Amaldi teneva negli Anni 50), ma il frastuono delle emittenti private l'aveva un po' appannata. Fa piacere constatare che quel filone rifiorisce ed è premiato dagli ascolti e dal contatto con gli ascoltatori tramite il telefono e il fax: in due anni «Palomar» ha portato ai suoi microfoni un migliaio di ricercatori e ogni settimana ha messo in onda l'equivalente di 150 pagine di testo. In totale, è come se avesse prodotto una biblioteca di cento volumi di buona divulgazione. Mentre alla Rai tante teste lottizzate stanno finalmente per cadere, forse non è male ricordarsi che, gerarchicamente più in basso, con intelligenza e umiltà, molti altri hanno lavorato e continuano a lavorare.


Nella tempesta Gli effetti dei brillamenti solari
Autore: GODOLI GIOVANNI

ARGOMENTI: ASTRONOMIA
LUOGHI: ITALIA
NOTE: 001

IL campo magnetico terrestre presenta numerose e complesse variazioni locali e temporali la cui interpretazione ha richiesto l'impegno di generazioni di ricercatori. Oggi sappiamo che, mentre le variazioni locali sono dovute a peculiarità delle strutture geologiche, la massima parte delle variazioni temporali è associata all'attività solare e alla struttura del suo campo magnetico. Variazioni improvvise e intense, chiamate tempeste ma gnetiche, sono causate dall'arrivo di plasma, ossia di gas ionizzato di origine solare associato a quelle violente perturbazioni solari note come brillamenti. Fu soltanto a fine '800 che, in seguito all'osservazione nella corona solare dei «raggi polari», venne ipotizzata l'esistenza di un campo magnetico generale del Sole analogo al campo terrestre. Nel 1908 lo statunitense George E. Hale scoprì a Monte Wilson, con il metodo spettroscopico, campi magnetici nelle macchie solari; ma solo nel 1952, sempre a Monte Wilson, Harold Babcock e suo figlio Horace rilevarono, con un nuovo particolare strumento appositamente concepito detto magnetografo, campi magnetici discontinui estendentisi, al di fuori della zona equatoriale del Sole interessata dalle regioni attive, sino alle regioni polari. Nella calotta polare Nord vennero rilevati campi magnetici di segno positivo e in quella Sud campi magnetici di segno negativo. Una inattesa proprietà di questi campi magnetici polari è che il loro segno si inverte intorno alla fase di massimo del ciclo undecennale di attività solare. Dopo quattro decenni di osservazioni oggi i fisici solari sanno che il campo magnetico solare è la risultante di molteplici ed interconnesse componenti, tutte variabili. Grazie all'impiego di mezzi spaziali, alla fine degli Anni '60 vennero rilevate correlazioni fra la struttura della componente a grande scala del campo magnetico solare e la struttura a settori dello spazio interplanetario e correlazioni fra la polarità del campo magnetico interplanetario e variazioni diurne del campo magnetico terrestre. Una volta note le relazioni fra campo magnetico solare e campo magnetico interplanetario e fra campo magnetico interplanetario e campo magnetico terrestre è possibile, effettuando una inversione, dedurre informazioni sul campo magnetico interplanetario e sul campo magnetico solare dalle caratteristiche del campo magnetico terrestre. L'importanza di questa inversione sta nel fatto che, mentre le osservazioni delle componenti del campo magnetico solare associate alle regioni attive sono disponibili dal 1908, quelle della componente polare dal 1952 e quelle del campo magnetico interplanetario fatte da satelliti e sonde spaziali soltanto dal 1963, adeguate osservazioni geomagnetiche sono invece disponibili da più di un secolo. Ci si può chiedere a che serva conoscere struttura e comportamento del campo magnetico solare per un intervallo di tempo maggiore di quello per il quale disponiamo di osservazioni magnetografiche dirette. Anzitutto va notato che le varie componenti del campo magnetico solare, anche se appaiono variate nel tempo secondo cicli quasi regolari, presentano variazioni non prevedibili la cui conoscenza, oltre ad essere fondamentale per una più profonda conoscenza del sistema Sole-spazio interplanetario, è fondamentale anche nello studio dei modelli del ciclo di attività solare. Inoltre il comportamento del campo magnetico solare è il presupposto dei vari fenomeni delle regioni attive. Infine, avendo a disposizione una più lunga serie di dati, è possibile rilevare correlazioni più attendibili fra attività geomagnetica e attività solare, le quali permettono previsioni sul futuro dell'attività solare. Questo metodo di inversione ha già permesso di raccogliere promettenti risultati. Per esempio, invertendo la correlazione di cui si è detto fra la polarità del campo magnetico interplanetario e variazioni diurne del campo magnetico terrestre, è stato possibile ricostruire la struttura e il comportamento del campo magnetico interplanetario e quindi del campo solare per un lungo intervallo di tempo precedente i mezzi spaziali. E' stato fra l'altro messo in evidenza che il periodo di rotazione della struttura a settori varia da 28,5 giorni all'inizio del ciclo di attività solare a 27 giorni alla fine e che settori a corta vita sembrano ruotare più lentamente di settori a lunga vita. Inoltre si è dimostrato che, invertendo correlazioni fra attività solare e attività geomagnetica, è possibile prevedere, dall'analisi dell'attività geomagnetica durante un ciclo di attività solare, caratteristiche del ciclo successivo. Giovanni Godoli Università di Firenze


Energia fotovoltaica Il tetto diventa una centrale elettrica
Autore: LIBERO LEONARDO

ARGOMENTI: ENERGIA
ORGANIZZAZIONI: RUSPA
LUOGHI: ITALIA
NOTE: 001

CENTINAIA di piccoli generatori fotovoltaici collegati alla rete di distribuzione elettrica vengono disseminati sperimentalmente sul territorio della Svizzera e della Germania: tutti di potenza fra 0, 5 e 5 kw di picco e quasi tutti installati da privati, i quali così diventano sia clienti che fornitori delle società elettriche. Esperienze eseguite per alcuni anni con impianti di quel tipo, e col Sole di quei Paesi, avrebbero dimostrato che per ogni 8-10 metri quadri di superficie esposta si possono versare nella rete elettrica circa 1000 kwh all'anno. Cioè che coprendo di moduli fotovoltaici, poniamo, il tetto di un capannone da 1500 mq, si otterrebbero ogni anno circa (1500/9x1000) = 166.000 kwh; quanto basterebbe a coprire il fabbisogno elettrico medio di un fabbricato di quella superficie. Ho voluto fare una piccola, sommaria verifica. Mi sono perciò informato sulla superficie coperta e sul consumo elettrico annuale di alcune unità immobiliari (non abitative). Per ciascuna ho poi calcolato - secondo i criteri di cui sopra - la quantità di energia che si potrebbe versare in rete se se ne coprisse interamente il tetto con moduli fotovoltaici. Ne è risultato che la ditta Ruspa di Robassomero (Torino), 10.000 mq coperti, consuma 1.000.000 di kwh annui e ne potrebbe ottenere 1. 111.000 dal Sole; che la Isoflux di Portacomaro (At) (3000 mq) consuma 550.000 kwh e ne otterrebbe 333.000; che la Simai di San Donato (Mi) (2200 mq) consuma 54.000 kwh e ne otterrebbe 244.000; che la A.C.M. di Bardello (Va) (1600 mq) consuma 100.000 kwh e ne otterrebbe 178.000; che la Rio di Sarnico (Bg) (9500 mq) consuma 100.000 kwh e ne otterrebbe 1.056.000; che la Elettrorava di Druento (To) (8100 mq) consuma 276.000 kwh e ne otterrebbe 900.000; che il Politecnico di Torino, facoltà di Ingegneria (38.000 mq) consuma 4.983.000 kwh e ne otterrebbe dal Sole 4.222.000. In 5 casi su 7 l'autoproduzione da fonte solare dell'immobile supererebbe il consumo che vi si verifica, e in misura tale da compensare largamente i due casi opposti. Se quello esaminato fosse un campione rappresentativo, esso autorizzerebbe perciò il «come volevasi dimostrare». Peccato che non lo sia e peccato che fra i dati statistici disponibili in Italia manchi la superficie complessiva occupata dagli edifici. Solo la mancanza di quel dato, infatti, impedisce una verifica conclusiva, poiché in materia di consumi elettrici si sa praticamente tutto. Direi comunque che da quel pur minimo campione emerga un'indicazione significativa. Si aggiunga che quel dato empirico svizzero-tedesco, dei circa 1000 kwh annui versati in rete ogni 8-10 mq di superficie, si può verificare anche analiticamente, con un calcolo molto semplice. Posto infatti che la radiazione solare globale nell'Europa centrale è in media di 1100 kwh all'anno per mq di superficie orizzontale, che il rendimento di conversione dei moduli fotovoltaici disponibili fino a oggi - o meglio, fino a ieri - è stato del 10-12%, che il rendimento degli inverter di collegamento alla rete è stimabile nel 90%, ne segue che ogni 8-10 mq di moduli solari l'energia versata in rete deve essere stata, appunto, di circa (100x0,11x0,9x9) = 980,1 kwh all'anno. La cosa è ancor più interessante per noi in quanto nel nostro Paese la radiazione solare è di circa 1100 kwh/mq/anno (come nell'Europa centrale, o poco più) nella Pianura Padana, ma aumenta di almeno il 5% a Genova e Venezia, e addirittura del 25% a Roma e Cagliari. Leonardo Libero


PROGETTO «DELTA CLIPPER» In orbita con pochi dollari Il vettore del dopo-shuttle ai primi test
Autore: RIOLFO GIANCARLO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA
LUOGHI: ITALIA
TABELLE: D. Delta Clipper
NOTE: 002

UN razzo che non richiede una rampa di lancio, parte verticalmente, raggiunge l'orbita, ritorna e atterra frenato dai suoi motori. Proprio come l'astronave di un film di fantascienza. E' il progetto Delta Clipper, nato per l'iniziativa di Difesa Strategica (le cosiddette «guerre stellari», il programma lanciato da Ronald Reagan), ma applicabile a usi civili, dal trasporto di astronauti a quello di satelliti artificiali. La McDonnel Douglas ha ricevuto un finanziamento di 59 milioni di dollari per costruire un dimostratore in scala 1:3 denominato Dc-X, che in questi giorni ha completato con successo le prove a terra e in volo presso il poligono di White Sands (New Mexico). Se i test avranno esito positivo, il primo Delta Clipper (il nome ricorda veloci velieri che solcavano gli oceani nell'Ottocento) sarà costruito nel 1996. Compito del Dc-X è provare le manovre di decollo, di atterraggio e il comportamento aerodinamico. I collaudi dovranno dimostrare anche la semplicità della manutenzione e delle operazioni a terra, che si vogliono il più possibile simili a quelle di un aereo. L'obiettivo è approntare il razzo per una nuova missione da svolgersi in tre giorni (il Delta Clipper dovrà essere revisionato e preparato per il lancio successivo in una settimana) e il suo raggiungimento è considerato fondamentale per il successo del programma. Si cerca - ovviamente - di non ripetere l'esperienza dello Space Shuttle, che sulla carta offriva una elevata frequenza di voli e bassi costi: previsioni mai rispettate nella realtà, visto che i lanci sono rari e piuttosto irregolari, nonché a costi molto elevati. Il Delta Clipper vuole essere la risposta ai prezzi alquanto alti degli attuali lanciatori e ai lunghi tempi di sviluppo del progetto Nasp, l'aereo-orbitale capace di decollare e di atterrare su normali piste di aeroporto. Gli odierni razzi vettori di classe media, come il Delta e l'Atlas, hanno un costo per lancio di 50-70 milioni di dollari: il Delta Clipper potrà collocare 10 tonnellate di carico utile in orbita bassa con un costo inferiore a 10 milioni. E la McDonnel Douglas ritiene che questa cifra potrebbe essere ridotta a uno o due milioni. Il veicolo spaziale è concepito per volare con due astronauti (in un modulo pressurizzato) o senza uomini a bordo. Tutte le manovre, infatti, saranno controllate dai computer di bordo e da terra. L'equipaggio, quando ci sarà, non sarà composto da piloti, ma da tecnici e scienziati. Alto circa 40 metri e costruito con materiali leggeri e resistenti, come i compositi a matrice metallica e le fibre di carbonio, il Delta Clipper avrà otto motori principali a idrogeno e ossigeno liquidi (la propulsione chimica più potente e più pulita: produce solo vapore d'acqua). Per il lancio saranno utilizzati al 90 per cento della potenza; il restante 10 per cento sarà disponibile come riserva: in caso di guasto a uno o più motori, gli altri avranno una spinta sufficiente per fare fronte all'emergenza. Questa esuberanza permette anche di risparmiare i propulsori, allungandone la vita e riducendo la manutenzione. Al termine della missione, il veicolo si tufferà nell'atmosfera con la prua in avanti. Quindi, ruoterà portando i motori in basso per rallentare la discesa e atterrare frenato dal getto dei propulsori, come il cacciabombardiere Harrier. Pur senza ali, il Delta Clipper potrà essere guidato nella discesa entro un raggio di oltre duemila chilometri, il doppio dello Space Shuttle, che plana senza motori, come un aliante. Inoltre, non richiede lunghe piste d'atterraggio, ma può posarsi praticamente ovunque. E' difficile prevedere se questo rivoluzionario veicolo spaziale soddisferà le attese. Intanto, con un po' di fantasia, qualcuno immagina un futuro con razzi simili al Delta Clipper, capaci di trasportare passeggeri attraverso l'Oceano Pacifico in 40 minuti. Giancarlo Riolfo


TELECOMUNICAZIONI Top secret Guerra di «007» per i codici dei telefoni cellulari del futuro
Autore: PINNA LORENZO

ARGOMENTI: COMUNICAZIONI
ORGANIZZAZIONI: CONSORZIO EUROPEO PER LE TELECOMUNICAZIONI
LUOGHI: ITALIA
NOTE: 002

INTERCETTARE una conversazione in arrivo o in partenza da un telefonino portatile non è un'impresa complicatissima. Un noto settimanale satirico tiene addirittura una rubrica, «Terziario Arretrato», su queste intercettazioni. Vari sistemi sono stati messi a punto per evitare intrusioni non desiderate, tuttavia il Consorzio Europeo per le Telecomunicazioni (GSM, Groupe Special Mobile) sembra esservi riuscito talmente bene da mettere in grande allarme i servizi segreti di mezzo pianeta. Il telefonino del consorzio Gsm funziona con la tecnologia digitale (i segnali sonori vengono, in pratica, tradotti in numeri e poi trasmessi) ed era stato progettato per consentire agli uomini d'affari di telefonare da qualsiasi Paese europeo e farsi addebitare gli scatti sulla solita bolletta. Oggi, a causa dei diversi standard, i cellulari funzionano soltanto in ambito nazionale. La rete digitale del Gsm avrebbe dovuto sostituire quelle analogiche attuali fin dal 1991, ma a causa dello straordinario successo, queste reti non sono state ancora sostituite. Fra i vari «optional» che il sistema Gsm avrebbe offerto c'era anche una codifica del segnale, per evitare le intercettazioni. Ebbene questo sistema di codifica, chiamato «A5», è simile a quello usato dal governo americano (il Des, Data Encryption Standard) ed è così impenetrabile che per decrittarlo occorrono ore e ore di lavoro di un supercomputer. Naturalmente questa caratteristica ha immediatamente impensierito sia l'Fbi che la Nsa (la National Security Agency, l'Agenzia americana che controlla le telecomunicazioni) che Servizi analoghi di vari Paesi (come Gchq britannico). Come seguire, ad esempio, le comunicazioni dei narcotrafficanti o di altri criminali, una volta messo in vendita un simile telefonino? Il consorzio Gsm che non potendo, per il momento, vendere questo sistema in Europa, si apprestava a concludere un favoloso affare con il Qatar, gli Emirati Arabi Uniti e il Bahrain, si è visto bloccare dal ministero del Commercio britannico la licenza per esportare una tecnologia così delicata. Come fare allora per ottenere la sospirata licenza di esportazione? Le alternative prospettate al consorzio Gsm sono sostanzialmente due. Ridisegnare il «chip» responsabile della diabolica codifica peggiorandone nettamente la qualità e quindi rendendo possibile ai servizi segreti di intercettare, senza troppa fatica, quello che ritengono opportuno. Oppure, seconda soluzione proposta dal governo americano, inserire nel telefonino un nuovo chip che consentirebbe ai Servizi segreti autorizzati una facile intrusione. Questo microprocessore, chiamato «Clipper Chip», è stato progettato e realizzato dalla Nsa. Le telefonate codificate dal diabolico chip del Gsm e opportunamente corrette dal Clipper Chip della Nsa verrebbero rapidamente decodificate grazie a particolari chiavi numeriche. L'elenco delle chiavi che abilitano l'intercettazione non sarebbe in possesso dei Servizi ma, per evitare abusi, di un'altra autorità (negli Usa dell'Attorney General) che lo concederebbe solo nei casi previsti dalla legge. Tuttavia il Clipper Chip della Nsa (che verrebbe installato non solo sui telefonini Gsm, ma su qualsiasi sistema di codifica anche per fax e computer) non piace a tutti gli esperti. L'idea di spender soldi per rendere meno sicuro un telefono o un fax non è molto allettante. C'è poi un altro interrogativo. La Nsa ha posto il segreto sul funzionamento del Clipper Chip (cioè sui suoi algoritmi) e nessuno può sapere se oltre alle chiavi ufficiali vi siano altri metodi per intercettare le comunicazioni. Lorenzo Pinna


FOTO A TUTTO TONDO I trent'anni dell'olografia e dei suoi oggetti-fantasma fatti soltanto di luce laser
Autore: FURESI MARIO

ARGOMENTI: OTTICA E FOTOGRAFIA
NOMI: LEITH EMMETT, UPATNIEKS JURIS
LUOGHI: ITALIA
NOTE: 002

DUE scienziati americani, Emmett Leith e Juris Upatnieks, trent'anni fa inventarono l'olografia. Oltre che illustri fisici, erano anche appassionati fotografi e ricercatori interessati alla luce laser che, inventata quattro anni prima, era diventata famosa per il crescente numero delle sue applicazioni nei campi più diversi, dalla telemetria alla medicina. Fu quindi per loro naturale pensare all'uso di luce laser nella tecnica fotografica. E finirono con il trovare il sistema per ottenere riprese che mostravano anche il retro dell'oggetto fotografico. Ne risultò, nel 1963, il primo ologramma, così chiamato dal greco olos (intero) e gramma (riproduzione grafica); con esso era nata la nuova, rivoluzionaria tecnica fotografica che usa il laser per impressionare la lastra. Va notato che sulla lastra non appare nulla che ricordi l'oggetto ripreso ma soltanto delle zone più o meno oscure oppure una uniforme tinta grigiastra e varie figure di ellissi concentriche tratteggiate. L'immagine dell'oggetto fotografato si può invece vedere sospesa in aria se l'osservatore si pone dietro la lastra, previamente illuminata da raggi laser aventi la stessa angolazione scelta nella ripresa nonché la stessa potenza. Per di più girando intorno a questa immagine aerea la si vede mutare d'aspetto come se si girasse intorno all'oggetto reale. L'immagine così realizzata ha le stesse dimensioni e la stessa posizione dell'oggetto e appare alla stessa distanza che intercorreva tra oggetto e laser all'atto della ripresa. I numerosi perfezionamenti apportati al sistema rendono oggi possibile ottenere anche ologrammi colorati usando raggi laser dei colori prescelti e illuminando una lastra per ciascun colore. L'impianto per realizzare gli ologrammi è complesso e si basa sull'interferenza luminosa tra la radiazione emessa dalla fonte dei raggi laser e quella dello stesso fascio riflessa dall'oggetto. Essenzialmente è costituito da un laser, un prisma che sdoppia il fascio dei raggi in due ad angolo retto, due specchi, due lenti concave e una lastra fotografica. L'olografia offre, come il laser, un crescendo di utilizzazioni pratiche. Già da vari anni si possono ottenere, con questa tecnica, immagini in rilievo e riprese cinematografiche e televisive in tre dimensioni, visionabili senza dover ricorrere a un particolare tipo di occhiali, come era richiesto agli inizi. Ma forse il contributo più rimarchevole viene dato dalla olografia a molti campi della ricerca scientifica e tecnologica. Tra di essi è da ricordare la registrazione di oggetti muoventisi ad altissima velocità e di organismi microscopici le cui immagini olografiche, estremamente nitide, possono venire fotografate con una comune macchina da presa e ingrandite migliaia di volte. Infine, di recente sono stati inventati apparecchi che consentono di vedere gli ologrammi senza la luce coerente e monocromatica del laser, ma con la comune luce bianca. Mario Furesi


STORIA DELLA TECNOLOGIA Una dracma per il robot Il primo distributore automatico
Autore: CENTINI MASSIMO

ARGOMENTI: TECNOLOGIA
LUOGHI: ITALIA
TABELLE: D.
NOTE: 002

IL distributore automatico, popolarmente noto come «macchinetta del caffè», risale all'antichità classica: nel libro Pneumatika del matematico ellenico Hero (215 a.C.) troviamo il progetto di un dispositivo automatico a moneta per la distribuzione di acqua sacrificale, da usare nei riti di purificazione a cui si dovevano sottoporre i fedeli prima di accedere ai templi. Questo distributore era già completamente automatico: la moneta da cinque dracme, inserita in un'apposita feritoia, cadeva sul piattello di un bilanciere che sull'altro lato era collegato a una catenella con un piccolo tappo a pressione. Il peso della moneta adagiata sul piattello azionava il bilanciere che, spostandosi, permetteva la fuoriuscita dell'acqua dalla tavola. Nel frattempo la moneta era scivolata al fondo dell'urna. In questo modo il bilanciere effettuava il movimento opposto andando a richiudere la valvola: il distributore era quindi pronto per una nuova erogazione. Dopo Hero la storia della distribuzione automatica segna il passo. Bisognerà aspettare fino al XVII secolo, quando cominceranno ad affermarsi i primi distributori a moneta di tabacco da fiuto collocati all'interno dei pub inglesi. La genialità toccherà l'apice nel XIX secolo, trovando in Inghilterra un territorio particolarmente favorevole. Distributori di sigari, di francobolli, di fazzoletti, di whisky e altri generi di consumo troveranno molti consensi tra la gente. In Italia la distribuzione automatica fa il suo ingresso ufficiale nel 1953, quando a Milano giungono dagli Stati Uniti i primi dieci distributori di bottiglie della Coca Cola. Il primo distributore di caffè espresso sarà messo a punto nel 1962, si creeranno così i presupposti per un mercato inizialmente guardato con una certa diffidenza, ma che in seguito si amplierà a dismisura. Nel nostro Paese i fatturati della distribuzione automatica sono di tutto rispetto, anche se non raggiungono quelli degli Stati Uniti o del Giappone, in cui le vending machines hanno raggiunto un tale livello di affermazione da mettere addirittura in crisi i piccoli negozi. L'evoluzione commerciale va di pari passo con l'evoluzione tecnologica: oggi i distributori automatici non sono più i «cassoni» degli Anni 60, costituiti da una grande carrozzeria capace di contenere tutto un dedalo di cavi e tubi, con decine di relais elettromagnetici, pompe, microinterruttori, bilancini e arcaici sistemi per dare il resto. Attualmente i distributori hanno grandi capienze, per centinaia di prodotti, non vendono più solo il classico caffè, ma hanno una gamma praticamente illimitata: snack, bibite calde e fredde, oggetti di consumo sono i più diffusi, ma il mercato propone anche distributori di fiori, giornali, videocassette. Cuore di ogni distributore un microprocessore che permette di programmare le dosi dei prodotti utilizzati per caffè, té, cioccolata, brodo, i costi, i resti e tutta un'altra serie di indicazioni destinate a facilitare l'utente. Con l'ausilio di un piccolo terminale, gli operatori possono raccogliere attraverso una semplice connessione tutti i dati di consumo, ottenere statistiche, incassi. E anche ottenere la stampa della bolla d'accompagnamento per i prodotti alimentari da collocare all'interno del distributore. L'elettronica non si limita a facilitare l'uso e la gestione del distributore automatico, ma garantisce anche la qualità del prodotto. Oggi è sempre più raro che le vending machines offrano caffè, cioccolata e cappuccini di infimo ordine: appositi sensori controllati dal computer mantengono fissi i parametri qualitativi assicurando densità, cremosità e gusto dei prodotti. I sistemi di pagamento di ogni singolo distributore, collegati anch'essi al microprocessore, sono in grado di leggere la lega delle monete e così individuare eventuali falsi, danno il resto e possono essere impostati con molteplici valute. I distributori automatici collocati in aree di consumo continuo sono provvisti di lettore per tessere magnetiche, il che permette all'utente di acquistare i prodotti desiderati il cui costo sarà automaticamente sottratto dal patrimonio memorizzato nella tessera. Sono in fase di sperimentazione distributori automatici capaci di fornire lo scontrino fiscale e dotati di radio o tv per rendere più piacevole l'attesa del consumatore. Massimo Centini


Varani, sangue caldo Una sorpresa per lo zoologo
Autore: BENEDETTI GIUSTO

ARGOMENTI: ZOOLOGIA, ANIMALI
LUOGHI: ITALIA
NOTE: 003

POCHI animali al mondo abbiano il potere di colpire la fantasia quanto il Drago di Komodo. Per il nome innanzitutto, che evoca immagini mitiche sepolte nell'inconscio collettivo di quasi tutta l'umanità. Poi per il luogo in cui vive: una sperduta isoletta nel Mar della Sonda che, se da un lato fa pensare a quei terribili film di fantascienza giapponesi che tanto andavano di moda negli Anni 50-60, non manca certo, dall'altro, di una sua innegabile suggestione esotico-avventurosa. Infine per il fatto che, comunque, il Drago di Komodo resta pur sempre la più grossa lucertola oggi esistente. E quando si dice «grossa», lo si dice per davvero: un esemplare adulto supera i 3 metri e mezzo di lunghezza e sfiora i 150 chilogrammi di peso. Questo non ne fa sicuramente il gigante tra i rettili (parecchie specie di coccodrilli superano i 7 metri, e i grandi pitoni asiatici arrivano ai 10), ma ne fa comunque una bestia che non passa certo inosservata. Eppure, sino all'inizio del nostro secolo, gli zoologi non ne seppero nulla. Esistevano - è vero - le consuete dicerie degli indigeni: l'isola di Komodo era accuratamente evitata dai marinai e dai pescatori di Flores e di Sumbawa perché, a loro dire, era abitata dal «boeaaja darat» (= «coccodrillo di terra»), terribile e gigantesco animale simile a un drago, che non esitava ad aggredire gli uomini e a divorarli in un sol boccone; ma chi poteva dar credito alle superstizioni dei selvaggi? Ancora una volta, tuttavia, i presunti selvaggi dimostrarono di saperla lunga, e quando Ouwens, direttore dell'Orto Botanico di Buitenzorg (Giava), esplorò l'isola di Komodo nel 1912, ebbe modo di constatare che i «draghi» esistevano davvero, di studiare questa nuova specie, di battezzarla Varanus komodoensis e di catturarne quattro esemplari che furono portati vivi a Buitenzorg. Inutile dire che la cosa suscitò enorme interesse nel mondo scientifico, tant'è vero che nel 1926 il Museo di Storia Naturale di New York organizzò una spedizione con lo scopo di studiare il grande varano nel suo ambiente e di catturarne alcuni esemplari. I due esemplari che giunsero vivi negli Stati Uniti e che furono alloggiati allo Zoo del Bronx divennero rapidamente la principale attrazione del parco, e la voce popolare non tardò a definirli come «gli ultimi dinosauri». Il paragone faceva (e fa tuttora) rabbrividire gli zoologi: essi sanno bene che i varani non hanno nulla da spartire con i dinosauri, se non il fatto di appartenere entrambi alla classe dei rettili; un varano, in altre parole, non è più simile a un dinosauro di quanto uno scoiattolo lo sia a un mammouth. Eppure... anche in questo caso la voce popolare si è dimostrata in qualche modo profetica. Tutti sanno ormai che è in atto un processo di riabilitazione dei dinosauri, o almeno di una gran parte di essi: non più creature goffe, lente e stupide come si pensava fino a qualche anno fa ma, al contrario, animali assai dinamici e con un metabolismo piuttosto vivace, non dissimile da quello dei mammiferi. Un metabolismo altrettanto vivace caratterizza anche il Drago di Komodo; in condizioni normali, il suo comportamento non è diverso da quello di tutti gli altri rettili, che alternano movimenti lenti e pigri a lunghi periodi di immobilità. Ma quando passa all'azione, il nostro varano è capace di prestazioni sorprendenti: le sue prede di elezione sono i cervi porcini che, da bravi cervi, non si lasciano catturare con tanta facilità e costringono il varano a corse e inseguimenti che sarebbero impossibili per qualsiasi altro sauro. La cosa ha incuriosito una equipe di ricercatori giapponesi, che ha recentemente condotto alcune ricerche in merito e ha scoperto come il sangue del Drago di Komodo riesca ad arricchirsi di ossigeno in misura decisamente notevole. In condizioni di riposo la quantità di ossigeno imprigionata dalla sua emoglobina è pari a quella degli altri sauri: circa la metà rispetto a quella presente nel sangue dei mammiferi; ma all'atto della caccia il livello di ossigeno sale a valori addirittura superiori a quelli riscontrabili nell'organismo umano. Un alto livello di ossigeno nel sangue significa elevata attività metabolica, e un'elevata attività metabolica significa produzione di calore: il Drago di Komodo, in altre parole, sembra essere in grado di realizzare una condizione di omeotermia, al pari degli uccelli e dei mammiferi. La scoperta può apparire sorprendente, ma non lo è poi tanto; è vero che siamo abituati a considerare i rettili come animali «a sangue freddo», ma è anche vero che una certa qual forma di omeotermia era già stata rilevata da tempo nei grandi pitoni: allo Zoo di Parigi si era scoperto, fin dal 1841, che, quando le femmine si acciambellano sulle uova per covarle, la temperatura tra le spire supera di 6-7 gradi quella ambientale. In effetti, la parentela tra varani e serpenti è piuttosto stretta, più stretta di quella esistente tra i varani e le altre lucertole. Lo dimostrano i dati paleontologici, lo dimostrano numerose particolarità anatomiche, lo hanno dimostrato di recente alcune particolarità biochimiche: per esempio la sequenza di aminoacidi nell'emoglobina dei varani, e del Varano di Komodo in particolare, è straordinariamente simile a quella riscontrata nei pitoni e nei boa. Giusto Benedetti


ALIMENTAZIONE Suini riabilitati Oggi hanno meno grassi
Autore: CALABRESE GIORGIO

ARGOMENTI: ALIMENTAZIONE
ORGANIZZAZIONI: INN ISTITUTO NAZIONALE DELLA NUTRIZIONE
LUOGHI: ITALIA
TABELLE: T. Quantità di grassi permessi al giorno dai L.A.R.N.
NOTE: 004

E' ormai certo che, se vogliamo affrontare bene una giornata di lavoro, è necessario introdurre zuccheri. C'è però il problema del loro abbassamento a metà mattino e durante il tardo pomeriggio, perché il cervello li brucia molto velocemente e di conseguenza il nostro organismo resta senza «carburante». La cosa più logica che ci viene da pensare è di introdurre altri zuccheri, ma ciò, pur essendo giusto, non basta: introducendo solo carboidrati si ha sempre nel sangue una quota alta di insulina - l'ormone che riequilibra gli zuccheri nel sangue - per cui più ne mangiamo più facile è riavere queste ipoglicemie. La soluzione ideale potrebbe essere quella di associare fibre vegetali e una giusta dose di proteine animali, ad esempio un panino al prosciutto. I salumi però sono cibi grassi e quindi dannosi. In passato ci sono sempre stati pregiudizi, soprattutto da parte medica, sull'uso regolare dei salumi nella nostra alimentazioni. Ma recenti studi dell'Istituto Nazionale della Nutrizione (INN) chiariscono in proposito alcune questioni. Oggi siamo sicuri, ad esempio, che le carni suine e i salumi in genere possono essere inclusi anche in una dieta a basso contenuto di colesterolo. Infatti, grazie al miglioramento delle tecniche di allevamento e di lavorazione delle carni, si sono ottenuti animali più sani e carni più magre. L'INN ci conferma che oggi nelle carni suine si trovano, rispetto ad altri tipi di carne, sempre più grassi monoinsaturi (come quelli che abbondano nell'olio d'oliva) e polinsaturi (come quelli che si trovano negli oli di semi) e sempre meno grassi saturi. In particolare è diminuita la quantità di grasso di infiltrazione muscolare e di colesterolo. Una volta i suini venivano allevati in modo da avere otto centimetri di grasso di copertura e circa il 30 per cento di infiltrazione muscolare. Le nuove razze hanno ridotto il grasso di copertura a un paio di centimetri e quelle di infiltrazione muscolare al 2-4 per cento. E' stato riscontrato che nei salumi il contenuto in acidi grassi mono e polinsaturi sta continuamente aumentando, mentre, nel tempo, va riducendosi il cole sterolo. Etichettare, quindi, il grasso suino come «saturo» è un errore. Nel grasso suino il rapporto polinsaturi/saturi è pari a 0, 84, mentre, ad esempio, nelle margarine scende a 0,66 e nei formaggi va a 0,10-0,05. Se ne deduce che i salumi contengono quantità ridotte di acidi grassi aterogeni, cioè quelli che incrostano le arterie. Se vogliamo conoscere con sicurezza quanti grassi possiamo introdurre ogni giorno, senza rischiare alcuna malattia, basta riferirsi ai L.A.R.N., sigla che significa «livelli di assunzione raccomandati di nutriente» (vedere la tabella qui accanto). Il tabù colesterolo è ormai avviato sul binario dell'equilibrio. Le uova, i salumi, la carne e i crostacei, oltre ai grassi animali di condimento, per anni sono stati considerati pericoli pubblici. Il tentativo di Connor di collegare il contenuto di co lesterolo e di acidi grassi saturi degli alimenti in un unico indi ce di valutazione: C.S.I. (Chole sterol/saturated-fast index), per quanto imperfetto, ha il vantaggio di non colpevolizzare cibi come alcuni derivati della lavorazione della carne suina magra (che ha meno del 50 per cento del grasso totale sotto forma di grassi saturi e soltanto 62 mg di colesterolo su 100 grammi di parte edibile), le uova e i crostacei che, pur avendo una discreta quota di colesterolo, sono poveri di grassi saturi e ricchi di polinsaturi. L'uso da parte degli allevatori dei mangimi più magri ha fatto constatare negli ultimi 20 anni una variazione biochimica media del grasso delle carni suine. La presenza nei mangimi di farina di pesce e prodotti simili, con presenza significativa di acidi grassi polinsaturi, ha triplicato il tasso di acido lino leico (polinsaturo) è raddoppiato quello di acido oleico (monoinsaturo) nelle attuali carni suine e nei salumi. Persino il famigerato lardo, emblema per tutti noi di grasso saturo, secondo i dati dell'INN è composto: dal 24,30 per cento di grassi saturi; dal 23,72 per cento di grassi monoinsaturi; dal 28,77 per cento di grassi po linsaturi. Oggi, neppure i più temuti prodotti cotti di salumeria come la mortadella, i wurstel o lo zampone, hanno un contenuto lipidico superiore a quello dei formaggi, tuttora largamente consumati in Italia. C'è poi, nei salumi, un grasso saturo particolare, l'acido stea rico. Questo grasso costituisce una buona quota dei lipidi totali della carne suina, oltre che di altri tipi di carne. L'acido stearico ha la grande qualità di non far aumentare i livelli di colesterolo nel sangue. Per questo è stato inserito fra i grassi «buoni» e questa peculiarità è dovuta alla sua efficiente conversione in acido oleico, catalizzata dall'enzima Delta-9 Desaturasi. Un ultimo chiarimento: il rapporto fra grassi saturi e fe gato. Di fronte a un caso di steatosi epatica, per abitudine, si proibiscono i «grassi» in generale, cosa peraltro impossibile da realizzare anche mangiando solamente cibi normali, che li contengono fra le fibre muscolari, i cosiddetti «grassi nascosti». Le malattie del fegato di questo tipo nascono da un eccesso di calorie o da una denutrizione marcata, oppure da un eccesso di superalcolici o di farmaci e non certo per una specifica azione dei grassi animali. Gli unici elementi presenti nei salumi che possono creare qualche problema a chi soffre di fegato sono le spezie, perché queste in giusta dose stimolano le secrezioni digestive ma a dosaggi alti diventano dannose per il fegato. Giorgio Calabrese


PREVENZIONE CARDIOVASCOLARE Rapporto Usa Colesterolo, meno allarme
Autore: PELLATI RENZO

ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA
NOTE: 004

IN BREVE Stazione spaziale a piccoli passi Si è svolto in questi giorni a Lacco Ameno il nono simposio «Columbus», dedicato alla stazione spaziale internazionale in progetto da parte americana, di cui «Columbus» rappresenta il segmento europeo. Tra i partecipanti, oltre ai rappresentanti dell'Agenzia spaziale italiana, Ernesto Vallerani della Alenia, Heinz Stower dell'agenzia spaziale tedesca Dara e il presidente del Mars, il centro napoletano per la ricerca sulla microgravità. Un tema emerso dall'incontro è la necessità di espandere la collaborazione ai Paesi dell'Est con un effettivo scambio economico e di conoscenze.Prevedere le onde nel Mediterraneo Il sistema di previsione del moto ondoso nel Mediterraneo in funzione al Centro meteorologico europeo di Reading (Inghilterra) verrà presentato venerdì mattina dal Cnr nella sua sede di piazzale Aldo Moro a Roma. Premio Europeo in ricordo di Amaldi La Fondazione Edoardo Amaldi di Piacenza e la Società europea di Fisica hanno istituito un premio europeo per il migliore libro di fisica, intitolandolo a Edoardo Amaldi, scomparso quattro anni fa. Possono concorrere i testi di fisica per studenti dai 14 ai 18 anni pubblicati in Paesi affiliati alla Società europea di Fisica. Sono in palio 20 mila Ecu, 16 mila dei quali per l'autore e 4 mila per l'editore. Scadenza, 30 settembre; inviare in duplice copia alla Fondazione Amaldi, via Mazzini 62 - 29100 Piacenza. Il Centro Paoletti compie vent'anni Il ventennale del Centro Grossi Paoletti dell'Ospedale Niguarda di Milano viene celebrato in questi giorni ricordando alcuni significativi risultati acquisiti e con il simposio «The lipid Triad and cardiovascular diseases». Nel 1974 veniva scoperta la proteina chiamata poi Al-Milano in grado di proteggere le arterie. Al Centro Grossi Paoletti si è ora riusciti a riprodurre la proteina e a sperimentarne l'efficacia sugli animali, dimostrandone una reale capacità di prevenzione dell'arteriosclerosi. Un'altra ricerca condotta al Centro Paoletti ha condotto a definire una dieta basata sulle proteine della soia. In tutto i lavori pubblicati sono circa 200. L'Istituto Nazionale per la Salute di Washington (Nih) ha diffuso qualche settimana aggiorna le linee guida per la prevenzione della malattia coronarica, in particolare attraverso il controllo del colesterolo. Rispetto alle precedenti raccomandazioni - in cui veniva segnalata una situazione di rischio quando il colesterolo totale superava i 200-240 mg - oggi gli americani prestano maggior attenzione alle condizioni individuali. Per quanto riguarda l'età, bisogna distinguere fra maschi e femmine. Nel sesso femminile, un elevato tasso di colesterolo Ldl (oltre i 160 mg) si associa a un aumento del rischio coronarico (essendo aterogeno) dopo i 55 anni (cioè dopo la menopausa) e quindi va trattato sia con la dieta sia con mezzi terapeutici. L'uso di estrogeni in post- menopausa può consentire di evitare il trattamento farmacologico. Nei maschi l'età per iniziare un trattamento è abbassata a 45 anni. In precedenza non si prestava attenzione al colesterolo Hdl. Oggi invece viene introdotto il livello decisionale ai 35 mg di Hdl. Sotto questo limite il valore va considerato basso (in altre parole, preoccupante per altre malattie: tumori e malattie respiratorie). Sopra i 60 mg viene considerato come fattore positivo, dato che si tratta di colesterolo «buono», non aterogeno). Chi ha già avuto incidenti cardiovascolari (maschi e femmine) deve abbassare il colesterolo aterogeno Ldl a 100 mg. Per gli anziani, il trattamento va effettuato in caso di malattia coronarica conclamata o di fattori di rischio multipli. I fattori di rischio da considerare, oltre al colesterolo Ldl, sono: fumo di sigaretta, ipertensione, diabete mellito, a cui va aggiunto il sovrappeso marcato (oltre il 15 per cento del peso ideale) e uno stile di vita eccessivamente sedentario. Per la distribuzione dell'adipe, vale sempre il concetto che l'aumento di tessuto adiposo nelle natiche (obesità gluteo-femorale) è meno rischioso per la salute dell'accumulo in sede addominale. L'obesità accentuata nell'addome può favorire la comparsa di malattie metaboliche e tassi elevati di colesterolo Ldl. Recentemente il «New England Journal of Medicine» ha pubblicato uno studio effettuato dal gruppo del professor Willet (Università di Boston) su 90.000 individui di sesso maschile e femminile in cui viene documentata una protezione dall'infarto del 20 per cento della popolazione quando è presente una maggior assunzione di vitamina E. Il risultato è più evidente quando i soggetti consumano integratori dietetici a base di vitamina E, oltre al normale apporto alimentare. Come mai la vitamina E agisce come un fattore di protezione per le malattie cardiovascolari? Secondo Rodolfo Paoletti, presidente della Nutrition Foundation of Italy, le lipoproteine Ldl quando sono ossidate (tossici ambientali, tabacco, diete iperlipidiche) diventano sostanze estranee all'organismo e creano problemi: invece di essere captate ed eliminate dalle cellule della parete arteriosa dell'endotelio (secondo i normali meccanismi), originano le «cellule schiumose», che poi formano la placca aterosclerotica. La vitamina E agisce come antiossidante: è quindi possibile che questa sostanza, e di altre con analogo effetto (betacarotene, vitamina C) possa rallentare lo sviluppo della malattia aterosclerotica nell'uomo. Renzo Pellati


DIAGNOSI PRECOCE Inizia con un bruciore in mezzo al petto... Dall'«esofago di Barrett» può svilupparsi un tumore maligno
Autore: FERRARIS ROBERTO

ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA
NOTE: 004

NEGLI ultimi tempi gli oncologi hanno dedicato crescente attenzione all'«esofago di Barrett», affezione che prende il nome dal chirurgo che per primo la descrisse nel 1950. La ragione dell'aumentato interesse deriva dal fatto che l'esofago di Barrett è condizione predisponente all'adenocarcinoma dell'esofago, neoplasia in allarmante incremento nell'ultimo decennio: il recente congresso Usa di gastroenterologia (Boston, maggio '93), ha confermato per l'adenocarcinoma esofageo l'aumento relativo più elevato fra tutti i tumori conosciuti stando ai registri nordamericani 1976-1987. L'esofago di Barrett è una «metaplasia», è cioè caratterizzato dalla sostituzione del normale epitelio di rivestimento esofageo con una mucosa che assume le caratteristiche della normale mucosa gastrica e/o intestinale (metaplasia gastrica o intestinale). La causa della trasformazione risiede verosimilmente in un abnorme processo di riparazione di lesioni erosive (esofagite) a loro volta provocate dalla malattia da reflusso gastroesofageo, cioè dall'anomalo passaggio retrogrado del contenuto acido dello stomaco nell'esofago. Non si sa perché e in quale misura la riparazione del processo infiammatorio esofagitico avvenga verso la normalità o verso la metaplasia di Barret. Inoltre non conosciamo i fattori che determinano la instaurazione di un tipo istologico di metaplasia piuttosto che di un altro (gastrico piuttosto che intestinale); saperlo sarebbe utile in quanto le potenzialità tumorali dei due tipi istologici sono molto diverse. La frequenza con cui si presenta l'esofago di Barrett è ancora incerta. Nel 1988, allo scopo di valutare l'epidemiologia dell'esofago di Barrett in Italia e l'incidenza di adenocarcinoma in tale affezione, è sorto su iniziativa dell'Istituto Nazionale per la Ricerca sul Cancro di Genova un gruppo policentrico nazionale denominato Gospe (Gruppo operativo per lo studio delle precancerosi esofagee) del quale fa parte il centro Endoscopia Digestiva dell'Ospedale Mauriziano di Torino. Si è ottenuta così per la prima volta una fotografia della situazione italiana (dati preliminari pubblicati su «International Journal of Cancer» nel 1991). La frequenza dell'esofago di Barrett è risultata di 7,7 casi ogni 1000 persone. In una città di un miione di abitanti come Torino, quasi 8000 persone sono potenzialmente affette da esofago di Barrett. Alterazioni cellulari precancerose (displasie) sono state riscontrate in 8 casi di esofago di Barrett (3,5% del totale della nostra casistica), tutti del tipo istologico intestinale. Al controllo endoscopico negli anni successivi alla diagnosi, è stata riscontrata in due pazienti su 120 la comparsa di adenocarcinoma, sempre nell'ambito del tipo istologico intestinale di esofago di Barrett (71 pazienti). In entrambi i casi la neoplasia è stata diagnosticata in fase iniziale e curata con laser-terapia endoscopica senza ricorrere a intervento chirurgico. Il rischio di sviluppare un tumore nell'esofago di Barrett è 60 volte più alto rispetto alla popolazione generale e 120 volte più alto se si considera il solo tipo intestinale dell'esofago di Barrett. Importante per la prevenzione è un controllo endoscopico annuale (con biopsie) dei pazienti con esofago di Barrett, speccie se del tipo istologico intestinale. Come ci si può accorgere di essere affetti da esofago di Barrett? Sintomi frequenti sono la pirosi restrosternale (bruciore in sede toracica) e il rigurgito, seguito dalla difficoltà al transito esofageo degli alimenti ma va ricordato che il 40% dei pazienti da noi esminati non presentava alcun sintomo specifico di reflusso gastro-esofageo al momento della diagnosi. Più raramente si possono avere manifestazioni atipiche, come asma bronchiale notturna, non allergica, tosse cronica specie notturna, laringiti e laringoplasmi di difficile interpretazione, granulomi delle corde vocali, dolore toracico non di origine cardiaca. Non esiste una terapia specifica ma si ritiene utile mantenere stabilmente sotto controllo il reflusso gastro-esofageo con antisecretivi gastrici e farmaci che aumentano la capacità di svuotamento gastrico ed esogfageo. Se la sintomatologia non recede con terapia medica, può essere necessario il ricorso ad intervento chirurgico antireflusso. L'effetto della terapia sui sintomi è bene documentato, ma una regressione dell'esofago di Barrett è stata dimostrata solo sporadicamente. Di recente si è proposta l'ablazione della mucosa di Barrett con laser-terapia endoscopica; ma occorrono ulteriori sperimentazioni e conferme. Le norme generali che vengono consigliate ai pazienti con esofago di Barrett sono rivolte a evitare il reflusso gastro-esofageo: dieta per il controllo del peso corporeo con pasti piccoli specie alla sera, attenzione alle sostanze favorenti il reflusso (cioccolato, alcolici, fumo e caffè), alzare la testata del letto in modo da consentire una favorevole situazione anti-reflusso durante il sonno. Roberto Ferraris


POLITICA DEL TERRITORIO Euroecologia Le norme Cee per la valutazione dell'impatto ambientale segnano una svolta nella protezione delle risorse naturali
Autore: BIANCOTTI AUGUSTO

ARGOMENTI: ECOLOGIA
ORGANIZZAZIONI: CEE
LUOGHI: ITALIA
NOTE: 003

PROBABILMENTE gli esperti della Comunità Europea non si aspettavano tanto successo quando emanarono la Direttiva Comunitaria 85/377 sulla Valutazione di impatto ambientale (in sigla, come ormai si usa per brevità, «Via»). La normativa Cee sulla «Via», alla quale tutti i Paesi membri si sono oggi adeguati, si basa su due punti-cardine. Il primo dice che la migliore politica ecologica consiste nell'evitare fin dall'inizio le alterazioni ambientali piuttosto che combatterle dopo. Il secondo sostiene che in tutti i processi di modificazione del territorio occorre tenere conto, fin dalle prime fasi, dell'eventuale ripercussione sull'ambiente. In una parola, qualsiasi progetto di una «grande opera» deve elaborare insieme con i calcoli sulla sua costruzione e sul suo funzionamento anche tutte le proposte per renderla compatibile con l'ambiente. Così, per esempio, oggi devono sottoporsi a «Via» le ferrovie ad alta velocità che stanno per essere progettate, le grandi centrali termoelettriche e nucleari, i porti e gli aeroporti, gli impianti chimici, le discariche. Una volta stabilita l'opera da realizzare occorre immediatamente identificare quali possano essere gli impatti negativi, e poi valutarli. Nella costruzione di un inceneritore di rifiuti - per esaminare un caso concreto - sarà necessario tenere conto della direzione del vento per controllare dove saranno trascinati i fumi, ma anche la probabilità e l'entità di piene che potrebbero allagare il forno in funzione e causare incidenti gravissimi. Poiché all'inceneritore ogni giorno arrivano tutti gli autocarri che trasportano i rifiuti, occorre ponderare le conseguenze di questo traffico aggiuntivo sui paesi attraversati quanto a inquinamento da gas di scarico e rumori, e via via risalendo i fili sempre più sottili, ma tenaci e fastidiosi che l'opera tesse sul territorio come una ragnatela. A parità di altre condizioni è meglio costruire una fabbrica su suoli poveri piuttosto che su altri fertili: il consumo di un bene prezioso, il terreno agrario, diventa più limitato. Probabilmente un'operazione di questo tipo effettuata prima della costruzione dell'aeroporto di Torino Caselle ne avrebbe consigliato lo spostamento sulla vicina Vauda, un'area di sterili terre argillose, certo meno produttive della fertile piana della Stura di Lanzo dove invece adesso si allungano le piste. La scelta del sito della Malpensa fu più oculata (ma per volontà precisa oppure per caso?), visto che copre una campagna da sempre ritenuta poco produttiva. Se l'identificazione e la valutazione preventiva della direzione delle correnti marine sotto costa e del conseguente trascinamento della sabbia lungo il litorale avesse preceduto sistematicamente la costruzione dei porti turistici, sarebbero stati evitati gravi danni agli arenili di tutta Europa, Italia in testa. Una diga foranea mal progettata e peggio localizzata in pochi anni sovverte forma e consistenza delle spiagge circostanti, con pesanti insulti non solo al paesaggio, ma anche all'economia. Nella normativa della Comunità Europea l'ultima fase del processo di «Via» deve corrispondere alla presentazione dei risultati alla popolazione. E' un principio di grande democrazia e di fiducia nella gente, che finalmente ha da fare con decisioni trasparenti e non prese in segreto all'insaputa dei più. Il cambiamento così repentino rispetto al costume di prima provoca qualche disorientamento. L'esposizione dei «pro» e dei «contro» dell'opera, dei rischi ad essa connessi e dei provvedimenti che verranno presi per eluderli può ingenerare in qualcuno confusione e dubbi eccessivi. Eppure le stesse persone forse convivono in stretta vicinanza con altri manufatti assai più pericolosi, ma non ritenuti tali perché quando vennero costruiti i rischi connessi non vennero notificati. Esistono molte vecchie discariche ormai dimenticate. Alcune di queste vennero allestite qualche anno fa, nel decennio '80-'90, quando le piogge erano particolarmente scarse. Le falde sotterranee, sottoalimentate, si abbassarono molto. In qualche caso le fosse ove dovevano essere ospitate furono scavate troppo profonde, senza valutare che il livello di falda avrebbe potuto in seguito risalire e invadere lo scavo. E' bastato un anno umido, il '92 per l'appunto, perché il livello piezometrico, cioè il «pelo» dell'acqua sotterranea, si sollevasse con il rischio di gravi inquinamenti. L'identificazione del tipo di impatto, e un'accurata valutazione delle probabilità delle oscillazioni delle falde connesse a variazioni climatiche avrebbe consigliato procedure più prudenti. Oggi la progettazione delle discariche è preceduta da studi severi, certo più accurati che non in passato, ma la diffidenza e l'ostilità sono crsciute in misura inversamente proporzionale all'impegno di previsione e di prevenzione. Le conseguenze problematiche di un passato dissipatore di beni ambientali rendono la gente guardinga. Per ora le procedure della «Via» sono volte a ridurre gli effetti negativi. Con l'affinamento di metodi e tecniche, in futuro probabilmente tutto l'impatto nocivo potrà essere eliminato. In qualche caso l'intervento umano riesce anzi già a migliorare gli equilibri ecologici complessivi. Segno che finalmente la direzione presa è quella giusta. Augusto Biancotti Università di Torino




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio