TUTTOSCIENZE 30 dicembre 98


SCIENZE DELLA VITA. LE LENTICCHIE Bibliche e nutrienti Ma in Italia cala la produzione
Autore: ACCATI ELENA

ARGOMENTI: BOTANICA, ALIMENTAZIONE
LUOGHI: ITALIA

A molti le lenticchie - tradizionale piatto portafortuna di Capodanno - faranno venire in mente il capitolo 25 del Genesi. Giacobbe aveva cotto una minestra con dei legumi particolari, quando sopraggiunse suo fratello sfinito dai campi che vedendo quella meraviglia calda e fumante gli disse: "Lasciami mangiare un po' di quella minestra rossa". Al che Giacobbe gli chiese di vendergli la sua primogenitura. Nella famiglia patriarcale il primogenito deteneva una posizione di privilegio che lo collocava al primo posto tra gli altri fratelli, facendolo succedere al padre come capofamiglia e ricevendo una doppia parte di eredità. Nel caso di gemelli come Esaù e Giacobbe aveva la primogenitura chi era venuto alla luce per primo ma il primogenito poteva cedere il suo privilegio, come avvenne per Esaù. A tal punto Esaù aveva disprezzato la primogenitura da cederla per un piatto di lenticchie, rinunciando ai doni soprannaturali che vi erano connessi (la discendenza spirituale di Abramo). La lenticchia appare già nei dipinti delle tombe dei faraoni. Al Louvre sono esposte tre lenticchie provenienti da tombe egizie risalenti a 2000 anni fa. Catone insegnò ai Romani a coltivarle e a condirle con l'aceto. Anticamente gli ebrei mangiavano lenticchie quando erano in lutto e anche nella Toscana rinascimentale "cogliere lenticchie" era una metafora della morte e della sepoltura. Da noi, invece, essendo i semi simili a tante piccole monete, si è diffusa l'abitudine di mangiarle all'inizio dell'anno in quanto sarebbero propiziatrici di prosperità e benessere. La lenticchia, Lens esculen ta, una delle piante più anticamente coltivate, trovata in reperti antichi di 6-7 mila anni insieme con semi di cereali in diversi Paesi del Medio Oriente, è una leguminosa dotata di alto valore nutritivo, grazie al contenuto in proteine che può raggiungere anche il 30 per cento. Contiene inoltre parecchie vitamine, specie del gruppo B. Nonostante tutte queste buone qualità, in Italia e in Europa la superficie coltivata con questa leguminosa è progressivamente e rovinosamente diminuita; per contro si importa granella di fava, cece e lenticchia per trecentomila tonnellate all'anno, con un forte esborso valutario. In altre parti del mondo, ad esempio in India, la lenticchia occupa un posto importante e in Pakistan è utilizzata come sovescio contribuendo al miglioramento della deficienza di azoto dei terreni dove pascolano le pecore, la cui produzione di lana è apparsa strettamente correlata con l'attività dell'azoto fissatrice della lenticchia. In alcune nazioni è utilizzato anche l'amido di lenticchia, utile nell'industria tessile per la stampa dei tessuti, poiché la sua viscosità rimane inalterata in un'ampia gamma di temperature. I motivi più immediati della vistosa riduzione delle leguminose da granella in Italia sono attribuiti alle basse rese, alla mancata meccanizzazione, alla diffuione di temibili parassiti, al cambiamento del modello alimentare e delle abitudini sociali degli italiani. Tuttavia alla decadenza di queste culture hanno contribuito anche gli indirizzi di politica agraria per effetto dei quali la ricerca le ha trascurate quasi completamente. Non si comprende altrimenti la diffusione che la fava ha invece in Inghilterra dove non aveva le stesse tradizioni del nostro Paese, ma la ricerca ha avuto un peso e un ruolo determinanti nell'affermazione della coltura. La consapevolezza di tutti questi problemi ha indotto il ministero delle Politiche Agricole a dare vita a un progetto dal titolo "Ricerche ed interventi per il miglioramento quantitativo e qualitativo delle leguminose da granella", progetto che ha interessato soprattutto istituti di ricerca dell'Italia meridionale. Elena Accati Università di Torino


SCIENZE FISICHE. AERONAUTICA Come volare in modo più pulito Con la guida satellitare e risparmiando carburante
Autore: RAVIZZA VITTORIO

ARGOMENTI: ECOLOGIA, INQUINAMENTO, ATMOSFERA
LUOGHI: ITALIA, EUROPA, ITALIA

E' solo una bianca scia di vapore d'acqua con la quale gioca il vento delle altissime quote, sfrangiandola e scompigliandola, mentre il jet che l'ha generata si allontana nel cielo azzurro dei 10-12 mila metri; eppure, nella sua levità, questa nube artificiale contribuisce all'effetto serra. Spesso le striature candide, formate dal vapore acqueo che si condensa intorno agli scarichi dei reattori a -50 gradi, durano pochi secondi ma talvolta danno il via alla formazione di vere e proprie sottili nubi che velano il sole per ore. Il fenomeno è particolarmente frequente in inverno nelle regioni temperate o fredde. Secondo rilevazioni recenti, citate in uno studio di "Rivista Aeronautica", organo della nostra Aeronautica Militare, le scie di condensazione degli aerei a reazione provocano sull'Europa centrale un aumento della nuvolosità pari allo 0,4%, sufficiente a causare, mediante l'effetto serra, un aumento della temperatura terrestre di 0,05oC. Le sottili nubi lasciano filtrare la luce solare verso terra ma impediscono il passaggio della radiazione termica (raggi infrarossi) emessa dal suolo, che perciò resta imprigionata appunto come in una serra. E questo è solo uno dei problemi ambientali creati dal traffico aereo. Dai primi grandi reattori, i Dc-8 e i B-707 con le loro pesanti scie di fumo nero, la tecnologia ha fatto passi da gigante e i motori di oggi consumano molto meno e sono molto più puliti di quelli di trent'anni fa; nel frattempo, però, il traffico è enormemente cresciuto ed è previsto addirittura che raddoppi entro il primo decennio del prossimo secolo; nel 2005 ogni giorno mille grossi aerei attraverseranno l'Atlantico. L'emissione di inquinanti non è sempre uguale in tutte le fasi del volo, nè lo è la permanenza nell'atmosfera e nei diversi strati di questa. Giocando su queste variabili è possibile individuare le strategie per contenere il danno all'ambiente. In rullaggio i jet al minimo emettono prevalentemente anidride carbonica, ossido di carbonio e particelle incombuste; negli aeroporti molto affollati, dove gli aerei sono costretti ad attendere il decollo avanzando in lunga fila indiana, questo tipo di inquinamento può diventare insostenibile mentre se il decollo avviene entro pochi minuti dalla messa in moto non è molto maggiore di quello provocato da un paio di grossi autotreni. Con i motori alla potenza massima durante il decollo o nel volo livellato, prevalgono gli ossidi di azoto mentre anidride carbonica, ossido di carbonio e fumi diminuiscono drasticamente. I gas alle basse quote sono rapidamente dispersi e diluiti dai venti e dalle perturbazioni ma a mano a mano che si sale la dispersione diventa più lenta. La maggior parte degli aerei a reazione vola tra gli 8 e i 13 mila metri, cioè al limite della troposfera o addirittura nella stratosfera (la quota dello strato di separazione, la tropopausa, varia secondo la latitudine e la stagione). I motori dei nuovi velivoli, come gli Airbus 330 e 340 o il Boeing 777, hanno raggiunto punte di efficienza e di riduzione dei consumi notevolissime e ulteriori miglioramenti si possono attendere nell'immediato futuro. Airbus Industrie ha attrezzato 5 quadrireatori A-340 con una strumentazione con cui ha misurato la concentrazione di ozono e di vapore acqueo nell'atmosfera; i dati raccolti sono stati esaminati dalla Academie de France la quale ha concluso: "Fino ad ora non vi è prova che che gli aerei abbiano un impatto preoccupante" sulla parte alta dell'atmosfera. Un'importante percentuale di inquinamento potrà essere eliminata con il nuovo sistema di navigazione satellitare (Global Navigation Satellite System o Gnss) che avrà, fra l'altro, l'effetto di " raddrizzare" e quindi accorciare le rotte che oggi, essendo legate alle radioassistenze a terra, sono delle spezzate; o con l'unificazione del controllo del traffico aereo in Europa; si calcola che l'inefficienza di quello attuale, estremamente frazionato, causi un consumo extra di carburante (e quindi inquinamento) del 6-12%. I supersonici volano per la maggior parte del tempo nella stratosfera a 18-20 mila metri. E' qui, dove il rimescolamento dell'aria è lentissimo, che gli inquinanti possono resistere intatti per molto tempo. Secondo lo studio citato nella troposfera il traffico aereo aumenta la concentrazione di ossidi di azoto del 10-20% mentre arriva a raddoppiarla nella stratosfera. Qui l'azoto agisce come catalizzatore, in pratica da innesco, nel complesso procedimento di distruzione dell'ozono. Alla fine degli Anni 60, con l'entrata in servizio del Concorde e del sovietico Tupolev Tu- 144 sembrò aprirsi l'era del trasporto aereo supersonico di massa. L'aumento del costo del carburante, la "guerra" decretata dagli Stati Uniti al supersonico, l'ostilità provocata dai "bang" dei nuovi velivoli fecero però naufragare queste previsioni. Dal punto di vista dell'ecologia si può dire che sia stata una fortuna. Di una nuova generazione di supersonici si riparla ogni tanto ma le compagnie aeree non appaiono, per ora, troppo interessate. Tuttavia i costruttori non demordono e si tengono pronti; la Boeing, numero uno mondiale, continua gli studi insieme con aziende russe utilizzando il Tu-144, da tempo fuori servizio, e insieme con la Sukhoi porta avanti un progetto di supersonico d'affari da 8-10 posti denominato Supersonic Business Jet. Vittorio Ravizza


EVOLUZIONE DEL CALENDARIO Da Giulio Cesare al computer I tentativi per accordare anno astronomico e civile
Autore: BORATTO FILIBERTO

ARGOMENTI: METROLOGIA, CALENDARIO
LUOGHI: ITALIA

CHE cosa può unire Giulio Cesare, un Papa del '500, un calcolo astronomico e i nostri computer? Tutto ebbe inizio nel 48 a.C., quando Giulio Cesare, conquistato l'Egitto, consultò l'astronomo alessandrino Sosigene per riformare il calendario romano, che si era rivelato impreciso. Il nuovo calendario, denominato giuliano in onore del condottiero, fu adottato nel 46 a.C.. L'impostazione era già molto simile a quella attuale, con un anno solare costituito da 12 mesi e 365 giorni; un giorno aggiuntivo era inserito ogni 4 anni, per far sì che l'anno civile coincidesse approssimativamente con l'anno astronomico. In questo modo sarebbe stato allineato il tempo " civile" con il tempo degli eventi astronomici. Questa impostazione del calendario è peraltro più antica: risale probabilmente al grande astronomo greco Aristarco di Samo (III secolo a.C), sul quale si suppone abbiano avuto influenza gli antichi astronomi babilonesi. Con la riforma, l'anno civile medio presso i Romani durava 365,25 giorni (infatti facendo il calcolo per quattro anni si ottiene: 365più365più365più366 = 1461 giorni in 4 anni; 1461: 4 = 365,25 giorni). Quanto dura invece l'anno astronomico (chiamato anno tropico e inteso come periodo intercorrente tra passaggi successivi del sole nella stessa posizione del cielo)? Qui la questione si fa più complessa, e coinvolge la precisione della misura, il metodo stesso della misurazione e il fatto che la durata dell'anno, a causa di effetti gravitazionali nel sistema Sole-Terra-Luna, varia lentamente nei secoli. Possiamo affermare, con qualche approssimazione, che la durata dell'anno tropico, che era di 365, 24242 giorni nel 2000 a. C., sarà di 365,24219 nell'anno 2000 d. C. Adottiamo quest'ultima misura come quella giusta e calcoliamo ora gli scostamenti che si verificavano con gli anni civili della riforma giuliana. Poiché la differenza tra le due misure è pari a 365,25 - 365,24219 = 0,00781 giorni ogni anno, si ricava che dopo 128 anni si andava incontro al divario di un intero giorno (128 x 0, 00781 = 1 giorno). Di questa divergenza erano al corrente i Papi del '500, anche per la conseguenza, non certo secondaria per la liturgia cristiana, che la Pasqua non cadeva più a primavera, ma slittava verso l'estate. Anche il Concilio di Trento (1545-1563) si era occupato della questione e aveva prescritto una correzione risolutiva. Papa Paolo III costituì una commissione di eminenti scienziati e prelati con il fine di dare indicazioni utili alla riforma del calendario e fornire valutazioni sulle varie soluzioni proposte. A metà del '500 viveva a Roma, alla corte papalina, un medico-scienziato originario della Calabria, Luigi Giglio (o Lilio, latinizzato in Aloisius Lilius), che con suo fratello e altri conterranei partecipava a un cenacolo di intellettuali e scienziati denominato Accademia Notti Vaticane. Giglio si interessò al problema della riforma del calendario e, grazie anche agli studi di astronomia effettuati presso l'Ateneo di Napoli, formulò una ipotesi di riforma molto completa, corredata da calcoli e dati astronomici. Sfortunatamente Luigi Giglio morì nel 1575, senza poter vedere la sua ipotesi di riforma convalidata dalla commissione pontificia. Il fratello di Luigi, Antonio Giglio, continuò a far conoscere e a perorare il lavoro del congiunto e nel 1577 lo presentò ufficialmente al Papa Gregorio XIII. Nel 1580 la commissione approvò il progetto Giglio; il 24 febbraio 1582 Gregorio XIII promulgò ufficialmente la riforma del calendario, che da allora reca il nome di calendario gregoriano, e che venne adottato in tutti i Paesi occidentali. La riforma prevista dal Giglio, oltre a sistemare sino a quella data il disallineamento tra calendario astronomico e calendario civile, con l'eliminazione di 10 giorni di calendario, prevedeva questo modo di procedere: l'anno corrispondente a multipli di 4 è bisestile, a meno che l'anno corrisponda al secolo intero (1700, 1800 ecc.); in tale caso l'anno non è bisestile, a meno che l'anno corrisponda a multipli di 400 (1600, 2000...); in questo caso l'anno è bisestile. Così facendo la durata media dell'anno civile sarebbe divenuta pari a 365 più 97/400 giorni, ossia 365,2425 giorni. Questa durata corrisponde ad una differenza di 0,00031 giorni, pari a 26,784 secondi, con l'anno tropico; pertanto si accumulerà l'errore di 1 giorno nell'arco di 3225 anni. Come si vede il metodo adottato dal calendario gregoriano è grandemente preciso e idoneo per tutti gli usi civili per molti secoli a venire. E veniamo ai giorni nostri: perché, già un anno fa, "Tuttoscienze" ha lanciato l'allarme sul possibile "bug" (errore di programmazione) di alcuni sistemi operativi di elaboratori per quanto riguarda la data del 29 febbraio 2000? "Tuttoscienze" faceva giustamente rilevare che la sparizione di un giorno, nel calendario insito nel sistema operativo dei computer, potrebbe causare gravi anomalie all'anagrafe (e ancor più ai voli aerei); come se non bastasse, questo possibile errore va a sommarsi quasi in contemporanea alle modifiche dei programmi messi in atto in Europa per l'introduzione dell'Euro (con l'aggravante in Italia dell'introduzione delle cifre decimali) e ai noti problemi dovuti al cambio di secolo, anch'esso oggetto di possibile errore. In sostanza, a causa della lontananza temporale di un fenomeno previsto ogni 400 anni, i programmatori avevano omesso di inserire tale eccezione nel conteggio degli anni bisestili, limitandosi alle prime due prescrizioni sopraindicate (regola dei 4 anni e regola dei 100 anni). Come conseguenza di questa omissione, l'anno 2000, essendo considerato multiplo di 100, non era conteggiato come bisestile e il calendario interno del computer sarebbe passato dalla data del 28 febbraio 2000 al 1 marzo 2000, saltando proprio l'ormai famigerato 29 febbraio 2000. Sia la problematica del passaggio di secolo sia l'omissione della data del 29 febbraio 2000 sono conseguenze di un distorto concetto di ottimizzazione dei codici dei programmi, un concetto ben presente agli albori dell'informatica, che si può riepilogare nelle asserzioni: a) i codici lunghi occupano memoria costosa e richiedono più tempo per essere eseguiti; b) tutto ciò che funziona (apparentemente) bene richiedendo codice più corto, sia il benvenuto. Mentre l'affermazione a) è condivisibile, l'enunciato b), applicato indiscriminatamente, può portare a errori non immediatamente riscontrabili. Un esempio è l'indicazione degli anni con le sole due cifre finali; questo fatto dà luogo a problemi di ambiguità interpretativa nel passaggio del secolo. Altro esempio è la prevista correzione del calendario gregoriano nel corso dei secoli, così meticolosamente studiata dai nostri antenati, che hanno dimostrato più accuratezza e preveggenza di quanto ne abbia avuta la moderna informatica. In assenza di notizie più certe dalle case di software, risulta che ai sistemi operativi contenenti l'errore del 29 febbraio siano state applicate delle patch (pezze) per la modifica delle parti errate dei codici. Filiberto Boratto


SCENARI 2000 Dal Sole l'energia del prossimo secolo L'idrogeno potrà sostituire i carburanti fossili
Autore: MASSAGLIA SILVANO

ARGOMENTI: ENERGIA, ECOLOGIA
LUOGHI: ITALIA, EUROPA, ITALIA
TABELLE: T. Le fonti di energia nell'Unione Europea

NEL secolo che sta finendo il progresso scientifico e tecnologico ha compiuto passi straordinari in molti campi; in quello energetico però la maggior parte del fabbisogno viene ancora oggi coperta dai combustibili fossili: petrolio, carbone e gas naturale. Il loro successo è dovuto alla facilità ed economicità di estrazione, di raffinazione e di trasporto. Per contro, gli idrocarburi sono inquinanti, sono concentrati in poche regioni del globo con i conseguenti problemi politici e non sono rinnovabili. Che cosa succederà nel prossimo secolo? Tra le fonti di energia rinnovabili e pulite, quella solare occupa un posto di primo piano. L'energia dell'irradiazione solare è di gran lunga superiore ai bisogni presenti e futuri dell'umanità. La caratteristica che ne rende difficile lo sfruttamento è che arriva sulla Terra in forma diffusa e non concentrata. Per fare un paragone termodinamico, è una forma di energia ad alta entropia. Tra i diversi metodi per trasformare la radiazione solare in forme utili, molto promettente è la trasformazione diretta in energia elettrica con celle fotovoltaiche. Le celle fotovoltaiche sono pannelli di materiale semiconduttore che, irradiati dalla luce del sole, convertono questa direttamente in corrente elettrica continua a basso voltaggio. L'efficienza delle celle fotovoltaiche dipende in modo considerevole dalla condizioni dell'irraggiamento: nuvolosità, nebbia, altezza del Sole nel cielo, periodo dell'anno. Semplificando molto, si possono ottenere, da un minimo di 100 a un massimo di 1000 watt di potenza elettrica per metro quadrato di estensione di celle. Per dare un'idea, le necessità energetiche di una casa per quattro persone possono essere coperte da 10 a 20 metri quadrati di celle fotovoltaiche. Estrapolando da questo dato, e senza pretese di precisione, le necessità energetiche di una nazione come l'Italia verrebbero soddisfatte da un'estensione di celle per una superficie totale intorno al centinaio di chilometri quadrati. Attualmente, il costo medio di un chilowattora di energia elettrica prodotto con i metodi classici è meno della metà di quello ottenuto da celle fotovoltaiche. In questa stima però non sono inclusi i costi nascosti dell'uso di combustibili fossili: le spese mediche per riparare i danni alla salute causati dall'inquinamento ambientale, la pulizia dei mari e le spese per mantenere forze armate di guardia ai pozzi petroliferi. Per contro, il prezzo delle celle fotovoltaiche è diminuito del 90 per cento negli ultimi dieci anni e continua a diminuire; e se la produzione di celle fotovoltaiche avvenisse su larga scala, i costi verrebbero drasticamente tagliati. L'energia elettrica non è la sola forma di vettore energetico utilizzato: una parte importante è in forma di benzina e gasolio impiegati per l'autotrazione. Un combustibile pulito a cui non si presta la dovuta attenzione è l'idrogeno. L'idrogeno non si trova in natura allo stato libero: occorre produrlo spendendo energia, è un vettore e non una fonte di energia. L'idrogeno viene attualmente prodotto per usi industriali partendo dal metano; dovendo comunque utilizzare un combustibile fossile per produrre idrogeno, questa strada non è la più conveniente. Immaginiamo invece di poter generare energia elettrica per via solare su larga scala. Parte di questa energia potrebbe essere utilizzata per produrre idrogeno mediante il processo di elettrolisi, che consiste nel far passare una corrente elettrica in acqua per scinderla nei suoi elementi costituenti, idrogeno ed ossigeno. Si otterrebbe così la quantità necessaria di idrogeno come combustibile per gli automezzi. Si noti inoltre che la caratteristica intrinseca della corrente elettrica generata da celle fotovoltaiche, continua e a basso voltaggio, se da un lato crea costi aggiuntivi di trasformazione per il trasporto e l'utilizzo diretto, dall'altro lato è particolarmente favorevole per l'impiego nel processo di elettrolisi dell'acqua. Quali sono i vantaggi, dell'idrogeno come combustibile? Sono molti e sostanziali: 1) un motore attuale a combustione interna può essere facilmente modificato per l'impiego di idrogeno; 2) l'emissione di inquinanti è minima dal momento che la combustione dell'idrogeno produce vapore d'acqua, più piccole quantità di ossidi di azoto; 3) l'idrogeno verrebbe prodotto da energia elettrica di origine solare, quindi svincolata da vincoli di natura politica. Si noti l'eleganza del concetto dell'uso di idrogeno solare come combustibile: si parte da energia solare ed acqua, il processo di elettrolisi genera idrogeno e ossigeno scomponendo le molecole d'acqua; quando l'idrogeno viene bruciato in un motore si ricombina con l'ossigeno atmosferico ridando acqua, nella quantità spesa per produrlo. E' chiaro che il ciclo non si chiude in modo perfetto per via delle perdite dovute alle varie trasformazioni, ma il tutto è incomparabilmente più rispettoso dell'ambiente rispetto all'uso di combustibili fossili. Il prezzo artificiosamente basso del barile di petrolio rende impossibile una graduale conquista del mercato da parte del solare. E' quindi necessario l'avvio di un progetto su larga scala, nazionale o europea, con un forte impegno finanziario pubblico e privato in cui partecipino anche le attuali le compagnie petrolifere, se queste si vorranno convertire in imprese fornitrici di energia. Il binomio energia solare-idrogeno è una via certamente praticabile e matura tecnologicamente, pur presentando ancora molti problemi. Ma i problemi sono anche opportunità di lavoro e di progresso tecnologico. L'Europa avrebbe ottime possibilità di successo su questa strada e potrebbe guadagnare, una volta tanto, la leadership mondiale in un settore strategico. Silvano Massaglia Università di Torino


SCIENZE DELLA VITA. PRO E CONTRO Diagnosi prenatali per i Down
Autore: SCOLETTA GIUSEPPE, SCARCELLI MICHELE

ARGOMENTI: HANDICAP, ESAMI
LUOGHI: ITALIA

L'INCIDENZA della sindrome di Down nella popolazione è di 1 ogni 700 nati. E' noto che il rischio aumenta proporzionalmente all'età materna, con una impennata dai 35 anni in su. Pochi sanno però che i due terzi di tutti i Down nascono da donne con meno di 35 anni per il semplice fatto che esse costituiscono il 90% di tutte le gravide. Per questo motivo proprio la fascia definita a basso rischio merita uno screening accurato. L'orientamento attuale della diagnosi prenatale è di consigliare l'amniocentesi a donne da 35 anni in su, e di proporre inizialmente il tritest alle gravide con meno di 35 anni, dopodiché in base al risultato dello screening con il tritest si decide se eseguire l'amniocentesi. Per comprendere il senso di questa tendenza bisogna ricordare che l'esecuzione dell'amniocentesi prevede un rischio di aborto pari a 1/200; perciò è sensato eseguirla nei casi in cui la probabilità di diagnosticare un feto Down è abbastanza alta da giustificare il rischio di perdere un feto sano; questo rapporto rischio/beneficio risulta vantaggioso in gravide di almeno 35 anni, mentre non lo è in donne di età inferiore, prive di fattori di rischio aggiunti, vista la loro bassa probabilità di generare un feto Down. Infatti se si sottoponessero di routine all'amniocentesi, per diagnosticare un solo feto compromesso se ne perderebbero centinaia di sani. Il tritest quindi ha il compito di scoprire in questa fascia di età i soggetti più a rischio, che potrebbero beneficiare dell'amniocentesi. Il tritest è costituito da un prelievo ematico materno eseguito tra le 15 e le 21 settimane di gestazione in cui si dosano l'alfa fetoproteina, l'estriolo non coniugato, e l'HCG elaborando dette concentrazioni ed altri dati si calcola il rischio individuale. E' opportuno ricordare che il tritest esprime la probabilità e non la diagnosi certa come l'amniocentesi. Questo test, affidabile nel riconoscimento del 60% dei feti Down, è utile anche per la trisomia 18, triploidia e sindrome di Turner. Informazioni preziose si ottengono inoltre riguardo il sospetto di spina bifida e difetti della parete addominale fetale, dati utili all'ecografista durante l'esame morfologico routinario della 20a settimana. Il tritest è suggerito eccezionalmente anche alle gravide di 35 anni o più affette da pregressa storia di infertilità o sterilità che non intendano accettare l'amniocentesi come diagnostica di primo acchito per il rischio di aborto a cui esporrebbero il preziosissimo prodotto del concepimento. Attualmente mediante l'ecografia fetale di II livello è possibile diagnosticare il 40% dei Down, e si può meglio valutare il rischio emerso dal tritest in base a raffinati reperti ecografici come ad esempio la plica nucale. Per esempio se tale tipo di ecografia risultasse normale in un feto che al tritest era stimato avere un rischio Down pari a 1/270, il suo valore risulterebbe riconvertito a 1/2100, quindi non più da sottoporre ad amniocentesi. Da qualche anno lo screening del feto Down si avvale anche della rilevazione ecografica della translucenza nucale, eseguita tra le 10 e le 14 settimane, misurazione che appare nell'80% dei Down superiore ai 3 mm. Tale dato ecografico associato al dosaggio delle proteine PAPP-A ed alla Beta HCG libera costituisce un recente metodo di diagnostica prenatale da eseguire tra la 10a e la 13a settimana gestazionale; tale metodica esprime il rischio di generare un feto Down, con un'attendibilità del 90%. Va comunque ricordato che ad ogni ostetrico che si occupi di diagnostica prenatale compete offrire solo informazioni scientifiche illustrando rischi e benefici delle metodiche in uso, senza esercitare sulla coppia pressione decisionale in nessun verso, perché nessun ostetrico avrà mai facoltà di sapere se una coppia potrà patire maggiormente la nascita di un figlio Down, per aver declinato il test prenatale, o perdere un feto sano per aver accettato il rischio d'aborto insito nell'amniocentesi. Giuseppe Scoletta Michele Scarcelli


IN BREVE Dieci meridiane per Torino
ARGOMENTI: METROLOGIA, COMUNE, PROGETTO
LUOGHI: ITALIA, EUROPA, ITALIA, TORINO, (TO)

Il Comune di Torino, con il sostegno della Società Italiana per il Gas, promuove il "Progetto 10 meridiane in 10 quartieri". Le meridiane saranno progettate dagli studenti di scuole operanti nelle varie circoscrizioni cittadine. Informazioni: 011-442.9133.


Il Capodanno 1999 ci regala un secondo di vita in più
Autore: BIANUCCI PIERO

ARGOMENTI: METROLOGIA, ASTRONOMIA, LIBRI
NOMI: DE MEIS SALVO, MEEUS JEAN
ORGANIZZAZIONI: ORIONE, ISTITUTO ELETTROTECNICO NAZIONALE «GALILEO FERRARIS», INTERNATIONAL EARTH ROTATION SERVICE
LUOGHI: ITALIA, EUROPA, ITALIA
NOTE: «Occultazioni»

IL 1999 ci porterà subito un piccolo regalo: un secondo in più. Poco, ma meglio che niente. In Italia il secondo in omaggio andrà inserito il 1o gennaio alle ore 1,59 minuti e 59 secondi. Il giorno di Capodanno durerà quindi 86.401 secondi anziché 86.400. Lo si apprende da un comunicato dell'Istituto Elettrotecnico Nazionale " Galileo Ferraris" di Torino, Settore metrologia di tempo e frequenza. Chi possiede un orologio radiocontrollato non dovrà fare nulla: automaticamente la lancetta o il display si adegueranno. Gli altri, se sono molto pignoli, provvedano manualmente. La decisione di donarci questo virtuale pezzettino di vita è stata presa, come al solito, dall'International Earth Rotation Service, un istituto con sede a Parigi dal quale dipende la misura del tempo in tutti i Paesi del mondo. Per l'Italia sarà appunto il "Galileo Ferraris" a provvedere alla correzione, in quanto da esso dipende il segnale orario ufficiale. Per capire l'origine del secondo-omaggio bisogna ricordare che oggi abbiamo tre "scale di tempo": il "tempo universale astronomico", determinato in base alla rotazione della Terra rispetto alle stelle; il "tempo universale coordinato", che rispetto al tempo astronomico ha un margine di oscillazione in più o in meno di 9 decimi di secondo; e il "tempo atomico", scandito appunto dagli orologi atomici al cesio 133. I primi orologi atomici al cesio risalgono al 1955. Gli scarti dei migliori orologi campione da laboratorio sono oggi dell'ordine di un secondo su cento milioni di anni. Ma fin dagli Anni 30 si sapeva, grazie agli orologi piezoelettrici al quarzo, che il moto di rotazione della Terra non è del tutto regolare: a parte piccole fluttuazioni più o meno regolari, si nota un costante rallentamento dovuto agli attriti delle maree, per cui il giorno tende a durare sempre di più, con un aumento di circa due millesimi di secondo al secolo. Gli orologi atomici confermarono e precisarono questa tendenza della Terra a " perdere giri". Alla fine degli Anni 50 gli scienziati si ritrovarono quindi con un campione di tempo nettamente migliore della rotazione terrestre. Quest'ultima, però, rimane il vero punto di riferimento sia nelle attività pratiche (navigazione per mare e per cielo, ad esempio) sia nelle attività scientifiche. Diventa necessario, quindi, adeguare di tanto in tanto il tempo atomico al tempo astronomico (più esattamente, a quello "coordinato", che è, in certo senso, una versione del tempo astronomico approssimata per gli usi civili). Per convenzione, nel 1958 tempo atomico e tempo astronomico furono fatti coincidere. Ma da allora la rotazione della Terra ha perso in media un secondo ogni 15 mesi rispetto al tempo atomico. Il secondo che verrà aggiunto a Capodanno è il trentaduesimo da allora. E poiché stiamo dando uno sguardo al nuovo anno, accenniamo anche ai principali fenomeni astronomici che ci riserva. Il più spettacolare sarà senz'altro l'eclisse totale di Sole che avverrà nella tarda mattinata del prossimo 11 agosto. Riguarderà una striscia d'Europa larga un centinaio di chilometri che attraverserà Inghilterra, Francia, Germania, Austria, giù giù verso la Romania e la Turchia. Per Torino l'eclisse sarà parziale, ma la Luna coprirà pur sempre il 92 per cento del disco solare. Meno vistose delle eclissi sono le occultazioni, cioè il passaggio della Luna davanti a stelle, pianeti e asteroidi. Il 22 marzo da tutta l'Europa potremo assistere all'occultazione della stella di prima grandezza Aldebaran (nella costellazione del Toro). Il 24 aprile succederà la stessa cosa per la stella Regolo, nel Leone, ma il fenomeno sarà visibile soltanto dall'Europa occidentale e meridionale. Fu osservando occultazioni di stelle brillanti come queste che già gli antichi giunsero alla conclusione che la Luna è più vicina dei pianeti e delle stelle. Ma l'osservazione delle occultazioni ancora oggi è utile: serve a conoscere meglio il profilo delle montagne sul bordo della Luna, a precisare l'orbita e la forma degli asteroidi, a scoprire stelle doppie molto strette, a determinare il diametro reale di alcune stelle particolarmente grandi. Chi vuole saperne di più troverà con la rivista "Orione" attualmente in edicola il libretto "Occultazioni" di Salvo De Meis e Jean Meeus: una pubblicazione non solo utile per i dati che riporta ma anche piena di aneddoti e curiosità di storia dell'astronomia. Piero Bianucci


DIGITALE E MULTIMEDIALE La fotografia è elettronica E negli occhiali un grande schermo
Autore: ARPAIA ANGELO

ARGOMENTI: ELETTRONICA
LUOGHI: ITALIA

SCATTARE immagini è divertente. Oggi la fotografia tradizionale e quella digitale viaggiano ancora su un unico binario, ma la strategia futura veleggia sulla digitalizzazione, perché questa tecnologia permette una straordinaria multimedialità. Nonostante queste premesse l'industria fotografica mondiale ha presentato di recente sui mercati fotocamere reflex di alte prestazioni trattate con severi standard di versatilità e affidabilità: Nikon F100, Canon Eos 3, Contax Aria, Minolta Dy nax 505 si Super, Nikon Pronea S per il formato Advanced Photo System e la rivoluzionaria Has selblad XPan che presenta un inedito doppio formato. E' facile intuire che la fotografia tradizionale vuole ancora trovare nicchie di vocazione professionale. Esaminando ad esempio la re flex Nikon F100, di prossima commercializzazione in Italia, offre alcune caratteristiche, già utilizzate sulla F5, come il sistema autofocus a cinque aree, più rapido e preciso tramite il sensore Multi-Cam 3100, esclusivo Focus Tracking con Lock-On (messa a fuoco a inseguimento che sincronizza 5 fotogrammi per secondo), misurazione Ma trix 3D di superiori prestazioni, Fill-Flash con bilanciamento a sensore multiplo 3D, 22 impostazioni personalizzate e, in op tional, il dorso data MF-29. La nuova F100 è compatibile con l'intero sistema di ottiche e accessori Nikon, pesa soli 785 grammi e le parti strutturali sono costruite in lega di magnesio. Il costo? Poco meno di 3 milioni solo corpo. Nel settore "Professional Digi tal Camera" Canon presenta la Eos D2000, orientata particolarmente ai fotogiornalisti e professionisti in genere che richiedono flessibilità superiore per la trasmissione di immagini: nuovo Ccd da 2 milioni di pixels, moni tor Lcd da 1,8 pollici e utilizzo dell'intera gamma di ottiche EF. Su corpo Canon Kodak Profes sional si inserisce la nuovissima DCS 560, al top della gamma delle fotocamere digitali: sensore Ccd a 6 megapixel, 36 bit colore, interfaccia IEEE 1394 e interfaccia API, dual PC card e supporto removibile, display Lcd e istogramma per la verifica dell'esposizione in tempo reale. Inoltre la Kodak DCS 560 realizza immagini a tutta pagina in stampa a 150 linee. Anche il gruppo Sony si inserisce nella fotografia elettronica con una fotocamera digitale DSC-D700 che offre una risoluzione di tipo SXGA di 1344 X 1024 punti, display da 2,5 pollici con matrice Tft (visiona l'immagine prima dello scatto), registrazione sulla Memory Stick, nuovissimo formato progettato da Sony. E' disponibile nelle versioni da 4 a 8 MByte, alle quali seguiranno modelli da 16 e 32 MB. In concreto: la registrazione delle immagini si sviluppa nel formato JPeg e la Memory Stick da 8 MB contiene 10 immagini memorizzate di alta qualità, oppure 40 se più compresse. L'ottica usata è di f. 5,2-26 mm (nel tradizionale 35 mm equivale al 28-140 mm). L'alimentazione viene da accumulatori ricaricabili allo ione-litio. L'ultimo "sfizio" realizzato da Sony è invece il Glasstron, il primo grande schermo virtuale. In pratica è un paio d'occhiali che, collegato al computer o ad una emissione video, permette una visione più grande di quella offerta da un normale tv. Angelo Arpaia


SCIENZE DELLA VITA. CONTRO I TUMORI La strategia dei "geni uccisori" In tutto il mondo ricerche sulle terapie geniche
Autore: DI AICHELBURG ULRICO

ARGOMENTI: GENETICA
NOMI: FOLKMAN JUDAH
LUOGHI: ITALIA

FINO a non molti anni fa la cellula cancerosa era pressoché una scatola nera. Oggi i suoi caratteri essenziali sono comprensibili grazie alla genetica molecolare. Sappiamo ormai che numerose anomalie genetiche, il più sovente acquisite, ripartite in quasi tutti i cromosomi, intervenenti con meccanismi diversi, alcune comuni a molti tipi di tumore altre specifiche d'un determinato tumore, sono proprie dei tumori maligni. Attivissime in tutto il mondo sono le ricerche in proposito. Anche se molto resta da fare, il mistero del cancro si sta chiarendo grazie ai progressi della biologia. Ciò trasformerà la terapia? Si può prevedere che interventi sui sistemi di segnalazione cellulare, procedimenti immunologici contro i prodotti genici anormali espressi dalla cellula cancerosa, infine la terapia genica, dovrebbero modificare profondamente le cure. A proposito della terapia genica dei tumori sono ormai circa un centinaio i programmi impostati in vari centri di ricerca. Le principali strategie sono: introdurre nelle cellule tumorali geni "uccisori", codificanti sostanze tossiche; accrescere la risposta del sistema immunitario contro le cellule tumorali; normalizzare il ciclo cellulare inibendo gli oncogeni o trasferendo degli anti- oncogeni (gli oncogeni sono forme alterate di geni, implicate nella trasformazione tumorale delle cellule); bloccare l'angiogenesi, ossia la crescita dei capillari sanguigni dalla quale i tumori dipendono (nel maggio scorso, ha fatto il giro del mondo la notizia delle ricerche sulla angiogenesi compiute a Boston da Judah Folkman). In sostanza la terapia genica può essere utilizzata per interferire con le anomalie del ciclo cellulare all'origine del tumore, distruggere le cellule cancerose, accrescerne l'eliminazione da parte del sistema immunitario, rallentarne la disseminazione e l'invasione. La strategia dei geni uccisori ha lo scopo, come si è detto sopra, di distruggere le cellule tumorali mediante l'introduzione di geni codificanti sostanze tossiche. Uno dei procedimenti di questo tipo, sovente disegnato anche come "tecnica del gene suicida", consiste nell'inserire nelle cellule un gene codificante un enzima capace di trasformare un promedicamento inattivo in un prodotto tossico. Tale gene, indicato con la sigla HSV-tk, proviene dal virus Herpes. A tutt'oggi due tipi di inserzione del gene vengono studiati. Altri geni con effetto tossico, codificanti ad esempio una tossina difterica o colerica, sono stati utilizzati in questi esperimenti di tossigenetica. I risultati sono stati talvolta spettacolari negli animali di laboratorio, e si è effettuata anche qualche prova clinica (vedi una pubblicazione di Calver ed altri su Science). Naturalmente non è possibile accennare a tutte le tecniche finora sperimentate per la terapia genica dei tumori. Parliamo piuttosto di conclusioni e di prospettive: i risultati sono effettivi negli animali ma ancora esili nelle applicazioni all'uomo. Per il momento si è soltanto in fase sperimentale, le prove sull'uomo hanno lo scopo di valutare la fattibilità e l'innocuità della terapia genica (è la prima fase) piuttosto che l'efficacia, tuttavia certi risultati, sia pure incompleti e da confermare, si sono ottenuti, per esempio in gliomi (tumori del tessuto nervoso) maligni inoperabili. Comunque sia l'ampiezza dei mezzi scientifici e finanziari applicati allo sviluppo della terapia genica dei tumori dimostra la fiducia dei ricercatori in prospettive a lungo termine. Oggi si stanno sperimentando numerose nuove strategie, e soprattutto su questa molteplicità dei possibili attacchi si fondano le speranze della utilizzazione del nuovo tipo di medicamento, il gene. Ulrico di Aichelburg


Luce solare nelle case Nuova tecnologia per risparmiare
Autore: BASSI PIA

ARGOMENTI: ENERGIA
LUOGHI: ITALIA, EUROPA, ITALIA

UN sottile strato (tecnicamente, film) di policarbonato formato da miriadi di prismi costituirà il principale componente per una illuminotecnica del futuro, all'insegna della qualità e del risparmio energetico. Il film, denominato Olf (optical lighting film) è stato ideato nei laboratori della 3M nel Minnesota (Usa) una decina d'anni fa ed ora la sua applicazione in campo dell'illuminotecnica è affidata ai laboratori della 3M Italia, Milano, nell'ambito del programma europeo Arthelio finanziato dalla Unione Europea, il cui obiettivo è lo sviluppo di sistemi integrati di luce solare e artificiale, per il benessere dei nostri occhi e per il risparmio energetico. Questo film, molto leggero, consente una distribuzione omogenea della luce per mezzo di un contenitore tubolare di plastica trasparente all'interno del quale è collocato l'Olf; la sorgente di luce è posta all'esterno di una estremità. In questo modo il tubolare rimane freddo, è di facile manutenzione perché non ha parti elettriche interne, la luce si distribuisce in modo uniforme in tutto il tubo diffusore e da questo si diffonde nell'ambiente in modo soffuso e con buona efficienza (il coefficiente di riflessione dell'Olf è di circa il 98 per cento). Si aprono così prospettive avveniristiche di illuminazione a basso costo, il risparmio energetico si aggira dal 25 al 30 per cento. Con esso si possono creare veri e propri canali di luce che, captata con apposite strutture all'esterno dei palazzi, viene poi convogliata all'interno o nei sotterranei. Si stanno sviluppando sistemi per illuminare grandi spazi come supermercati, strutture sportive (piscine, campi sportivi: tennis, basket, pallavolo) e le eventuali città sotterranee del futuro. Particolarmente valide si sono rivelate le applicazioni dell'Olf nel campo dell'illuminazione di opere d'arte, proprio per il vantaggio offerto dalla luce fredda che non danneggia le opere, come nel Cenacolo di Leonardo a Milano, la Pala d'Oro nella Basilica di San Marco a Venezia, nel museo Nazionale di Napoli, nella Cappella Reale di Granada (Spagna). Inoltre un'applicazione sperimentale nell'illuminazione stradale è stata attuata nella galleria del Sestriere e a San Marino, ma tante altre applicazioni stanno per essere realizzate da architetti famosi che non finiranno di stupirci. Al progetto Arthelio (quattro miliardi) collaborano con la 3M il Politecnico di Milano, l'Istituto Galileo Ferraris di Torino, lo studio Ricerca e Progetto di Bologna, le Università di Berlino e di Goteborg e la Aics di Asti. Pia Bassi


SCIENZE FISICHE. ECOLOGIA Multe salate all'Italia che inquina L'Unione Europea ci punisce a suon di miliardi
Autore: FOCHI GIANNI

ARGOMENTI: ECOLOGIA, INQUINAMENTO, AMBIENTE, MERCATO, SANZIONI
NOMI: JORGENSEN PETER
ORGANIZZAZIONI: UE UNIONE EUROPEA
LUOGHI: ITALIA, EUROPA, ITALIA

SIAMO secondi dietro al Belgio nella lista dei cattivi: lo afferma la Commissione Europea riferendosi alle infrazioni delle norme ambientali comunitarie. Questo "piazzamento d'onore" è un marchio tanto più grave per un Paese governato da due anni e mezzo da una coalizione comprendente i Verdi, un cui rappresentante è ministro dell'Ambiente. Ma c'è di peggio: il portavoce europeo Peter Jorgensen ha dichiarato che la Commissione spedirà agli Stati membri una serie di regali di fine anno. Saranno in tutto una novantina, raggruppabili in due tipi: il "parere motivato", corrispondente a un ultimo avviso, e la denuncia alla corte europea di Giustizia. Fra i destinatari spiccano il Belgio e l'Italia. Il nostro Paese, in forza dell'articolo 171 del trattato Ce, dovrà tornare davanti alla corte che già l'ha condannato: non ha ubbidito alla sentenza emessa nel dicembre 1996 che lo riconosceva colpevole di non aver adottato e comunicato le norme per attuare la direttiva comunitaria sulle acque reflue urbane. Elemento fondamentale della legislazione sulle acque, questa direttiva fissa i criteri minimi per la raccolta e il trattamento. Le scadenze per l'applicazione effettiva delle norme sono molto posteriori a quelle per l'emanazione delle norme stesse da parte degli Stati membri: a seconda del centro abitato e della destinazione finale degli scarichi, potrà esserci tempo fino al 2005. Tuttavia gli obblighi connessi hanno già fatto varare grandi investimenti per infrastrutture in tutta l'Unione Europea. Gli emendamenti all'articolo 171 introdotti dal trattato di Maastricht consentono alla Commissione di chiedere alla corte di Giustizia sanzioni pecuniarie, e il nostro Paese le sta dando una delle prime occasioni di farlo. E' vero che il governo italiano ha avviato l'iter per ubbidire alla sentenza di due anni fa, ma finora senza risultati concreti. Di qui la richiesta di una multa pari a 185.850 Ecu (360 milioni di lire) per ogni giorno di ritardo: se perderemo la causa e la sanzione verrà calcolata a partire dalla sentenza di due anni fa, non saranno noccioline. Se invece il calcolo venisse fatto dal termine stabilito nelle norme comunitarie - 30 giugno 1993 - sarebbe ben di più. Ma c'è altro. Ai sensi dell'articolo 169 del trattato Ce, l'Italia è stata citata in giudizio anche per inadempienza ad alcune disposizioni della direttiva "Uccelli selvatici" (dir. 79/409). Adottata all'unanimità dal Consiglio d'Europa nel 1979 e caposaldo dell'Unione Europea in materia di conservazione della natura, essa ha lanciato un ampio programma di protezione degli uccelli selvatici, mirando a conservarne l'habitat, a impedire il commercio d'esemplari vivi o morti e la distruzione d'uova e nidi, e a limitare la caccia. Con Belgio e Portogallo, il nostro Paese è poi oggetto d'un parere motivato, perché doveva presentare - e non l'ha fatto - le relazioni richieste dalla direttiva 91/692. Da quando ha cominciato a occuparsi dell'ambiente, l'Unione ha cercato d'essere informata, tramite relazioni periodiche, sull'esperienza degli Stati membri. Compilate secondo un modello unificato, queste relazioni devono riferirsi ai tre settori delle acque, dell'aria e dei rifiuti, svolgendo due ruoli che l'Unione giudica molto importanti: permettere ai suoi organismi di valutare gli effetti delle norme, e alimentare un canale d'informazione per il pubblico. Infine (ma la lista è provvisoria) ci becchiamo un'altra reprimenda per non aver comunicato le disposizioni d'attuazione di due direttive comunitarie sull'inquinamento atmosferico: la 96/62, che dovrebbe fare da riferimento per prevenire e ridurre gli effetti dannosi dell'aria inquinata sulla salute umana e sull'ambiente nel suo complesso, e la 97/68, contro l'emissione d'inquinanti di vario genere da parte dei motori di macchine mobili non stradali. Questa volta è un parere motivato che raggiunge l'Italia insieme con vari altri Paesi. Dopo tutto il parlare che da parte italiana si è fatto sull'essere in Europa, quando lo saremo anche per l'ambiente? Gianni Fochi Scuola Normale di Pisa


IN BREVE Per i donatori di midollo osseo
ORGANIZZAZIONI: ADMO
LUOGHI: ITALIA, EUROPA, ITALIA

L'Associazione donatori di midollo osseo (Admo) ha ristretto i limiti di età nella selezione dei potenziali donatori a chi ha meno di 35 anni: tutti i donatori di cui è già stato tipizzato il midollo osseo resteranno tuttavia nel Registro fino al compimento di 55 anni. La tipizzazione del midollo è assai costosa, e questo spiega il ritardo con cui le persone che si offrono vengono chiamate. Fondata nel nel 1990, l'Admo ha oggi 250 mila iscritti.


IN BREVE Premio Voltolino per la divulgazione
ARGOMENTI: DIDATTICA, SCIENZA, PREMIO
ORGANIZZAZIONI: PREMIO VOLTOLINO
LUOGHI: ITALIA, EUROPA, ITALIA

Seconda edizione del Premio Voltolino per la divulgazione scientifica, sotto l'egida dell'Ugis. I servizi, pubblicati su quotidiani, agenzie di stampa, settimanali, periodici, radio e tv, dovranno riguardare l'informazione biomedica, le tecnologie informatiche o l'impatto della divulgazione scientifica sulla società. La giuria è composta da Renato Dulbecco, Luigi Dadda, Paola De Paoli, Silvio Garattini e Luciano Onder. Termine per l'invio: 31 gennaio 1999. Segreteria: 02-659.99.29.


IN BREVE Proteine cellulari studiate al "Negri"
ARGOMENTI: BIOLOGIA, RICERCA SCIENTIFICA
LUOGHI: ITALIA, EUROPA, ITALIA

Una ricerca condotta al Dipartimento di biologia cellulare e oncologia del Consorzio Mario Negri Sud è finita sulla copertina della autorevole rivista "Cell". In questa importante pubblicazione i ricercatori trattano il trasporto e la maturazione intracellulare delle proteine e propongono una teoria radicalmente diversa rispetto a quella di solito accettata negli ultimi vent'anni.


SCIENZE FISICHE Stratosfera Ossido di carbonio e idrocarburi incombusti permangono in quota fino a qualche mese
Autore: PAPULI GINO

ARGOMENTI: ECOLOGIA, INQUINAMENTO, ATMOSFERA
LUOGHI: ITALIA, EUROPA, ITALIA

IL cittadino si chiede spesso come mai si emanino leggi per contenere le emissioni inquinanti delle auto e non si adottino analoghi provvedimenti per il traffico aereo. Ai velivoli - si dice scherzosamente - non è stata imposta neppure la marmitta catalitica. In realtà le preoccupazioni per gli effetti dell'aviazione sull'atmosfera e hanno dato impulso a vari programmi di ricerca da vent'anni in qua. L'attuale situazione vede una molteplicità di iniziative, tanto che la Commissione Europea ha ritenuto opportuno istituire un ente di coordinamento (Corsaire, Coordination of Research for the Study of Aircraft impact on the environnement) per definire una strategia comune. Un primo risultato di questo ente è la pubblicazione di una vasta sintesi delle conoscenze acquisite, la base per un programma di lavoro sinergico tra le nazioni partecipanti. Va subito detto che la quantità di sostanze nocive dovuta al trasporto aereo è modesta rispetto a quella prodotta al suolo da autoveicoli, centrali termoelettriche, attività industriali. Degli oltre 3 mila milioni di tonnellate di idrocarburi consumati ogni anno nel mondo, solo 200 milioni vengono bruciati nelle turbine dei velivoli. Va anche ricordato che i prodotti del processo ideale di combustione sono l'anidride carbonica e l'acqua; ma che - nella pratica - le cose vanno diversamente: si verifica, ad esempio, la presenza di ossido di carbonio, di idrocarburi incombusti e di particelle carboniose. Inoltre l'elevata temperatura delle parti più calde dei motori fa in modo che l'azoto dell'aria di combustione non si comporti più come gas inerte ma subisca una parziale ossidazione che dà origine ad ossidi di azoto in ragione di quasi 2 grammi per ogni chilo di combustibile bruciato. Questi composti nocivi vengono anche ritenuti corresponsabili dei danni all'ozono e delle piogge acide (formando acido nitroso e nitrico con l'umidità dell'aria). Un fattore aggravante è quello della loro lunga permanenza in quota, che cresce con l'altitudine (da qualche giorno ad alcuni mesi) e che dà luogo a un accumulo intorno ai corridoi di volo e specialmente nella stratosfera, dove operano il Concorde e gli aerei supersonici militari. Quanto alle particelle solide sub-microscopiche dei gas di scarico, questi agiscono come germi di condensazione e ghiacciamento dell'acqua atmosferica, influendo sul clima con la formazione di nubi e con l'innesco delle precipitazioni. Come si vede, le variazioni climatiche generate dall'aviazione civile sono limitate rispetto ad altre cause, ma gli sviluppi ipotizzati nel settore per i prossimi decenni potrebbero comportare un notevole peggioramento della situazione. E' indispensabile, perciò, procedere sin da ora lungo la sola via praticabile: quella di costruire aerei meno inquinanti. Occorrono macchine innovative che siano meno pesanti, più aerodinamiche, soprattutto con propulsori di maggiore efficienza forse alimentati da combustibili diversi dagli attuali. Inoltre, le altitudini di volo non dovranno superare la tropopausa, così da ridurre i danni alla fascia dell'ozono (il che, di conseguenza, esclude la costruzione di vettori civili supersonici). Tutto ciò collide - purtroppo - con i lunghi cicli di rinnovo delle flotte, con le esigenze finanziarie, con le lentezze procedurali, con le probabili inadempienze di alcuni Paesi. Nel frattempo occorre abbassare i consumi di carburante, e quindi l'impatto ambientale, riducendo le attese al suolo e in volo e ottimizzando le rotte (con la guida satellitare) e il carico (attualmente inferiore al 70 per cento): obiettivi che l'Associazione delle compagnie di linea europee ha fatto propri nell'assemblea tenutasi il 31 ottobre scorso a Berlino. Gino Papuli


IN BREVE Torna in Abruzzo il picchio nero
ARGOMENTI: ZOOLOGIA
NOMI: TASSI FRANCO
LUOGHI: ITALIA, EUROPA, ITALIA

Il rarissimo picchio nero è stato avvistato nel Parco Nazionale d'Abruzzo dal direttore Franco Tassi. Questo uccello, che vive solo nelle selve più intatte era quasi scomparso dall'Appennino. L'avvistamento fa ora sperare in un recupero della sua popolazione.


SCIENZE DELLA VITA. PRIMA RISERVA NATURALE IN SIRIA Tornano gli orici nel deserto di Palmira Un progetto realizzato dalla Fao e dagli italiani
Autore: ROTA ORNELLA

ARGOMENTI: ECOLOGIA, ZOOLOGIA
ORGANIZZAZIONI: FAO
LUOGHI: ESTERO, ASIA, SIRIA, PALMIRA

SULLA steppa che ha tutti i toni del rosso e dell'ocra, e che del territorio siriano costituisce il 55 per cento, le sagome bianche si stagliano all'improvviso: una trentina di orici, in un appezzamento di 10 mila ettari nella zona di Palmira. E' la prima riserva naturale sorta in Siria, realizzata su progetto Fao/Cooperazione italiana/governo siriano. Estinta nel 1972, nel 1984 la specie fu reintrodotta per iniziativa del Wwf immettendo nel deserto di Jidat-al-Harasis (Oman) alcuni orici fino a quel momento in cattività. Fu uno dei pochissimi esperimenti del genere che ebbero successo; questi animali infatti si adattano rapidamente all'ambiente, si organizzano in branco con gerarchie ben definite, nè ci sono problemi di coesistenza fra esemplari reintrodotti e altri sempre vissuti liberi. Gli orici proliferarono - un piccolo ogni 9/12 mesi, cominciando a tre anni, più o meno per tutta la vita, in media di 18/20 anni - ripopolando anche altre aree già loro, come Niger e Ciad. Ma la minaccia di sempre non si allentò, anzi andò accentuandosi: i cacciatori, compresi turisti occidentali in cerca di trofei. Pochi anni e, di nuovo, il rischio era di diventare un ricordo. A salvarne una trentina di esemplari, catturati in Arabia saudita, e una decina di gazzelle provenienti dalla Giordania, questa volta è stato il progetto Riabilitazione dei pascoli e creazione di una riserva natu rale nella steppa siriana. La riserva è destinata ad estendersi progressivamente su 22 mila ettari, tenendo anche presente che la prolificità di questi animali richiede uno spazio recintato sempre più ampio. Tra l'altro aumentare il loro numero è indispensabile per garantire una solida base genetica. Il deserto è, per orici e gazzelle, elemento naturale: si nutrono senza problemi di qualsiasi arbusto, e hanno un metabolismo che consente di ridurre al massimo la perdita di liquidi, utilizzando fino all'ultima goccia l'acqua contenuta nelle piante, e giovandosi di un sistema di traspirazione e termoregolamentazione (ad esempio, non sudano). Particolare non trascurabile: gli orici hanno corna che possono raggiungere i 120 cm: capita, a volte, che riescano a infilzare anche un leone che li aggredisca. A facilitare la riuscita della riserva, anche il fatto che questi animali, visibili anche a grande distanza, possono essere seguiti, il che è indispensabile per verificare il loro stato di salute. A Palmira, prima di venire immessi nel loro spazio, vengono abitualmente tenuti sotto osservazione per alcune settimane, in apposite costruzioni; un qualche interrogativo riguarda infatti il clima che, caratterizzato dalle importanti escursioni termiche tipiche di ogni deserto, è comunque molto meno caldo rispetto a quello dell'Arabia Saudita. In un secondo tempo, altre riserve, sul modello di questa, sorgeranno nel Paese, tutte guidate da personale siriano. La parte del progetto finalizzata alla riabilitazione dei pascoli interessa 130 mila ettari, terreno per lo più sfiancato dall'eccessivo carico di bestiame dei Beduini, da un eccesso di sfruttamento agricolo (in particolare, la coltivazione dell'orzo) e dall'uso delle già scarse piante a fini energetici. Punto forte, la semina diretta di piante native; varietà privilegiate, la Salsola vermiculata e la Atriplex leucolada. Ornella Rota


LA SUPERASPIRINA Una medicina tuttofare Nuova vita di un farmaco centenario
Autore: PINESSI LORENZO

ARGOMENTI: CHIMICA, MEDICINA
LUOGHI: ITALIA
TABELLE: T. Struttura chimica dell'aspirina

L'ASPIRINA, nome commerciale dell'acido acetilsalicilico, è un farmaco che non ha bisogno di presentazione. La storia medica data al 1897 la nascita dell'aspirina. In realtà, il suo utilizzo ha avuto inizio nel 3500 a. C.: un papiro egizio raccomanda a chi è affetto da dolori reumatici e da mal di schiena l'assunzione di un infuso di foglie di mirto. Ippocrate di Kos, il "padre" della medicina, prescriveva il succo della corteccia del salice per le febbri e dolori di varia origine già nel V secolo a. C. La sostanza attiva contenuta nella corteccia del salice è, come oggi sappiamo, l'acido salicilico. Alla fine del XIX secolo Felix Hoffman, un chimico tedesco che lavorava alla Bayer, per ridurre gli effetti collaterali dell'acido salicilico sintetizzò l'acido acetilsalicilico. Il meccanismo d'azione dell'aspirina è rimasto a lungo ignoto. Solo negli Anni 70 un farmacologo inglese, John Vane, iniziò gli studi che lo portarono a capire il meccanismo del farmaco e a conquistare il Premio Nobel per la medicina nel 1988. Gli studi di Vane hanno dimostrato che gli effetti dell'aspirina sono dovuti, principalmente, al blocco della produzione delle prostaglandine, ottenuto tramite l'inibizione di un enzima chiamato cicloossigenasi o Cox. Le prostaglandine sono sostanze similormonali che modulano diverse funzioni del nostro organismo quali i processi infiammatori, l'attività piastrinica, l'elasticità dei vasi sanguigni, la secrezione gastrica. Il ruolo delle prostaglandine in processi tra di loro così diversi e complessi spiega sia l'efficacia del farmaco che i numerosi effetti collaterali. Un'altra scoperta di rilievo si è avuta agli inizi degli Anni 90, quando si è visto che esistono almeno due forme di Cox, la Cox1 e la Cox2, che sono preposte a funzioni tra di loro diverse. La Cox1 è l'isoenzima fisiologico che regola e modula la secrezione gastrica e la filtrazione glomerulare a livello renale. La Cox2 è, invece, un enzima che viene attivato solo in determinate circostanze quali i processi infiammatori, le neoplasie ed alcune malattie neurodegenerative. Negli stessi anni sono stati pubblicati alcuni studi epidemiologici di grande interesse: i pazienti che assumevano regolarmente derivati aspirinici presentavano una mortalità per cancro del colon del 45% inferiore rispetto ai controlli. Analogamente, l'assunzione cronica di tali farmaci riduce in modo significativo il rischio di sviluppare la malattia di Alzheimer e ne ritarda l'età di insorgenza nei soggetti geneticamente predisposti. Come spiegare l'effetto del farmaco in patologie così diverse? Il biochimico Raymond DuBois ed il chirurgo R. Daniel Beauchamp, della Vanderbilt University di Nashville (Tennessee, Usa) hanno dimostrato un impressionante aumento dell'attività della Cox2 nel 90% dei tumori del grosso intestino. Lo stesso reperto è stato riscontrato, più recentemente, dai biochimici Lukiw e Bazan, nel cervello di pazienti deceduti per malattia di Alzheimer. L'aumento dell'attività enzimatica della Cox2 interferisce, probabilmente, con la produzione di radicali liberi e potrebbe alterare i processi di apoptosi, cioè di morte cellulare programmata. L'esistenza di due isoenzimi della ciclo-ossigenasi ha suggerito ai farmacologi di ricercare farmaci che avessero una azione selettiva sulla Cox2 e nessun effetto sulla Cox1. Tali farmaci, definiti "superaspirine", dovrebbero presentare un potente effetto antiinfiammatorio senza bloccare le funzioni fisiologiche delle prostaglandine; agirebbero, cioè, solo contro l'enzima "cattivo" senza provocare quei fastidiosi effetti collaterali gastrici ed ematologici. Alcuni di questi farmaci, con azione di inibizione reversibile della Cox2, sono già stati ampiamente studiati e, nel maggio di quest'anno, la Food and Drug Administration ha approvato la commercializzazione della prima superaspirina nei pazienti con patologia cardiovascolare. Nel maggio di quest'anno è stata sintetizzata anche la prima superaspirina irreversibile, farmaco che, come l'acido acetilsalicilico, lega in modo definitivo la Cox2. La ricerca, tuttavia, sta scoprendo nuovi meccanismi di azione dei farmaci aspirin-like. Uno studio condotto dai ricercatori del Southwestern Medical Center dell'Università del Texas e pubblicato recentemente su "Nature" ha individuato un altro meccanismo di azione dell'aspirina. La risposta infiammatoria è associata, a livello intracellulare, all'attivazione di numerosi geni. Tra questi riveste un ruolo di particolare rilievo quello che codifica per una proteina chiamata Fattore Nucleare kappa B (Nf-kB), proteina fondamentale nelle malattie infiammatorie acute e croniche. In condizioni normali questa proteina si trova legata a un'altra proteina, chiamata Inibitore di kappa B (IkB), che ne blocca l'attività. Se non viene bloccata, la proteina Nf-kB entra nel nucleo della cellula e attiva il processo dell'infiammazione. I ricercatori nordamericani hanno dimostrato che l'aspirina blocca i meccanismi responsabili della degradazione della proteina IkB impedendo così all'Nf-kB di entrare nel nucleo. Anche questo nuovo meccanismo di azione dell'aspirina nel controllo dei processi infiammatori potrebbe essere il target terapeutico di nuovi, più specifici farmaci. Per un farmaco che ha cent'anni è iniziata una seconda giovinezza. Lorenzo Pinessi Università di Torino




La Stampa Sommario Registrazioni Tornén Maldobrìe I3LGP Scrivi Inizio