TUTTOSCIENZE 4 gennaio 95


PER UN '95 MILIARDARIO I segreti del Totogol Tutte le probabilità di vincita
Autore: PETROZZI ALAN

ARGOMENTI: MATEMATICA, GIOCHI, STATISTICHE, CONCORSI, CALCIO
ORGANIZZAZIONI: CONI
LUOGHI: ITALIA
TABELLE: T. TAB. DUE GIOCHI A CONFRONTO =========================================================== 1) Nel Totogol si possono comporre quasi sei milioni di ottine diverse contro il milione e 600 mila possibilità del Totocalcio. Azzeccare una ottina (vincita di prima categoria) è quindi quasi 4 volte più difficile che fare 13 con la tradizionale schedina ------- 2) Le probabilità però diventano favorevoli al Totogol se si confrontano le 26 probabilità di realizzare un 12 al Totocalcio con le 176 di fare 7 a Totogol (vincita di seconda categoria). In questo caso il Totogol risulta quasi 7 volte più favorevole ------- 3) Il Totogol offre inoltre un premio di terza categoria per chi realizza un 6 ------- 4) Con una schedina di Totogol è possibile puntare da un minimo di 1600 lire a un massimo di 2 miliomi e 400 mila ------- 5) Il Totogol detiene già il record del maggior premio: tre miliardi e 700 milioni vinti a Palermo nella settimana di Natale giocando solo 7200 lire ===========================================================
NOTE: Calcolo delle probabilità

SI chiama Totogol ed è il nuovo concorso ideato dal Coni per distrarre i giocatori dal «toto-nero» e recuperare parte del danaro che finisce in tasche così poco meritevoli. Dopo una fase sperimentale svoltasi verso la fine della passata stagione in alcune zone del Paese, il Totogol, ora diffuso su tutto il territorio, si sta affermando tra il grande pubblico a suon di quote di vincite di tutto rispetto. Clamorosa quella della settimana di Natale: 3 miliardi e 700 milioni vinti a Palermo giocando soltanto 7.200 lire. Ma a parte le vincite eccezionali, nei concorsi Totogol di questo primo scorcio di campionato non si è mai scesi sotto i 200 milioni per il premio di 1E categoria (8 punti): c'è di che far drizzare le orecchie a chiunque, soprattutto ai sistemisti. Il Totogol è nato in Svezia, dove è diffuso con il nome di «Maaltipset», ed è stato scoperto dagli esperti nostrani durante un viaggio organizzato un paio d'anni fa proprio per trovare alternative alla solita schedina. Le regole fondamentali sono poche e chiare. La schedina settimanale di Totogol propone 30 partite tra le quali occorre pronosticare le 8 che termineranno, indipendentemente dal risultato, con più reti; a parità di somma delle reti segnate, prevale la partita dove la squadra ospite ha segnato più gol (il 2-2 prevale sul 3-1). In caso di ulteriore parità, prevale la partita con il numero d'ordine più basso (il 2-2 della 4E partita prevale sul 2-2 della 23E). Con una stessa schedina si possono giocare da un minimo di 2 colonne con 8 pronostici ciascuna (1600 lire) ad un massimo di 3003 colonne (un sistema da 14 partite per 2.402.400 lire). Con le 30 partite proposte nella schedina settimanale, si possono comporre la bellezza di 5.852.925 ottine differenti. Le probabilità di realizzare una vincita di 1E categoria ponendo in gioco un'unica combinazione di 8 numeri sono perciò, rispetto a una colonna del Totocalcio tradizionale (il quale prevede 1.594.323 differenti possibilità), 3, 67 contro 1: quasi 4 volte più difficile] Data però la differente quantità di eventi sui quali articolare il pronostico, mentre con una colonna di Totocalcio ci sono 26 probabilità di fare 12, con una di Totogol ve ne sono ben 176 di fare 7 (2E categoria). In questo caso dunque il rapporto di difficoltà si volge a favore del primo: 1 contro 6,77. Ancora più facile, come testimoniano le quote settimanali di vincita, diventa poi fare 6; se il Totocalcio prevedesse anche l'11, con una colonna le probabilità di centrare il premio di 3E categoria sarebbero 312 mentre per il 6 del Totogol sono addirittura 6468: il rapporto esplode a 1 contro 20,73. Questa divaricazione nasce da una semplice constatazione: mentre nel Totocalcio un risultato sbagliato si traduce immediatamente in un punto perdu to, nel Totogol un pronostico non azzeccato si limita a diventare un punto non fatto. La differenza può apparire insignificante, ma in realtà è decisiva ai fini del calcolo delle probabilità. Sin dalla nascita, per il nuovo Totogol è stata prevista la possibilità di giocare dei «sistemi» direttamente convalidabili in modo automatico in ricevitoria. Le 6 combinazioni sistemistiche che è possibile giocare con una sola schedina sono le seguenti: 9 partite (pari a 9 colonne), 10 partite (45 colonne), 11 partite (165 colonne), 12 partite (495 colonne), 13 partite (1287 colonne) e 14 partite (le già citate 3003 colonne). E' chiaro che nel caso il pronostico sistemistico ottenga 6 o più punti, si avranno varie vincite plurime; prendiamo ad esempio il sistema da 11 partite (pari a 165 colonne per 132.000 lire): se tra gli incontri indicati si trovano gli 8 della colonna vincente, si realizzeranno 1 otto, 24 sette e ben 84 sei. Se invece si azzeccano solo 7 incontri, si vincono 4 sette e 42 sei mentre se si indovinano solo 6 partite, i sei realizzati sono 10. Va detto che, oltre ai sistemi- base giocabili su un'unica schedina, combinando opportunamente più schemi si possono ottenere sistemi superiori. In questi casi ci si imbatte però in cifre talmente elevate da rendere le varie ipotesi un puro esercizio matematico. E' a questo punto che si rivela di grande utilità la sistemistica tradizionale, la quale studia la possibilità di ottenere schemi numerici tali da garantire matematicamente, con un numero relativamente ridotto di colonne, una vincita di 2E (7 punti) oppure di 3E (6 punti) categoria. Nel primo caso si parla di sistemi «ridotti» mentre nel secondo di «bi-ridotti» . Un sistema che garantisce, a pronostico esatto, la vincita di 1E categoria al 100 per cento si dice «integrale», se al 100 per cento è invece garantita la vincita di 2E categoria il sistema diventa «ridotto», se infine la garanzia assoluta si ha solo per la vincita di 3E categoria, allora lo si definisce appunto «bi-ridotto». Per rendere il discorso ancor più chiaro, vi proponiano due sistemi che potrete utilizzare in modo molto semplice. Il primo è un sistema «ridotto» che mette in gioco 11 partite con l'impiego di appena 14 colonne garantendo le seguenti condizioni. Nel caso che gli 8 incontri della colonna vincente risultino compresi tra gli 11 pronosticati, si realizzano un 8 e più 6 all'8,48 per cento, più 7 accompagnati da vari 6 al 69,71 per cento e un solo 7 con più 6 al 21,81 per cento. Nel caso che si indovinino solo 7 degli incontri vincenti, il sistema garantisce un 7 più alcuni 6 al 33,03 per cento e più 6 (da 2 a 7) al 66,97 per cento. Infine se si commettono due errori e quindi si pronosticano solo 6 degli 8 incontri della colonna vincente Totogol, si mantiene comunque una probabilità del 69,26 per cento di realizzare da uno a tre 6. Il secondo sistema è ormai un bi-ridotto classico che si deve alla genialità di Salvatore Di Guida (Nuovo Totoguida Sport): 12 partite coperte da appena 3 colonne a garanzia matematica della vincita di 3E categoria. Con 8 punti si hanno un 8 allo 0,61 per cento, un 7 al 19,39 per cento, due 6 al 21,82 per cento, e un 6 al 58,18 per cento. Con 7 punti azzeccati si hanno invece un 7 al 3,03 per cento e un 6 al 42,42 per cento (nel 54,55 per cento dei casi non si vince nulla). Infine con appena sei partite indovinate si mantiene un buon 9,09 per cento di probabilità di realizzare almeno un 6. Per entrambi i sistemi è naturalmente possibile sostituire ad un eguale numero dello schema di riduzione il corrispondente numero della partita della schedina. Per esempio: se la prima partita del nostro pronostico è la quinta, sostituiremo, in fase di copiatura sulle schedine, a tutti gli 1 il 5, se la seconda è l'ottava, sostituiremo a tutti i 2 l'otto e così via. A questo punto non rimane che l'augurio finale: buon 1995 con un otto] Alan Petrozzi


STUDI INTERDISCIPLINARI Il tempo conteso tra i fisici e i filosofi Perché la «quarta dimensione» rimane inafferrabile
Autore: BEDARIDA FEDERICO

ARGOMENTI: FISICA, FILOSOFIA, CONGRESSO, RICERCA SCIENTIFICA
NOMI: PRIGOGINE ILJA, PANTALONI JACQUES, RISSET CLAUDE
ORGANIZZAZIONI: CIEL ET ESPACE, LA RECHERCHE, LIBERATION
LUOGHI: ESTERO, FRANCIA, PARIGI
NOTE: «Le leggi del caos»

OGNI inizio d'anno è una buona occasione per riflettere sul tempo. «Gli scienziati non leggono Shakespeare e gli umanisti sono insensibili alla bellezza della matematica», scrive Ilja Prigogine nel suo libretto «Le leggi del caos», e in prima approssimazione penso che abbia ragione; e dice ancora: «Credo che questa dicotomia viva di una motivazione più profonda e che risieda nel modo in cui la nozione di tempo è incorporata in queste due culture (la scientifica e la umanistica). Il tempo è la nostra dimensione esistenziale fondamentale: è la legge della creatività degli artisti, dei filosofi e degli scienziati». Anche Popper aveva già espresso la stessa opinione. Ilja Prigogine appartiene a una famiglia di ebrei russi emigrati in Belgio durante la rivoluzione sovietica. E' uno scienziato che «legge Shakespeare» e nel 1977 ha avuto il premio Nobel per la chimica. E' un signore molto garbato e qualche volta molto discusso da alcuni fisici «duri». Proviamo a chiarire il significato di quello che dice Prigogine seguendo le tracce di due convegni. Il primo, di una sola giornata, si è svolto a Parigi con il titolo «Le temps et sa fleche» (Il tempo e la sua freccia, cioè il tempo che fluisce in una sola direzione). Era stato organizzato tra gente di diversa estrazione culturale nel quadro delle discussioni sui progressi della fisica, con l'appoggio della Divisione Campi e particelle della Società francese di fisica e delle riviste Ciel et Espace, La Recherche e del quotidiano Liberation. A quel convegno parteciparono 400 francesi, 2 italiani, un olandese, fisici, chimici, biologi, medici, filosofi, psicologi e musicisti. Il discorso sul mistero del tempo è continuato nel convegno «Le temps et sa mesure», a Besancon, con il contributo di diverse discipline oltre la fisica. La neurobiologia, la psicopedagogia, l'estetica musicale, la filosofia, la storia hanno bisogno del tempo. Il tempo occupa un largo spazio in letteratura e entra nelle frasi di tutti i giorni: non ho tempo, quanto tempo è passato, il tempo vola, non ho mai un minuto, ricordo il tempo che abbiamo passato insieme, e oggi il brutto «attimino». Del tempo si occuparono Aristotele («Il tempo è stato o sarà ma non è»), e Sant'Agostino («Se non me lo chiedono credo di sapere cos'è ma se me lo chiedono non lo so più»). Oggi il tempo è definito in molti modi: il tempo assoluto, il tempo relativo, la reversibilità, l'irreversibilità che con una bella immagine viene chiamata la freccia del tempo. Jacques Pantaloni ha scritto: «Il concetto di relatività per il tempo è ormai acquisito, ma la freccia del tempo dà ancora luogo a riflessioni: il tempo microscopico è reversibile mentre il macroscopico non lo è: dove comincia l'irreversibilità?». A sollievo del lettore questo argomento lo segnalo soltanto. «La fisica ha contribuito ad arricchire la nozione di spazio- tempo facendone uno dei fondamenti delle conoscenze attuali». La relatività ristretta, conferendo alla velocità della luce la dignità di «costante universale», ha fatto sì che per quanto riguarda la misura, lo spazio è diventato dipendente dal tempo. Il secondo come unità di tempo è definito in funzione di un multiplo (dell'ordine di 9 miliardi) di un tempuscolo ben preciso che corrisponde al salto quantico dell'elettrone tra due livelli dell'atomo di cesio 133. Il metro unità di lunghezza è definito come la lunghezza percorsa dalla luce nel vuoto nella frazione di secondo pari in numero all'inverso del valore della velocità della luce. Le nuove tecnologie dell'ingegneria hanno il tempo come parametro economico delle nuove strategie industriali. Le scienze della Terra e dell'universo hanno un larghissimo spettro di misura del tempo che va dalla dozzina di miliardi di anni per la storia dell'universo all'ordine del millisecondo per le pulsar (radiosorgenti che emettono a intervalli brevi e regolari). La vita stessa nella sua complessità specifica dipende da ritmi biologici che a loro volta dipendono dal tempo. I diversi aspetti della cronobiologia, il comportamento oscillatorio dei neuroni, il ritmo cardiaco, il ritmo respiratorio, l'alternanza veglia-sonno dimostrano l'importanza vitale del tempo nelle nostre funzioni quotidiane. Il tempo, per la sua molteplicità di aspetti, rientra anche in scienze umanistiche come epistemologia, sociologia, psicologia, storiografia. La psicologia cognitiva studia lo sviluppo della nozione di tempo dal fanciullo all'adulto. Piaget al convegno è stato molto nominato. Ma la parte più interessante e strutturata è fornita dalla fisica, la scienza dura. Il determinismo classico seguendo Laplace (che faceva riferimento a un'intelligenza onnicomprensiva) indicava che l'evoluzione futura è già tutta contenuta nello stato presente. Quindi il futuro avrebbe potuto essere previsto in tutta certezza e anche i maghi avrebbero potuto avere qualche giustificazione scientifica. Poincarè alla fine del secolo scorso non fu dello stesso parere e mostrò al contrario che evoluzioni corrispondenti e equazioni di partenza anche semplici possono dar luogo a dinamiche complese che si possono pensare dovute semplicemente al caso (al «pur hazard», per usare i termini dei francesi). Era già l'inizio delle moderne teorie del caos. Nel problema generale della mutua interazione di tre corpi Poincarè scoprì che alcune combinazioni sono altamente instabili. Per la fatica (non esitevano i computer) implicita in questi studi Poincarè a un certo punto si ammalò e smise. Oggi con i calcolatori si sono trovati molti esempi di questa imprendibilità. Ormai da una ventina d'anni è apparso chiaro che certi sistemi molto semplici e dipendenti da un numero piccolo di variabili possono ugualmente mostrare comportamenti erratici e complessi. Fino a qualche tempo fa si era creduto che una tale evoluzione complessa dovesse per forza derivare da un sistema complesso. Il battito d'ali di una farfalla in Giappone può provocare, con uno sviluppo a cascata, un uragano negli Stati Uniti. Questa la frase, ben nota e impressionante, di Lorenz. Anche la musica ha una relazione profonda con il tempo e Claude Risset ne ha scritto i pardossi e le illusioni. Per illustrare le concezioni del tempo nella musica del XX secolo un concerto di chiusura ha offerto musiche di Igor Stravinski, Alban Berg, John Cage. Olivier Messiaen, Cornelius Cardew. Il concerto si è chiuso con un assolo del percussionista, un assolo così astratto da far impallidire i quadri di Mondrian. Dimenticavo: Besancon è la capitale francese degli orologi: per un convegno sul tempo, la sede più adatta. Federico Bedarida Università di Genova


BILANCIO CLIMATICO Al 1994 il primato del caldo Entro la media le piogge, Piemonte a parte
Autore: COLACINO MICHELE

ARGOMENTI: METEOROLOGIA, ECOLOGIA, STATISTICHE, ATMOSFERA
LUOGHI: ITALIA
NOTE: Effetto serra, cambiamenti climatici

ANCHE se non occupa più le pagine dei giornali, il problema dell'effetto serra è sempre presente all'attenzione dei climatologi, i quali, particolarmente alla fine dell'anno, si dedicano a studi ed analisi per valutare se l'andamento del clima e quindi dei principali parametri che lo rappresentano tenda a confermare o a smentire l'ipotesi di un cambiamento legato al potenziamento di questo effetto a causa delle attività umane. Se guardiamo al nostro Paese, non c'è dubbio che nell'anno appena terminato il fenomeno più rilevante, non solo in termini meteorologici ma anche per le disastrose conseguenze, sia stato rappresentato dalla situazione di blocco che, dando luogo a prolungate precipitazioni, ha determinato nei primi giorni di novembre vaste inondazioni nell'Italia nord-occidentale. La reazione, direi istintiva, di fronte a quell'evento estremo è stata quella di collegarlo a un cambiamento climatico in atto: in realtà un esame più attento della storia del clima della Penisola indica che fenomeni di questo tipo, pure se non frequenti, si verificano tuttavia con una certa ricorrenza. Fermandoci al solo periodo successivo alla seconda guerra mondiale, per il quale si hanno dati affidabili, si può ricordare, tanto per citare gli eventi più clamorosi, che inondazioni si sono verificate nel 1951 in Piemonte, nel 1956 nel Polesine, nel 1966 a Firenze, nel 1970 in Liguria e nel 1983 in Carnia. E' un elenco parziale e incompleto che però dà già una idea abbastanza chiara del perché non si devono collegare le piogge di novembre a una modifica del clima, ma le si devono più correttamente e più semplicemente interpretare come un evento meteorologico, trattandosi di un fenomeno che tende a ripresentarsi ciclicamente. Sempre in tema di precipitazioni e cambiamento climatico alcuni studiosi sostengono essere in corso un processo di «tropicalizzazione» nell'andamento delle piogge, che si concentrerebbero in pochi episodi di notevoli intensità intervallati da lunghi periodi siccitosi. In realtà è il regime delle precipitazioni nel Mediterraneo che si presenta con caratteristiche molto specifiche: nel clima del bacino le piogge sono concentrate, oltre l'80 per cento del totale, nel periodo che va da novembre ad aprile. Inoltre si deve ancora osservare che esse non sono, anche in questo periodo, uniformemente distribuite, ma sono più frequenti nel tardo autunno e nei mesi primaverili, mentre i mesi più freddi sono in genere più secchi. D'estate, e cioè nei mesi da giugno a settembre, le piogge sono assenti del tutto o quasi; si verificano solo in prossimità dei rilievi appenninici o nella Pianura Padana dei temporali di breve durata o molto intensi legati ai fenomeni convettivi, che hanno origine per l'intenso riscaldamento del suolo a causa del forte soleggiamento. Spesso questi temporali portano grandine, come, purtroppo per loro, ben sanno i viticoltori del Piemonte, del Veneto e del Trentino. Se dall'esame delle precipitazioni non vengono segnali chiari di cambiamento climatico possiamo chiederci cosa succede per quel che riguarda la temperatura dell'aria. In questo caso, invece, l'analisi dei dati desta una qualche attenzione: almeno per quanto riguarda l'area del Mediterraneo centrale, il 1994 potrebbe, stando ai primi risultati, essere il più caldo degli ultimi 130 anni. Considerando come riferimento, secondo criteri adottati a livello internazionale, il valore della temperatura media nel trentennio 1951-1980, lo scarto della temperatura media annua del 1994 dovrebbe aggirarsi intorno a 1,3 - 1,4 C. Questo valore è superiore a quello massimo finora registrato nel 1990 ed è ben più alto anche rispetto a quelli di tutti gli anni caldi dell'ultimo secolo, che presi nell'ordine sono stati rispettivamente: 1949, 1961, 1943, 1982, 1988, 1989. Il 1994 è stato anche caratterizzato dal fatto che i valori di temperatura sono stati più elevati rispetto a quelli della media di riferimento anche mese per mese: solo febbraio e aprile hanno avuto scarti prossimi a zero, mentre valori degli scarti molto alti si sono registrati in marzo, luglio ed agosto. Se oltre all'andamento temporale si guarda anche alla distribuzione spaziale delle anomalie di temperatura si ha che le regioni più calde, rispetto alla norma, sono state la Val Padana centro-occidentale, il medio ed alto versante tirrenico, la Sardegna e l'Adriatico meridionale. A Bari nei mesi estivi le differenze dalle temperature di riferimento hanno raggiunto i 5 - 6 C, che rappresentano dei veri e propri valori da record assoluto. Questo andamento della temperatura evoca, molto più che non il regime pluviometrico, un eventuale cambiamento del clima legato al potenziamento dell'effetto serra a causa dell'attività dell'uomo. Tuttavia, prima di giungere a conclusioni che potrebbero rivelarsi affrettate ed errate, è necessario valutare gli andamenti nelle altre regioni del pianeta, perché è bene rammentare sempre che un cambiamento del clima, anche se dà luogo a impatti localmente differenti, è comunque un effetto che può essere correttamente valutato solo a scala globale. Michele Colacino Cnr, Istituto di Fisica dell'Atmosfera


CD-ROM Multimedia Il problema diritti d'autore
Autore: GIORCELLI ROSALBA

ARGOMENTI: INFORMATICA, TECNOLOGIA, LEGGI, EDITORIA
NOMI: MARTINO ANTONIO
ORGANIZZAZIONI: SMAU
LUOGHI: ITALIA

SONO ormai molto numerosi i progetti di opere multimediali su dischi CD-Rom o Cd-I: una tecnologia ideale per condensare in poco spazio un sapere enciclopedico o per inventare nuovi giochi, passando con agilità dal testo scritto, al parlato, alla musica, al film, alle immagini animate. Il mercato sta per impazzire, ma si profila un problema che potrebbe far sbollire gli entusiasmi e scoraggiare chi sviluppa queste nuove tecnologie: le garanzie di tutela dei diritti d'autore per le opere multimediali sarebbero insufficienti. La questione è complessa perché, per la loro stessa struttura e le finalità, queste opere spesso traggono informazioni e spunti da moltissime fonti, dalle caratteristiche notevolmente diversificate. Un allarme è stato lanciato nel corso dal convegno «Multimedia» che si è tenuto all'ultima edizione dello Smau, a Milano: non esiste attualmente alcuna normativa specifica nè italiana nè europea, e l'applicazione dei criteri dell'anglosassone «copyright» potrebbe rivelarsi insoddisfacente. Anzi, potrebbe essere proprio la multimedialità a far emergere contraddizioni e superficialità nella considerazione giuridica del software. In realtà, insieme con il principio della proprietà intellettuale e la difficile definizione di originalità dell'opera, sono in gioco soprattutto grossi interessi economici, tanto è vero che si parla insistentemente di «diritti esclusivi industriali». Non vengono quasi nominati, invece, i «diritti morali», che dovrebbero tutelare l'opera originale non solo dalle alterazioni ma anche dagli abusi. La tutela di un diritto morale, ad esempio, si potrebbe invocare contro la colorazione dei film girati in bianco e nero, come ad esempio si sta facendo, con risultati alquanto discutibili, per i film di Crik e Crok in videocassetta. Tutelare un diritto è ancora più difficile se risulta complicato definire la «cosa» da proteggere. Per fare un esempio, ci volle tempo per riconoscere nell'energia elettrica un prodotto da pagare, e come classificare l'energia il legislatore ancora oggi non lo sa: il concetto di furto si applica infatti a «beni» o a «energia». «Definire la natura del bene da proteggere è essenziale, non si tratta di un esercizio linguistico», commenta Antonio Martino, docente di Scienze Politiche all'Università di Pisa: «Per beni diversi il trattamento dovrebbe essere diverso: cambia il principio di originalità, di somiglianza con altri beni. Ma per realizzare queste distinzioni occorre un cambiamento di cultura». Il problema si è già posto in modo forte con il software e si porrà ancora con l'informazione. Ed è di informazioni che si nutre un'opera multimediale. In prima approssimazione, si possono applicare alle diverse parti che compongono un'opera multimediale le singole normative (ad esempo, diritti di immagine fotografica, di riproduzione di un testo scritto). Resta la difficoltà di quantificare la somiglianza del lavoro con eventuali precedenti (tenendo presente che cataloghi e raccolte possono considerarsi opere originali), e di distinguere i singoli autori in mezzo a quello che alla fine appare come un mosaico compatto e immenso: chi ha scritto, e che cosa ha scritto (o filmato, o disegnato, o progettato)? «L'analogia che viene in mente» continua Antonio Martino, «è con un prodotto cinematografico, dove si intrecciano gli interventi di molte figure professionali. L'industria cinematografica ha costruito un sistema molto articolato per darsi dei prezzi, per calcolare in anticipo i suoi costi. Qualcosa di simile dovrebbe provare a costruirsi, e in tempi brevi, la giovane industria multimediale». Nel frattempo, due consigli a coloro che sviluppano opere multimediali: tenere sotto controllo la quantità di informazione sovrabbondante ed evitabile, in modo da limitare anche la probabilità di complicarsi la vita con questioni legali; e stipulare accordi accurati. Rosalba Giorcelli


AMBIENTE Spazzatura? Bruciamola Inceneritori: che si fa in Europa
Autore: RAVIZZA VITTORIO

ARGOMENTI: ECOLOGIA, TECNOLOGIA, RIFIUTI, INQUINAMENTO, ATMOSFERA
ORGANIZZAZIONI: ASME (AMERICAN SOCIETY OF MECHANICAL ENGINEERS)
LUOGHI: ITALIA
NOTE: Termodistruzione

LA discarica dei rifiuti? La si faccia in casa del vicino. I pochi impianti esistenti si stanno rapidamente colmando e le giuste preoccupazioni ecologiche impediscono di farne altri. Una emergenza di nuovo tipo, così grave da avere generato addirittura nuove forme di criminalità, dalle mazzette ai depositi clandestini, ai delitti di mafia e camorra. Le amministrazioni locali sono in difficoltà. Il ministero dell'Ambiente ha appena presentato uno «sportello rifiuti» per coinvolgere i Comuni «in un progetto più ampio di gestione dell'intero ciclo dei rifiuti». Ma soluzioni a portata di mano nessuno ne ha. Gli inceneritori possono essere una via d'uscita da questo problema? La «termodistruzione» è una soluzione controversa. In alcuni Paesi è praticata su larga scala, in altri (ed è il caso dell'Italia) è marginale; dappertutto, comunque, restano perplessità per le possibilità di inquinamento, in particolare per l'emissione di diossina. In Italia gli inceneritori funzionanti sono appena una cinquantina, perlopiù piccoli e di tecnologia non eccelsa, capaci di smaltire il 12 per cento dei rifiuti solidi urbani. La Toscana ne ha 19, la Lombardia 12, il Friuli 11, Emilia Romagna e Veneto ne hanno 10, la Puglia 9, la Sardegna 8; le altre regioni sono staccate. Ma se poi si guarda bene si vede che quelli che funzionano davvero sono assai di meno: 11 in Toscana, 7 in Lombardia, 2 in Veneto, 3 in Friuli e così calando. In Piemonte su 4 inceneritori due sono spenti. All'estero vi sono situazioni molto diverse: in Germania, per esempio, esistono solo 50 grandi impianti in grado di smaltire un quarto dei 31 milioni di tonnellate di rifiuti solidi urbani e industriali; generalmente producono anche energia, termica o elettrica. In Svezia 20 impianti trattano la metà dei rifiuti e forniscono il 5 per cento dell'energia termica del Paese (ma in alcune regioni anche il 20-30 per cento). In Francia gli impianti, più piccoli, sono 260 e riescono a togliere dalla circolazione il 35-40 per cento della spazzatura, mentre in Giappone si arriva al 70 e in Svizzera addirittura all'80. (Al contrario gli Usa sono appena al 15 per cento). I vantaggi fondamentali dell'incenerimento: le scorie occupano appena il 10% dello spazio dei rifiuti di partenza; e i rifiuti, specie plastica e gomma, danno una quantità apprezzabile di energia che altrimenti finirebbe sotto terra. Svantaggi: un inevitabile inquinamento dell'aria, sul quale tuttavia, dicono gli esperti, si può «lavorare» portandolo entro limiti accettabili. Sono le indicazioni che vengono, ad esempio, da uno studio che l'Amiat, l'azienda municipale di igiene ambientale di Torino, ha affidato a Giuseppe Genon, del dipartimento di scienze dei materiali di Torino. La combustione genera polveri molto fini (le quali possono oltretutto essere veicolo di altri inquinanti ancora più preoccupanti, cioè metalli e composti organici), che, dice il professor Genon, «eccedono in modo notevole i limiti imposti». Tra i gas emessi prevale l'ossido di carbonio, seguito da anidride solforosa, acido cloridrico e acido fluoridrico. Quanto ai metalli, in testa a tutti c'è lo zinco, seguito da ferro, piombo, manganese, rame, cromo, cadmio, nickel e antimonio. Le indagini fatte su 13 inceneritori in diverse località italiane hanno mostrato che questi metalli «sono presenti in concentrazioni fino a 5 ordini di grandezza superiori a quelli attesi in un aerosol di origine naturale», ossia, in parole povere, cinque volte più della norma. In particolare è insidioso il mercurio, fortemente tossico, che si trasforma per più del 95% in prodotti volatili. Ed eccoci ai residui più temuti, specie in Italia dove resta vivo il ricordo di Seveso. Sono i cosiddetti microinquinanti clorurati, cioè diossine e dibenzofurani, «composti, in molti casi, di elevata tossicità» come dice lo studio di Genon. Si tratta di parecchie decine di composti che, spiega sempre lo studio, si formano quando si opera a temperature «intermedie», intorno ai 500-600 gradi centigradi. Sulla quantità di questi composti e sulla loro pericolosità lo studio ordinato dall'Amiat riporta una serie di pareri che noi riportiamo letteralmente a nostra volta. 1) L'Asme (American society of mechanical engineers) dice: «Il rischio di cancro associato all'emissione di diossine da processi d'incenerimento di rifiuti solidi (1 su un milione) è di diversi ordini di grandezza inferiore al rischio di morte derivante da altri tipi di esposizione, come quella volontaria di fumare 20 sigarette al giorno e quella involontaria di contrarre l'influenza. Il rischio è probabilmente dello stesso ordine di grandezza associato ad altre forme di smaltimento dei rifiuti, quali la discarica controllata». 2) Rapporto di studiosi olandesi su un medio inceneritore: «Il rischio derivante dall'atmosfera inquinata non è elevato, ma può diventare tale per regolare ingestione di cibo, specialmente latte e prodoti caseari, provenienti da bestiame allevato con il foraggio coltivato in prossimità dell'inceneritore». 3) Relazione Genon: «Nei sistemi di combustione attuali, grazie all'adozione di temperature sufficientemente elevate, e soprattutto alla regolazione di un idoneo eccesso di ossigeno, si può ritenere nel complesso non critico il fenomeno della neoformazione di microinquinanti». Vittorio Ravizza


A VENEZIA Operazione canali puliti Una macchina evita di doverli prosciugare
Autore: RUSSO SALVATORE

ARGOMENTI: ECOLOGIA, TECNOLOGIA, MARE, AMBIENTE, RIFIUTI
ORGANIZZAZIONI: TECNOMARE, THETIS, FAGOS
LUOGHI: ITALIA

CHE cosa avrebbero detto i Dogi dei rii veneziani abbandonati al fango per 33 anni? Ai loro tempi, sicuramente, non sarebbe accaduto, dato che la pulizia dei canali avveniva in modo sistematico. Le norme della Serenissima a tutela dell'ambiente lagunare erano ferree. Oggi, tuttavia, sarebbero contenti della nuova tecnologia di scavo messa a punto per risolvere l'annoso problema. Si tratta di uno strumento progettato per ripulire i 176 canali di Venezia, cinque chilometri in tutto, senza prosciugarli. Già, perché il problema non era semplice. Scavare a secco o scavare in umido? Con la prima tecnica si prevedono almeno due o tre anni di lavoro per mettere a nudo tutti i canali, privando i turisti dei tradizionali giri in gondola e bloccando la vita commerciale della città. Per non parlare degli odori provenienti dai rii più intasati, già oggi fastidiosi nei periodi di bassa marea. La seconda tecnica di scavo, più rapida, consente di gettare da un'imbarcazione una sonda, progettata da un consorzio di imprese - Tecnomare, Thetis e Fagos - che lambisce il fondo e le pareti dei canali, asportano il fango come un aspirapolvere. In trent'anni, anche se è difficile proporre una stima precisa, i detriti depositati nei canali sono pari a circa mezzo milione di metri cubi, una media di 80- 140 centimetri in più sul livello medio di ogni canale: tanto da riempire lo stadio di San Siro sino al terzo anello. Il programma di scavo è iniziato con il primo rio, a Santa Maria Zobenigo, in pieno centro storico, a pochi passi dal Ponte di Rialto, e secondo le attuali previsioni entro 5 anni verrà asportato il 50 per cento di fango da ogni canale della Laguna. Per i rii maggiormente ingombri di fango, tuttavia, verrà impiegata anche la tecnica di asportazione a secco. Lo scavo porterà dei benefici indiscussi: una migliore circolazione delle correnti e del materiale fognario, mentre sarà possibile verificare lo stato delle fondazioni di molti Palazzi cinquecenteschi. Per una città come Venezia, che da anni cerca soluzioni ai suoi problemi, non è poco. Salvatore Russo


AVIFAUNA A RISCHIO Ragazzi, un'idea nuova! BirdLife premia i progetti di spedizioni inconsuete
Autore: FRAMARIN FRANCESCO

ARGOMENTI: ECOLOGIA, ZOOLOGIA, ANIMALI, AMBIENTE, CONCORSI, GIOVANI, STUDENTI
ORGANIZZAZIONI: BIRDLIFE, CIPU COMITATO INTERNAZIONALE PRESERVAZIONE UCCELLI
LUOGHI: ITALIA

SI chiama BirdLife ed è comparso l'anno scorso nella ristretta cerchia delle organizzazioni ecologiche internazionali. Il logotipo, sormontato dallo schizzo di una rondine di mare in volo, indica chiaramente che si occupa di uccelli (pur ispirandosi a principi ambientali più ampi, anzitutto l'uso sostenibile delle risorse naturali mondiali). Il quartier generale è a Cambridge, in Inghilterra, e anche la sua origine è anglosassone. Raccoglie e aggiorna dati biologici e ambientali sull'avifauna del mondo, li analizza scientificamente e li impiega sia per coordinare o consigliare programmi internazionali, sia per gestire progetti operativi specifici. Così, combinando serietà scientifica con passione naturalistica, BirdLife riesce a contare su una rete vastissima di esperti, appassionati e associazioni in oltre 100 Paesi del mondo. BirdLife è evoluta dal Comitato internazionale preservazione uccelli-Cipu, il precursore delle organizzazioni ecologiche internazionali, nato nel 1922 a Londra. L'iniziativa fu di un americano, Pearson, presidente della società ornitologica Audubon, allora come oggi fra le più ricche e dinamiche del mondo. E' triste notare che due punti del programma del neonato Cipu, l'inquinamento del mare e il commercio degli uccelli, restano due spine anche della conservazione odierna. BirdLife individua le priorità globali accertando e valutando lo status delle popolazioni e degli habitat delle diverse specie. Già nel 1978 il Cipu aveva preparato per l'Ucn, Unione internazionale conservazione natura, una lista commentata degli uccelli minacciati d'estinzione su scala mondiale, detta Libro Rosso. BirdLife intende poter dare un allarme tempestivo sia per le specie, sia per le aree in pericolo, prima che raggiungano lo stadio critico. Perciò sta sviluppando un elenco computerizzato detto World Birds Database, che conterrà informazioni su tutti gli uccelli del mondo: distribuzione, habitat, status e minacce in ogni Paese del loro areale. L'ambizioso progetto, che si vuole facilmente accessibile e compatibile con altri sistemi informativi, dovrebbe esser pronto nel 1998. Sulla base delle informazioni disponibili delle quasi diecimila specie del globo l'11% è in qualche misura minacciato di estinzione; 704 specie sono vulnerabili, 235 in pericolo e 168 in crisi. Dato che le categorie della minaccia corrispondono a diverse probabilità d'estinzione, si può calcolare il numero e il tasso della scomparsa delle specie d'uccelli nei prossimi 100 anni, supposto che non si faccia alcuna azione a loro favore e che nessun'altra specie entri nella lista (ma BirdLife fa notare che un altro migliaio di specie, attualmente fuori, son prossime ad entrarvi). Il calcolo dà quasi 400 specie estinte nei prossimi 100 anni. Questo scenario appare estremo, ed è un po' più pessimistico di quanto suggerisca l'esperienza passata, ma la sostanza della previsione rimane valida: solo un'azione concertata nei punti-chiave di tutto il mondo potrà prevenire nel prossimo futuro una grossa perdita di specie. La causa di gran lunga maggiore delle estinzioni è la distruzione degli habitat e, se si guarda alle aree dov'è la più parte delle specie minacciate - America del Sud, Asia del Sud-Est - ci si rende conto dell'enormità e della difficoltà degli sforzi necessari. Sono pochi i casi assimilabili al successo ottenuto dal Cipu con la Cannaiola delle Seychelles (Acrocephalus sechel lensis). Questo uccelletto che abitava solo alcune isole dell'arcipelago, negli Anni 60 era ridotto a 25 esemplari sull'unica isola Cousin. Con fondi raccolti da una sottoscrizione in Inghilterra, l'isoletta fu comprata e poi accuratamente gestita. Oggi la Cannaiola è risalita a 400 esemplari ed è tornata su altre due isole. Proteggere una specie sedentaria in pericolo per la piccolezza della sua popolazione può essere relativamente facile, almeno dal punto di vista teorico. Ma molte specie sono disperse su aree vastissime con densità molto basse e a poco servirebbe istituire parchi o riserve. Altre specie difficili da controllare, ancor prima che proteggere, sono gli uccelli migratori, che nei loro lunghi viaggi incontrano innumerevoli pericoli d'ogni genere. Molti di essi si concentrano in grandi quantità nelle aree di sosta, di svernamento o di riproduzione, aree critiche per la loro sopravvivenza. Per assicurarla, bisogna che tutti i Paesi attraversati dai migratori collaborino fra loro. Le attuali conoscenze sulle rotte migratorie e le aree di sosta sono disperse e lacunose; BirdLife ha iniziato a provvedervi mediante indagini a vasto campo, per individuarle e descriverle in termini quantitativi e standardizzati. L'indagine sull'Europa ha indicato 2444 aree, quella sul Medio Oriente 391; due indagini sono in corso per l'Africa e per le Americhe, una è in progetto per l'Asia. L'obiettivo è di completarla per l'anno 2000 (serie Important bird areas). Le specie endemiche, cioè viventi in aree ristrette, sono considerate in generale rare e più minacciate delle altre che vivono in areali estesi. BirdLife ha svolto una ricerca di 4 anni su queste specie e sulle loro aree. La loro distribuzione nel mondo non è uniforme, ma ha mostrato concentrazioni notevoli e inattese, almeno dal punto di vista quantitativo. L'Indonesia è di gran lunga il Paese più ricco di endemismi, seguito dal Perù (non dall'enorme Brasile, come ci si poteva attendere). Confrontando le informazioni, in generale assai meno complete, su animali diversi dagli uccelli (mammiferi, rettili, farfalle, etc.) e sulle piante, si è trovato che le aree con uccelli sono ricche anche di altri gruppi di esseri viventi. In altri termini esse possiedono un'alta diversità biologica, della quale gli uccelli sono ottimi indicatori. Visto che alcune spedizioni di giovani, specialmente universitari, sono in grado di raccogliere informazioni sullo stato di specie o di ambienti poco visitati da scienziati professionisti, BirdLife ha istituito da alcuni anni un concorso per stimolare queste spedizioni ad adottare un obiettivo di conservazione ben definito e fornire una guida sul modo di perseguirlo. Al concorso possono partecipare gruppi di giovani di preferenza non laureati (meglio però se comprendono un naturalista laureato) e la spedizione deve coinvolgere studenti locali o una controparte locale. Sono escluse spedizioni in America del Nord, Europa del Nord, Giappone e Australia. L'obiettivo può riguardare sia specie sia aree nei quattro seguenti campi: Foreste Tropicali, Zone Umide, Mare e Isole Oceaniche, Specie Minacciate. In ogni campo il progetto vincitore ottiene un finanziamento di 3000 sterline, i due successivi progetti 1000 sterline ciascuno e vi sono contributi per l'eventuale «follow-up». Maggiori informazioni presso: BirdLife International, Wellbrook Court, Girton Rd, Cambridge CB3 0NA, UK. Francesco Framarin


ACCADEMIA DEI GEORGOFILI La cultura del verde
Autore: ACCATI ELENA

ARGOMENTI: BOTANICA, ECOLOGIA
NOMI: SCARAMUZZI FRANCO
ORGANIZZAZIONI: ACCADEMIA DEI GEORGOFILI
LUOGHI: ITALIA

L'Accademia dei Gergofili, una delle più prestigiose istituzioni scientifiche non solo a livello italiano, presieduta da Franco Scaramuzzi, ha intensificato le sue iniziative con temi di grande attualità, come la serie di manifestazioni relative al cambiamento globale che investe il nostro pianeta. Numerosi e qualificati studiosi affrontano le varie tematiche per far capire l'importanza del verde nella difesa e nel ripristino ambientale. Il verde, sia quello territoriale (spazi dotati di funzione ricreativa, produttiva, ecologica), sia quello metropolitano (parchi urbani, giardino pubblici, privati, storici, orti urbani, sponde dei fiumi, verde museale, scolastico ed ospedaliero), determina un miglioramento dell'habitat, che, come è ben noto, è un bene culturale, economico e sociale, ma soprattutto un elemento strategico per l'equilibrio ambientale. Come tale è una risorsa che va innanzitutto conosciuta, quindi conservata, valorizzata, restaurata, inserita nei programmi, nei bilanci, nella gestione della cosa pubblica, almeno con pari dignità di altre infrastrutture della collettività. Basti pensare alla ricchezza in termini di verde rappresentata dalle sponde dei fiumi di Torino, poco utilizzate da parte dei cittadini. Natura e città, spazi verdi e spazi costruiti sono spesso considerati erroneamente come contrapposti, in realtà vanno visti come integrati e complementari. Nel progettare e costruire la città, l'uomo ha trasformato e modificato totalmente l'ambiente plasmandolo, organizzandolo e controllandolo in modo da renderlo rispondente alle sue esigenze. Nel fare questo ha «espulso» gli elementi del paesaggio naturale; senza cercare con la natura un equilibrio, al contrario ingaggiando una lotta per soddisfare i propri fabbisogni di spazio. Studiare la città presuppone di conoscere i complessi ecosistemi urbani; invece manca una sperimentazione seria e puntuale sulle condizioni a cui sono soggette le specie vegetali in città. Si parla sempre in modo approssimativo di innalzamenti termici, di danni da sale e da impermeabilizzazione, di ferite dovute al traffico, tuttavia non si dispone di dati quantificabili al riguardo. D'altra parte, mancano anche dati e metodi adatti a descrivere la perdita di valore estetico a cui va incontro l'albero per le modificazioni di colore, di sviluppo della chioma, di forma delle stesse foglie e talvolta di architettura dell'intero albero. Molte delle specie vegetali attualmente utilizzate nell'arredo verde delle aree urbane derivano da collezioni di piante introdotte e selezionate per il giardino all'inizio dell'Ottocento, quando i criteri di selezione si riferivano a parametri completamente differenti: a quell'epoca non interessavano la rusticità nè le basse esigenze di manutenzione e tantomeno l'inquinamento. Quindi la ricerca effettuata tramite il miglioramento genetico oggi dovrebbe orientarsi verso la resistenza agli inquinanti, all'aridità del suolo (l'acqua è un bene sempre più prezioso); indispensabile risulta pure lo studio del miglioramento del terreno mediante substrati idonei e l'impiego sempre più diffuso delle biotecnologie, che permettono di ottenere specie vegetali con caratteristiche pregiate, ma al tempo stesso resistenti a funghi e insetti, e le varie tecniche di lotta biologica con microerbicidi (ossia funghi in grado di combattere le erbe infestanti). Sull'esempio di quanto accade in alcune città europee è stato recentemente compreso anche nel nostro Paese il ruolo importante e polifunzionale che gli arbusti possono svolgere nell'arredo delle aree verdi urbane. Al riguardo è stata finanziata dal Cnr una unità di ricerca coordinata volta a studiare l'ecofisiologia degli arbusti in aresa urbana; di essa fa parte anche la Facoltà di Agraria dell'Università di Torino. Elena Accati Università di Torino


VELENI NEGLI OCEANI Vivere in mezzo ai metalli tossici Le colonie degli abissi sfruttano a loro vantaggio soprattutto l'acido solfidrico
Autore: FOCHI GIANNI

ARGOMENTI: ZOOLOGIA, MARE, ANIMALI, BIOLOGIA, CHIMICA, INQUINAMENTO
NOMI: GERMAN CHRISTOPHER, ANGEL MARTIN, EDMOND JOHN
ORGANIZZAZIONI: INSTITUTE OF OCEANOGRAPHIC SCIENCES, MASSACHUSETTS INSTITUTE OF TECHNOLOGY
LUOGHI: ITALIA

Chi scarica più metalli negli oceani? Una graduatoria delle colpe è stata stimata quest'anno da due ricercatori dell'Institute of Oceanographic Sciences della contea inglese del Surrey. Mentre le attività umane sono largamente in testa per un veleno potente come il cadmio, la natura vince con distacco per quanto riguarda rame, zinco e manganese. Nel caso del piombo la situazione è un pò incerta: una specie d'arrivo «in fotografia». Dopo che una quindicina d'anni fa furono scoperte nei fondali oceanici alcune sorgenti vulcaniche d'acqua calda, Christopher German e Martin Angel (questi i nomi dei due studiosi del Surrey) furono fra coloro che individuarono un brulicare di vita nelle loro vicinanze. Circa il 95 per cento degli animali lì presenti erano sconosciuti: essi appartengono a quasi trecento specie nuove, per classificare alcune delle quali si sono dovute definire addirittura famiglie ad hoc. Ma come trovano il cibo questi animali, fra i quali ce ne sono alcuni abbastanza grandi (anellidi, molluschi), così lontano dalla superficie e dalla luce del sole? E' infatti essa che permette la fotosintesi e quindi innesca la normale catena alimentare. Gli oceanologi hanno scoperto che l'energia per la sintesi biologica dei carboidrati da parte di certi batteri è il calore dell'acqua che sgorga dal sottosuolo. Gli abitanti di quelle zone pranzano, insomma, a una sorta di ristorante alimentato a energia geotermica, anziché in quello a energia solare, dove vanno invece i residenti nelle acque meno profonde o sulla terra. I raggi del sole trasportano un'energia sufficiente a permettere all'acqua di sottrarre elettroni all'anidride carbonica, trasformandola in carboidrati. Nelle profondità oceaniche, tuttavia, la luce non arriva; se però c'è a disposizione del calore, al posto dell'acqua può essere sfruttato almeno l'acido solfidrico che, provenendo dalle viscere della terra, abbonda nelle sorgenti sottomarine. L'acido solfidrico, dal tipico odore d'uova marce, è molto tossico per gli esseri viventi del mondo «di sopra». Ma per quelle colonie degli abissi al contrario, esso è alla base dell'esistenza. Può darsi che essi sfruttino anche altri veleni che le sorgenti calde riversano di continuo nell'ambiente: un cocktail chimico che sarebbe micidiale per gli ecosistemi di superficie. John Edmond del Massachusetts Institute of Technology ha esaminato sorgenti vulcaniche situate nelle dorsali del Pacifico e dell'Atlantico; partendo dalle sue analisi, German e Martin hanno stimato che gli oceani ricevono da quel tipo di sorgenti - e quindi in modo naturale - dosi di piombo paragonabili a quelle riversate dall'uomo: migliaia di tonnellate all'anno. Dello stesso ordine di grandezza è il flusso naturale di cadmio e di cobalto, mentre le attività umane scaricano gli stessi metalli in quantità dieci volte maggiore. Nel caso di rame e zinco, invece, le sorgenti sottomarine contribuiscono assai più dell'uomo (qualche centinaio di migliaia di tonnellate all'anno contro qualche migliaio). Il manganese vomitato dal sottosuolo (milioni di tonnellate annue) è addirittura mille volte più abbondante di quello d'origine nostrana. Questi dati non ci possono mettere la coscienza a posto, se riflettiamo caso per caso sugli effetti dei metalli suddetti. Tanto per rendere l'idea delle loro diverse tossicità, le concentrazioni tollerate nell'acqua potabile dall'organizzazione mondiale della sanità variano molto: la più alta è quella dello zinco; quella del rame è cinque volte inferiore, mentre di cinquanta volte sono quelle del manganese e del piombo. La tolleranza del cadmio, metallo che come abbiamo visto è presente negli oceani soprattutto per colpa nostra, è di gran lunga la più bassa: ben mille volte minore di quella dello zinco. Gli studi di German e Angel non ci autorizzano quindi affatto a continuare con l'andazzo attuale. Tuttavia ci aiutano a sbarazzarci di certe teorie false a fuorvianti, secondo le quali l'inquinamento è dovuto solo alla tecnologia, mentre la natura è sempre e soltanto benigna: qualcosa di tossico (per esempio il manganese) lo riversano negli oceani più le fonti naturali di quelle umane. L'importanza di questa rivelazione, al di là della polemica contro un certo ambientalismo massimalista e infondato, sta nell'aiuto che forse potremo ricavarne per la lotta all'inquinamento. Quando infatti avremo capito come fanno gli organismi marini che vivono vicino alle sorgenti calde a sopravvivere in quell'ambiente ricco d'acido solfidrico e di metalli tossici, e anzi, in qualche caso, a sfruttare questi inquinanti a loro vantaggio, chissà che non potremo escogitare nuovi mezzi di risanamento ecologico. Gianni Fochi Scuola Normale di Pisa


NUOVA TERAPIA CON ANTIBIOTICI Guerra al batterio che provoca l'ulcera
Autore: LEONCINI ANTONELLA

ARGOMENTI: MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA
NOMI: RAPPUOLI RINO
ORGANIZZAZIONI: BIOCINE COMPANY
LUOGHI: ITALIA
NOTE: Helicobacter pylori, batterio responsabile dell'ulcera

L'ULCERA duodenale sembra avere i giorni contati. Un gruppo di ricercatori della Biocine di Siena, coordinati da Rino Rappuoli, ha scoperto i meccanismi molecolari attraverso i quali l'Helicobacter pylori, il batterio responsabile, provoca la malattia; il prossimo passo potrà essere quello di individuare adeguate terapie e un vaccino contro l'ulcera, che è una delle malattie più diffuse, colpendo il 10 per cento della popolazione dei Paesi industrializzati. Negli ultimi vent'anni, i trattamenti convenzionali hanno previsto la somministrazione di recettori antagonisti per ridurre la secrezione acida. Tuttavia, questo trattamento si rivela efficace solo a breve termine poiché in due anni la malattia torna a colpire, rendendo necessari nuovi trattamenti. La più recente ricerca privilegia invece altre linee d'intervento. «I risultati raggiunti - spiega il dottor Rappuoli - raccomandano per la cura dell'ulcera la sostituzione della somministrazione permanente di farmaci anti-secretivi con il trattamento antibiotico del batterio». Questo consente l'eradicazione di helicobacter pylori, ovverossia il suo annientamento e la definitiva guarigione del soggetto ammalato. Sarà così possibile ridurre i costi di una malattia altamente sociale per la quale ogni anno nel mondo si spendono 7000 miliardi ed è causa d'infezioni associate con un aumentato rischio di tumori gastrici. Gli isolati clinici di helicobacter pylori sono divisi in due categorie, delle quali solo una è associata all'ulcera. I ceppi dei pazienti affetti da malattia si differenziano per la produzione di una proteina immunodominante, la cagA, e di una citotossina che causa la formazione di vacuoli. «Abbiamo clonato e sequenziato il gene codificante - continua Rappuoli - e trovato che i ceppi non associati alla malattia non hanno il gene della cagA. Questa proteina ricombinante può essere, quindi, usata per riconoscere i pazienti con ulcera duodenale, un ottimo diagnostico alternativo alla gastroscopia per individuare i malati da trattare». Il vaccino sembra essere un obiettivo prossimo. Dopo aver clonato il gene della citotossina vacuolizzante, determinato le sequenze e la struttura primaria della proteina, i ricercatori della Biocine hanno dimostrato che la proteina purificata può provocare ulcere nello stomaco dei topi, in un modello animale organizzato nei laboratori. La tossina, infatti, danneggia gravemente i tessuti del rivestimento interno dello stomaco. Un'ulteriore conferma, attraverso la verifica a livello molecolare del postulato di Koch, ha permesso di dimostrare che la proteina purificata provoca l'ulcera. «Questa sostanza - conclude Rappuoli - è quindi un importante target per lo sviluppo di terapie e vaccini nel trattamento e prevenzione dell'ulcera». Sono incoraggianti anche i risultati per il vaccino contro l'epatite C, raggiunti in California dai ricercatori della Biocine Company: dopo la sperimentazione sugli animali, adesso si procederà sull'uomo. Importanti successi in laboratorio sono stati raggiunti anche per una diagnosi più sicura di epatite C grazie alla messa a punto di test di «terza generazione», che garantiscono una migliore sicurezza per il sangue da trasfusione. Sebbene non sempre i donatori infetti risultino positivi, in ogni caso il miglioramento delle analisi consente di ridurre il rischio di contrarre l'infezione che in Italia colpisce il 2 per cento dei soggetti che si sottopongono a trasfusione. Per il vaccino i ricercatori della Biocine Company sono ottimisti: su sette scimpanzè, ai quali è stato somministrato il vaccino, cinque non hanno manifestato un'infezione. Le incertezze riguardano, piuttosto, la natura trasformista del virus dell'epatite C, che si manifesta con diversi sottotipi e comporta quindi il rischio che il vaccino non abbia sempre la stessa efficacia. Antonella Leoncini


RETTANGOLI TRUFFALDINI La linea che scompare ... e il quadrato che salta via
Autore: BO GIAN CARLO

ARGOMENTI: MATEMATICA, OTTICA E FOTOGRAFIA
LUOGHI: ITALIA
TABELLE: D. Paradossi geometrici, trappole tra «buon senso» e illusione ottica: Paradosso del quadrato; Paradosso della linea che scompare; Paradosso del regalo che scompare

LA mente umana ha mostrato grande interesse per i paradossi fin dall'antica Grecia: è famoso il paradosso di Zenone su Achille che non raggiunge mai la tartaruga partita con un po' di vantaggio. Tutte le volte che si prospetta un problema insolubile secondo i concetti che riteneva applicabili, la mente resta scossa, e sotto la spinta della provocazione è stimolata a cercare nuove vie. E' il destino del paradosso: dal greco «parà» e «doxa», cioè «contrario all'opinione comune». Il significato attuale più generale è quello di «affermazione o credenza contraria a quanto ci si aspetta o all'opinione accettata». Il paradosso è infido: conduce a un'affermazione che sembra contraddittoria ma è vera, o al contrario a un'affermazione che sembra vera ma in realtà contiene una contraddizione; oppure implica un'argomentazione valida che conduce a risultati paradossali, nella scienza, nella logica, nella geometria. Tranello che collega la logica con la fantasia, trappola tra buon senso e illusione, la sua principale caratteristica è la contraddizione: niente si prospetta più ambiguo del paradosso. Ci sono paradossi astrusi, macchinosi o divertenti come le evanescenze geometriche dei rettangoli truffaldini. Un tipo semplice è quello della linea che scompare. Tagliando il rettangolo lungo la diagonale e riaccostando i due triangoli come in fig. 1, una linea scompare. Dove? Prima erano 7 ora sono 6. Si può dire «in fondo era soltanto una linea», però come la mettiamo con il rettangolo di fig. 2: la base è 13 e l'altezza 5. L'area 65. Se lo tagliamo secondo le linee indicate e ricomponiamo i pezzi otteniamo un quadrato di 8x8. L'area è 64! Le due aree non dovrebbero essere uguali? Che fine ha fatto il quadrato mancante? Quello che invece è stato avvilente, è che mi è stato dedicato un regalo supposto nella posizione C del rettangolo D. Poi il rettangolo è stato tagliato nelle parti segnate, con la scusa di mescolare i regali, e ricomposto: il primo rettangolo era di 6x13 quadratini corrispondenti a 78 regali; ma il secondo ha 77 quadratini: manca un regalo che, guarda caso, è il mio! Gian Carlo Bo


CASI CLINICI STORICI Se il Presidente è un malato ereditario L'Alzheimer di Reagan e il Marfan di Lincoln
Autore: GIACOBINI EZIO

ARGOMENTI: MEDICINA E FISIOLOGIA, GENETICA
NOMI: REGAN RONALD, LINCOLN ABRAHAM
LUOGHI: ITALIA
NOTE: Morbo di Alzheimer, morbo di Marfan

NELLE settimane scorse si è parlato molto del presidente Reagan e della malattia di Alzheimer, dopo che lo stesso paziente ha rivelato di esserne afflitto. Reagan, prima di essere eletto, disse pubblicamente che voleva un rigoroso accertamento delle sue condizioni mentali in quanto sua madre Nellie aveva sviluppato una forma di demenza senile. Gli accertamenti diedero apparentemente risultati negativi, ma ora gli americani si chiedono se la malattia non fosse già presente durante la presidenza. La risposta al primo quesito non può esser data senza uno studio del pedigree materno e paterno del Presidente e un'accurata analisi genetica compiuta su molti membri della famiglia. E' comunque possibile che il Presidente fosse già affetto dalla malattia da diversi anni, anche se questa non presentava ancora sintomi clinici tali da farla ritenere sospettabile. Non solo di Reagan si parla a proposito di malattie del sistema nervoso, ma anche di un altro presidente, Abraham Lincoln, noto per la sua statura e per gli arti e le dita delle mani e dei piedi eccezionalmente lunghi. Per tali caratteristiche somatiche si è sospettato che fosse affetto da una malattia ereditaria chiamata sindrome di Marfan. Nel 1992 un gruppo di esperti del Museo Nazionale di Storia della Medicina di Washington decise però di soprassedere all'esumazione della salma e a un prelievo di tessuti nell'attesa che si sviluppi un test sicuro per identificare il gene della malattia di Marfan. Un gruppo di genetisti dell'Università del Minnesota è però riuscito a rintracciare ben 170 discendenti di Lincoln. Il gene sotto accusa è quello di una malattia ereditaria che colpisce il sistema nervoso centrale, l'atassia spinocerebellare, che comporta una distruzione progressiva di fasci particolari di fibre nervose del midollo spinale e del cervelletto. L'inizio è subdolo ma progressivamente il paziente ha sempre maggiori difficoltà a mantenere la stazione eretta, oscilla e barcolla come un ubriaco. I primi sintomi sono rappresentati da una balbuzie e dalla difficoltà ad articolare la parola. La malattia progredisce lentamente finché l'individuo ha difficoltà a camminare, parlare e scrivere. Alcune forme possono essere anche più gravi, in quanto coinvolgono i centri respiratori cerebrali. Utilizzando una tecnica particolare di mappatura genetica, descritta in un recente lavoro pubblico su Nature, si è riusciti a localizzare il gene della malattia nel cromosoma 11 di ben 56 dei 170 discendenti di Lincoln. Poiché i figli degli individui affetti da atassia ereditaria hanno il 50% di probabilità di ereditarli, è sicuro che il nonno o la nonna di Lincoln trasmisero il gene malato ad almeno due dei loro cinque figli. Il padre del presidente Thomas Lincoln aveva dunque una probabilità del 50% di ereditare il gene e il Presidente il 25%. E' impossibile dire se anche il Presidente ne fosse afflitto: com'è noto, morì assassinato a 56 anni, forse prima di sviluppare i sintomi della malattia. Ezio Giacobini Università del Sud Illinois


RADIOTERAPIA Tumori irradiati «a cielo aperto» Intervento complementare e contemporaneo alla chirurgia
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, TECNOLOGIA
LUOGHI: ITALIA

LA radiologia è una scienza nata al principio del nostro secolo e celebrerà quindi il centenario allo scoccare del mitico 2000. Una sua branca è la radioterapia e oggi le applicazioni terapeutiche delle radiazioni ionizzanti sono essenzialmente usate contro i tumori. Scopo della radioterapia oncologica è l'eliminazione delle cellule maligne con il minimo danno per quelle normali. E' quindi fondamentale la radiobiologia, ovvero lo studio degli effetti delle radiazioni sulla cellula, il Dna e la membrana cellulare, studio che ha compiuto e continuamente compie importanti progressi. Particolare interesse ha la radioterapia associata alla chirurgia. Vi sono tre tipi di associazioni. La prima è la radioterapia pre-operatoria: ogni qualvolta è tecnicamente possibile, si tende a far precedere l'intervento da un trattamento radioterapico allo scopo di ridurre il volume del tumore, inibire la riproduzione di cellule neoplastiche che eventualmente potrebbero residuare e ridurre la probabilità di recidive post-operatorie. La tecnica dei trattamenti pre-operatori varia a seconda dei problemi biologici posti dal tumore. Il secondo tipo è la radioterapia post-operatoria, che ha numerose applicazioni sulla base di programmi prestabiliti, spesso di tipo precauzionale: si irradiano regioni nelle quali potrebbero rimanere cellule neoplastiche, nel campo operatorio o anche al di fuori di esso. Terza, infine, la radioterapia intra-operatoria, vale a dire durante l'intervento, il che rappresenta teoricamente l'ideale. Il chirurgo ha isolato ed esposto il tumore, questo è visibile, dunque suscettibile d'una irradiazione mirata. Il vantaggio di poter irradiare direttamente il tumore senza l'interposizione di tessuti o organi normali e risparmiando quelli prossimi al tumore stesso, è evidente. Dati interessanti provengono specialmente dagli Stati Uniti e dal Giappone, riguardo ai tumori dello stomaco, pancreas e retto. Tuttavia la radioterapia intra- operatoria è per ora la sorellina minore delle altre per varie ragioni. Vi è la necessità di compiere alcune parti dell'intervento in sala operatoria e altre nel reparto di radioterapia attrezzato per funzionare temporaneamente da sala operatoria, è una tecnica costosa, richiede numeroso personale, una programmazione accurata, un'attrezzatura complessa. Recente è però la realizzazione di un apparecchio che emette un fascio di elettroni, ha dimensioni ridotte, è portatile e maneggevole, e permette di eseguire la radioterapia direttamente in sala operatoria. Ulrico di Aichelburg




La Stampa Sommario Registrazioni Tornén Maldobrìe I3LGP Scrivi Inizio