TUTTOSCIENZE 3 maggio 95


COSMOLOGIA I fisici alla ricerca dell'anti-universo
Autore: BATTISTON ROBERTO

ARGOMENTI: ASTRONOMIA, FISICA, RICERCA SCIENTIFICA
NOMI: TING SAMUEL
LUOGHI: ITALIA
NOTE: Ams (Anti Matter Spectrometer)

PROVATE a immaginarvi l'universo al momento del Big Bang. Un mare di fuoco, in cui tutti i tipi di particelle e antiparticelle elementari conosciute (quark e antiquark, leptoni e antileptoni) o ipotizzate (monopoli, superparticelle), comprese quelle che trasportano le forze fondamentali conosciute (elettro-debole, forte e gravitazionale) o ipotizzabili (superforze), coesistono in modo democratico: le particelle e le antiparticelle non hanno una massa definita e tutte le interazioni sono al lavoro con pari intensità. La temperatura dell'universo è enorme e questo mare di fuoco sta espandendosi, esplodendo con violenza inaudita. Nei primi istanti avvengono fenomeni straordinari, che hanno conseguenze determinanti sul futuro dell'universo. Le 4 forze fondamentali iniziano ben presto a giocare ruoli molto diversi. La forza gravitazionale diventa subito irrilevante nelle interazioni tra le particelle elementari. Dopo un miliardesimo di miliardesimo di miliardesimo di miliardesimo di secondo anche le altre tre forze incominciano ad avere intensità diversa e viene meno l'unificazione tra la forza forte e quella elettrodebole. Dopo un centesimo di miliardesimo di secondo anche la forza debole si separa da quella elettromagnetica, e quando è passato un centesimo di secondo i neutrini, che interagiscono solo debolmente, iniziano la loro evoluzione separandosi quasi del tutto dal resto della materia. Dopo un decimillesimo di secondo i quark che si muovevano liberi assieme agli 8 tipi di gluoni dell'interazione forte iniziano a congelarsi e formare i componenti dei nuclei atomici (protoni, neutroni). La forza elettromagnetica ormai ha perso terreno rispetto a quella forte e prima che siano passati cento secondi iniziano a formarsi i nuclei, precursori degli atomi da cui molto più tardi nasceranno galassie, stelle, pianeti. Il modello del Big Bang è accettato dalla maggior parte degli astrofisici in quanto spiega bene una serie di osservazioni come lo spostamento verso il rosso della luce delle galassie, l'esistenza del fondo cosmico di microonde ad una temperatura di 2.7I'K, l'abbondanza relativa dei nuclei leggeri (deuterio, elio, litio). Rimangono tuttavia grossi problemi irrisolti. Il più singolare è forse la scomparsa dell'antimateria avvenuta nei primissimi istanti, probabilmente prima del disaccoppiamento fra le forze elettrodebole e forte. Come previsto da Dirac negli Anni 20 e confermato sperimentalmente da Anderson nel '32 con la scoperta del positone e in seguito da Segrè negli Anni 50 con la scoperta dell'antiprotone, a ogni particella elementare corrisponde infatti una antiparticella. Le antiparticelle, per usare le parole di Feynman, sono caratterizzate da un insieme di proprietà tutte opposte a quelle della particella corrispondente. Per esempio il positone ha carica positiva ed è l'antiparticella dell'elettrone che ha carica negativa. Se un positone e un elettrone entrano in contatto si annichilano a vicenda generando energia. Nell'universo iniziale c'era simmetria tra materia e antimateria. L'evidenza sperimentale invece ci mostra che fino a distanze dell'ordine di gruppi di galassie (circa 50 milioni di anni luce, un trecentesimo delle dimensioni dell'universo), l'universo è dominato dalla materia. Per spiegare questo fatto si possono seguire due strade. Da una parte si può ipotizzare che si siano create regioni dominate da materia e altre dominate da antimateria, separate da enormi spazi vuoti. Secondo questo modello fra i gruppi di galassie osservabili ne potrebbero esistere di interamente composte di antimateria, antigalassie contenenti antistelle e antipianeti. Esse sarebbero però sufficientemente separate dalle galassie composte di materia da essere otticamente osservabili senza però la possibilità di rilevare la loro natura antimateriale in quanto la radiazione emessa da un antiatomo è identica a quella emessa da un atomo. Un'altra possibilità è che esista una superforza tra le particelle elementari che ha permesso la rapidissima distruzione delle antiparticelle. Come Sakharov ha mostrato nel 1976, una tale superforza deve violare tre simmetrie fondamentali, quella che conserva il numero barionico B (quantità che verrebbe violata se il protone decadesse), quella che esiste tra particella e antiparticella (simmetria di carica, C) e quella legata al prodotto della simmetria C e della simmetria destra sinistra o di parità, P (simmetria CP). Oggi non abbiamo indizi sperimentali che questa superforza esista, ma ciò potrebbe esser dovuto al fatto che la scala di energie accessibile negli attuali esperimenti di fisica delle particelle non è sufficientemente elevata. Infatti, negli esperimenti di fisica passiva (le ricerche effettuate nei laboratori sotterranei come quello del Gran Sasso) il protone non è ancora stato visto decadere. In esperimenti con acceleratori di particelle sono state invece osservate violazioni di P e di CP, ma gli effetti osservati finora sono troppo piccoli per spiegare la scomparsa dell'antimateria. Una risposta a queste questioni potrà forse essere data dagli esperimenti ai futuri acceleratori di particelle; l'Lhc del Cern di Ginevra che dovrebbe essere operativo verso il 2005 e raggiungere una scala di energie dieci volte più alta di quella attuale dove potrebbero essere scoperte superparticelle; le «fabbriche» di mesoni che forniranno entro l'anno 2000 preziose informazioni sulla violazione di CP. In entrambi i casi rimangono problemi teorici e i fisici non sono in grado di spiegare in modo convincente l'assenza di antimateria. Nel 1976 Steigman, uno dei maggiori esperti in questo campo, scriveva: «I risultati negativi sulla presenza di antimateria sono indiscutibili; anche un solo risultato positivo sarebbe però convincente». La parola è quindi agli sperimentatori. La ricerca di antimateria di origine cosmica può essere effettuata solo nello spazio, perché l'atmosfera non permette il passaggio di antinuclei. Da anni si fanno esperimenti con palloni stratosferici che hanno permesso di raccogliere un piccolo numero di antiprotoni. Gli antiprotoni però possono essere prodotti in urti ad alta energia tra protoni, e quindi la loro osservazione non prova l'esistenza di antimateria primordiale. Solo trovando antinuclei più pesanti, dall'antielio in su, saremmo sicuri di avere a che fare con antimateria primordiale; infatti la probabilità di generare antinuclei nell'urto energetico tra due protoni è trascurabile. Per fare una misura decisiva occorre quindi operare nello spazio, con una grande superficie sensibile e per il tempo più lungo possibile. In un recente convegno a Villa Olmo, a Como, il premio Nobel Samuel Ting ha presentato un nuovo esperimento che migliorerà la sensibilità alla presenza di nuclei di antielio di un fattore centomila e che attrae l'interesse della comunità scientifica internazionale. L'esperimento Ams (Anti Matter Spectrometer) proposto da una collaborazione internazionale comprendente l'Italia, sfrutta i progressi tecnologici nel campo dei magneti permanenti e dei rivelatori di particelle. La Nasa ha previsto un volo iniziale di Ams sullo Shuttle nel 1988 e una sua installazione definitiva sulla stazione spaziale internazionale nel 2000. Ams consiste in un grande magnete permanente (un metro cubo di volume), equipaggiato con un preciso sistema per la misura della carica dei nuclei atomici. L'osservazione anche di un solo nucleo atomico di carica negativa invece che positiva sarebbe sufficiente per dimostrare l'esistenza di antimateria primordiale, rivoluzionando così la nostra comprensione delle leggi fisiche che hanno governato gli istanti iniziali del nostro universo. Roberto Battiston Cern, Ginevra


I PROGETTI L'Europa nello spazio fino al 2020
Autore: BIANUCCI PIERO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, RICERCA SCIENTIFICA
ORGANIZZAZIONI: ESA
LUOGHI: ITALIA
NOTE: Progetto «Horizon 2000 Plus»

CI vuole coraggio, oltre che fantasia, per progettare le imprese spaziali dei primi vent'anni del prossimo secolo. Coraggio perché il momento economico non è dei più favorevoli. Fantasia perché bisogna immaginare i temi scientifici che saranno attuali per la prossima generazione di ricercatori. L'Esa, Agenzia spaziale europa, ha avuto sia coraggio sia fantasia nel delineare «Horizon 2000 Plus». Questo piano di ricerca, che individua gli obiettivi da raggiungere tra il 2000 e il 2020, verrà presentato all'Accademia delle Scienze di Torino il 9 maggio con la partecipazione, tra gli altri, di Bonnet, direttore dei programmi scientifici dell'Esa, e interventi di Woltyer, Chiuderi, Bignami, Volonté, Ciufolini, Whitcomb, Coradini. Il dossier delle speranze di chi fa ricerca nello spazio è riassunto dal Survey Committee dell'Esa in una cinquantina di pagine. Speranze realistiche, in quanto si è tenuto conto dei prevedibili limiti finanziari, ma anche audaci se si guarda ad alcuni degli obiettivi: si parla di una navicella capace di avventurarsi nella corona del Sole, fino ad appena 5 raggi solari dalla fotosfera (un Icaro tecnologico]), di contribuire all'esplorazione di Marte e rivisitare Mercurio e la Luna, di andare a caccia delle onde gravitazionali, verificare con estrema precisione l'identità tra massa gravitazionale e massa inerziale postulata dalla teoria di Einstein. Questi progetti hanno due caratteristiche: 1) si integrano, prolungandolo, nel piano di ricerca in corso da parte dell'Esa e di altre agenzie spaziali; 2) per quanto possibile comportano missioni rapide, di costo relativamente basso e nelle quali si può pensare a una certa modularità delle navicelle per ammortizzare i costi su una produzione di piccola serie. Vediamo più da vicino qualche obiettivo di «Horizon 2000 Plus». Mercurio è raccomandato come un traguardo interessante in quanto finora si conosce soltanto il 40 per cento della sua superficie (merito della navicella «Mariner 10» della Nasa e della rotta consigliata da Giuseppe Colombo). La missione a Mercurio fornirebbe importanti notizie su come varia la composizione dei pianeti di natura rocciosa procedendo dalle vicinanze del Sole, dove orbita Mercurio, fino a Marte. L'osservazione dell'universo in tutto lo spettro magnetico si attuerà con osservatori spaziali che ripropongono in dimensione maggiorata navicelle che hanno già dato o stanno per dare grandi risultati: XMM e Integral, in orbita all'inizio del 2000, copriranno le radiazioni X e gamma emesse da oggetti celesti ad altissima energia. Il lavoro nell'infrarosso di Iso (il cui lancio è imminente) verrà continuato da First a partire dal 2005. In astrometria si progetta un interferometro spaziale largo 100 metri, con risoluzione di 10 milionesimi di secondo d'arco, che permetterà tra l'altro di individuare intorno a stelle vicine pianeti con masse paragonabili a quella terrestre. Quanto alla fisica fondamentale, l'Esa progetta una missione che permetta di scoprire onde gravitazionali di bassissima frequenza (meno di una oscillazione al secondo) e di grande lunghezza (oltre 20 volte la distanza Terra-Sole). Mentre c'è qualche speranza di captare al suolo onde più corte emesse da sistemi binari di pulsar molto stretti o di stelle che collassano in supernove, le onde di bassissima frequenza sono coperte, a terra, dal rumore di fondo gravitazionale. La missione potrebbe collocarsi intorno al 2016, quando il Sole sarà al minimo della sua attività. Stime del budget necessario? Le nuove missioni potrebbero essere realizzate con un aumento dei finanziamenti del 5 per cento all'anno dal 2001 al 2005, dopo di che gli stanziamenti si stabilizzerebbero. Staremo a vedere. Perché i grandi programmi spaziali si realizzino occorre una coincidenza di fattori: idee, denaro e consenso politico. Al momento l'unica cosa certa è che ci sono le idee. Il fatto che l'Esa presenti a Torino il suo programma è una sfida: Torino, con Alenia, è la capitale delle attività spaziali del nostro Paese, ma oggi attraversa una difficile crisi. Bisogna superarla nell'interesse dell'occupazione e della competitività tecnologica. Piero Bianucci


TECNOLOGIA L'industria del vento Energia eolica, Italia in ritardo
Autore: FAZIO MARIO

ARGOMENTI: TECNOLOGIA, ENERGIA, ECOLOGIA
LUOGHI: ITALIA
TABELLE: T. TAB. MAGAWATT ANNUI ============================================ DANIMARCA 520 ------- GERMANIA 320 ------- GRAN BRETAGNA 145 ------- OLANDA 132 ------- SPAGNA 55 ------- GRECIA 35 ------- ITALIA 18 ------- (In Italia previsti per la fine dell'anno 50 dagli impianti Enel e 158 da iniziative private già autorizzate) ============================================

IN Italia ha dominato per molti anni una corrente di idee poco favorevole allo sfruttamento dell'energia eolica, considerata una risorsa marginale e per un futuro lontano. La ricerca e la sperimentazione non vennero orientate verso un rapido sviluppo delle applicazioni su scala industriale, pur ottenendo risultati considerevoli. Ed è proprio sul piano industriale che l'Italia ha accumulato un forte ritardo nei confronti della Danimarca e degli Stati Uniti, in testa alle classifiche per numero e potenza di turbine, e chilowattora prodotti. Negli anni della crisi petrolifera la Danimarca compì una scelta strategica, puntando sul vento e sviluppando negli Anni 80 tecnologie di avanguardia che le han dato una posizione dominante sul mercato mondiale. Le turbine danesi sono esportate in Inghilterra, Spagna, Cina e India, dopo essersi affermate in California (7500 già vendute) battendo le industrie aerospaziali. Alla fine del 1994 la Danimarca aveva in funzione 3600 generatori eolici, con una capacità globale di 520 megawatt, che producono il 3% dei consumi elettrici. Entro il 2005 si raggiungerà il 10%. Nella graduatoria mondiale occupa il secondo posto, dopo gli Stati Uniti. In California c'è stata una vera e propria corsa all'eolico: dal 1982 in poi sono state messe in funzione oltre 15 mila turbine. Nel 1993 la produzione di energia elettrica ha superato i 3 miliardi di chilowattora, sufficienti a soddisfare la domanda di tutte le abitazioni di San Francisco, mentre si moltiplicavano le iniziative private in altri dodici Stati, dal Texas a quello di New York. Dopo gli insuccessi iniziali, l'elettricità originata dal vento diventa un grosso affare, tanto da coinvolgere colossi come la «Pacific Gas and Electric». L'Italia figura con un dato molto modesto: 18 megawatt, contro i 320 della Germania, i 145 della Gran Bretagna, i 132 dell'Olanda, i 55 della Spagna, i 35 della Grecia. Alla fine dell'anno dovremmo arrivare a 50 megawatt in impianti Enel, cui dovrebbero aggiungersi 158 MW per iniziative di altri che già hanno ottenuto le autorizzazioni. Stiamo evidentemente cercando di recuperare il ritardo, con migliori prospettive grazie alla partecipazione di imprese e consorzi privati che impiegano generatori di marca nazionale, Alenia West e Riva Calzoni in testa, sperimentati congiuntamente a modelli danesi e inglesi. Nel quadro mondiale occupiamo tuttora posizioni di retroguardia. I nostri 18 MW e i previsti 158 non brillano di fronte ai 3400 MW installati (con produzione di 6 miliardi di kWh) di cui 1400 MW in Europa con obiettivo i 10.000 MW nel 2000. Secondo la Wind Energy Association nel 2030 il 10 per cento della domanda europea di elettricità potrebbe avere risposta dal vento. Si potrebbe arrivare al 26 nell'ipotesi considerata nel rapporto del Worldwatch Institute di Washington, «Power Surge», che delinea la rivoluzione energetica entrata in una fase di accelerazione da quando le grandi industrie, dalla Westinghouse alla giapponese Mitsubishi, hanno cominciato a investire massicciamente nel solare e nell'eolico. Un fattore frenante in Italia è la «quasi certezza» di un regime di venti poco favorevole su gran parte del territorio nazionale. Le condizioni ideali, secondo gli studi riferiti dall'Enel, sarebbero offerte da località dove la velocità media annua del vento è di 5/7 metri-secondo, a 15 metri dal suolo. Le sperimentazioni e la costruzione di grandi impianti sono state perciò localizzate in 30 aree della Sardegna (Alta Nurra per prima), della Sicilia, della Calabria, della Puglia e del Molise. Le indagini proseguono in Campania e in Basilicata. Sull'Appennino abruzzese, a Collarmele, è stato individuato un ampio passo a 1000 metri sul mare, dove i dati sono particolarmente favorevoli. Qui saranno installati 36 aerogeneratori da 250 kW, per una potenza complessiva di 9 MW, capaci di produrre 16 milioni di kWh l'anno. Il problema della irregolarità della fonte eolica viene oggi superato con diversi sistemi di accumulo dell'elettricità prodotta quando il vento è sufficiente (ad esempio il pompaggio) e di integrazione con centrali a turbogas di piccola e media taglia. Dal Rapporto del World-Watch Institute emerge una forte differenza tra i costi dei chilowattora prodotti in Italia e in altri Paesi. Il dato dell'Enel sul costo dell'energia eolica, tenuto conto degli investimenti, degli interessi, dell'esercizio e della manutenzione, oscilla tra le 235 e le 280 lire-kWh. Secondo il rapporto statunitense il progresso tecnologico avrebbe ridotto enormemente i costi, per cui le compagnie private firmano contratti di vendita dell'elettricità a soli 5 centesimi di dollaro il kWh, pari a 85 lire, con la prospettiva di scendere presto a 3 cent. Perché differenze così forti? Possiamo spiegarle soltanto col regime dei venti italiani, non favorevole come quelli di alcune zone californiane o come quelli del Mare del Nord? E' innegabile che lungo le coste tirreniche non tirano venti paragonabili a quelli che tormentano le coste danesi, scozzesi, irlandesi. Però qualche ricerca sul regime dei venti in alcune parti della Liguria e nel Mar Ligure (si progettano anche piattaforme per centrali eoliche al largo), nelle Bocche di Bonifacio, nel Golfo di Trieste, potrebbero serbare sorprese. In California uno studio federale sugli aeroporti aveva escluso grandi risorse eoliche: venne smentito da una ricerca commissionata dal governo locale. Mario Fazio


TROMBOSI Il chirurgo, astronauta con il bisturi
Autore: VISOCCHI MASSIMILIANO

ARGOMENTI: MEDICINA E FISIOLOGIA, TECNOLOGIA
LUOGHI: ITALIA

MOLTO attuale è il tema della chirurgia su regioni cerebrali estremamente delicate, dette «eloquenti» per l'importanza delle loro funzioni sensitivo-motorie come la parola, l'udito, la vista, la sensibilità e la motricità. Attraverso l'impiego del microscopio operatorio, di uno strumentario microchirurgico e delle tecniche di microresezione, oggi il neurochirurgo dispone di un'arma in più per rispettare le strutture più nobili del cervello. In suo aiuto sono stati resi disponibili, oramai da alcuni anni, complessi test neuropsicologici e farmacologici preoperatori finalizzati all'identificazione dell'emisfero «dominante» (sede cioè delle aree del linguaggio) ma, soprattutto, la neuroradiologia per immagini (neuroimaging). E', questa, una sofisticata specialità della radiologia che si avvale della tomografia computerizzata (Tc) e della risonanza magnetica nucleare (Rmn) per una più corretta pianificazione preoperatoria del percorso chirurgico da seguire. Da queste premesse è nato il «neuronavigatore», sistema computerizzato che, attraverso un «braccio» digitalizzatore, solidale con i ferri del chirurgo, è in grado di fornire istantaneamente all'operatore l'immagine virtuale, ricostruita alla Tc o Rmn del cranio del malato, di tutto l'encefalo e della posizione degli strumenti chirurgici che si stanno usando. Il neurochirurgo si avvale così di sistemi di orientamento concettualmente analoghi a quelli montati sui moderni veicoli aerospaziali. Ne emerge la seria prospettiva che alcune patologie ad elevato rischio emorragico, come gli aneurismi arteriosi (dilatazioni segmentarie delle arterie) e le malformazioni arterovenose (comunicazioni anomale, dette anche fistole, tra arterie e vene) stiano abbandonando il neurochirurgo per divenire competenza sempre maggiore del «neuroradiologo interventista». Questo specialista, nato dal connubio tra radiologo e chirurgo, identificando radiologicamente, mediante un esame angiografico, le lesioni delle arterie e/o delle vene da trattare, è oggi in grado di escluderle dalla circolazione e quindi dal rischio di un eventuale sanguinamento. L'intervento avviene all'interno stesso del vaso alterato mediante un lungo e sottile catetere fatto penetrare attraverso la cute, dal quale viene fatto fuoruscire del materiale estraneo (resine acriliche, microsferule, fili) allo scopo di occluderlo (embolizzazione); il tutto si fa in un tempo sensibilmente inferiore o uguale a quello impiegato dalla chirurgia tradizionale, con una anestesia più leggera (locale) e con un rischio per il paziente che non è neppure paragonabile a quello chirurgico. Fiore all'occhiello di questa filosofia è l'elettrotrombosi, scoperta dal ricercatore italiano Guglielmi, attualmente residente negli Stati Uniti, che al noto concetto dell'embolizzazione, in questo caso effettuata liberando nella lesione numerose microspirali di platino, applica una corrente elettrica positiva che ha lo scopo di indurre l'aggregazione sotto forma di coagulo (trombo) degli elementi corpuscolati del sangue (globuli bianchi, piastrine e fibrinogeno). La «radiochirurgia» non ha bisogno di alcuna manipolazione traumatica del corpo umano. Questo sistema terapeutico si prefigge di centrare l'obbiettivo prescelto in un'unica seduta di trattamento (poche ore) senza impiegare mezzi meccanici ma avvalendosi esclusivamente di radiazioni ionizzanti ad elevato dosaggio, prodotte da una potente sorgente di raggi (acceleratore lineare, gamma camera, gamma knife, proton beam) e indirizzate con precisione balistica. Le limitazioni più importanti per l'impiego sistematico in neurochirurgia di questa procedura sono costituite dall'inefficacia su lesioni di diametro superiore a 2,5 centimetri e il rischio dei danni cerebrali da radiazioni ionizzanti (radionecrosi). Le indicazioni principali sono costituite dai tumori e dalle malformazioni arterovenose. Massimiliano Visocchi Università Cattolica, Roma


RICERCHE A OXFORD Ragnatela antiproiettile L'incredibile resistenza delle reti dei ragni
Autore: ANGELA ALBERTO

ARGOMENTI: ZOOLOGIA, RICERCA SCIENTIFICA
NOMI: EDMONDS DONALD, VOLLRATH FRITZ, LIN LORRAINE
LUOGHI: ITALIA

IMMAGINATE di dover fermare un aereo in volo con una rete da pescatore... Vi sembra impossibile? Eppure, facendo le dovute proporzioni, è esattamente quello che fanno i ragni per cattuare le loro prede. Per decenni questo tipo di caccia ha costituito un piccolo mistero per i ricercatori: perché le ragnatele non si rompono quando un insetto vi sbatte contro? Eppure i fili di seta che le compongono hanno uno spessore di meno di un millesimo di millimetro. Le tele di ragno sono sempre state fonte di curiosità per i ricercatori dal punto di vista ingegneristico, strutturale e geometrico. Recentemente la soluzione del loro enigma è stata forse trovata, con un piccolo ma ingegnosissimo trucco. Un gruppo di ricercatori inglesi ha ricreato al computer la cattura di un insetto, modificando i programmi di computer che si utilizzano per le simulazioni di incidenti stradali. In questi programmi una macchina viene scagliata contro un ostacolo e sullo schermo si visualizzano tutte le deformazioni della sua carrozzeria. Al computer sono stati forniti tutti i dati della struttura della tela e quelli relativi alla resistenza e all'elasticità dei suoi fili. Alla fine, anziché vedere la simulazione di un «car crash», si poteva assistere a una vera e propria «predazione» in diretta, con la tela che si deformava a seconda dell'angolo d'arrivo della preda, della sua velocità, della sua massa. Probabilmente la prima simulazione di questo genere mai realizzata in realtà virtuale. Ed è stato così scoperto il segreto della tela del ragno. Gli autori di questo esperimento, il fisico Donald Edmonds, il biologo Fritz Vollrath, entrambi dell'Università di Oxford, e un'esperta in ingegneria delle strutture dell'Ove Arup & P. di Londra, Lorraine Lin, ammettono che non si aspettavano un risultato così sorprendente. In pratica il ragno ha un alleato insospettato: l'aria. Quando la tela di ragno non è in grado di assorbire l'energia cinetica di un insetto che la colpisce, allora quest'ultimo la trapassa oppure rimbalza. Cosa che invece raramente accade in natura. La tela, infatti, sfrutta la resistenza dell'aria per dissipare l'energia dell'impatto. Per capire il meccanismo basta pensare a quanto sia difficile tirare o scuotere una corda o, peggio ancora, una rete da pescatore, nell'acqua. La resistenza dell'acqua rende ogni movimento molto difficile. Anche per la tela del ragno accade la stessa cosa: deformandosi durante l'impatto, viene «frenata» dall'aria che assorbe molta dell'energia. L'aria infatti, può essere considerata un mezzo molto «viscoso» quando si scende alle dimensioni di millesimi di millimetro, cioè quando si hanno le proporzioni dei fili di seta. Naturalmente la resistenza dell'aria non è il solo «trucco» che consente a un ragno di catturare le sue prede. Ulteriori analisi di laboratorio hanno confermato che la particolare geometria della sua tela consente di distribuire omogeneamente su tutta la sua superficie le forze e le tensioni provocate dall'urto di un insetto. I dati raccolti in questo genere di ricerca hanno una ricaduta in campi molto diversi da quelli della zoologia o dell'etologia: sono utilissimi ad esempio per la realizzazione di tensostrutture, dove spesso bisogna fare i conti con un complesso intreccio di cavi di supporto. Ma non ci sono solamente gli architetti e gli ingegneri ad aspettare con interesse i risultati degli studi sui ragni. Curiosamente c'è anche l'esercito americano. Nelle foreste tropicali di Panama infatti, vive una particolare specie di ragno, la Nephila Clavipes, le cui tele possono addirittura superare il metro di diametro. I fili di seta sono così resistenti da essere utilizzati dai nativi per fare bisacce e persino reti da pesca. Ricerche di laboratorio hanno dimostrato che questo tipo di seta, non solo resiste anche a 60I'C senza rompersi, ma è talmente elastica e resistente, da costituire un ottimo materiale per fermare le pallottole. I giubbotti antiproiettile realizzati con numerosi strati di questa seta, sono capaci di fermare senza troppi problemi anche una pallottola di fucile e hanno una «tolleranza di deformazione» pari all'1,5 per cento, contro il 4 dei giubbotti in Kevlar, che si usano oggi. Alberto Angela


PROCESSO SIMPSON Quanto vale la prova del Dna? Kary Mullis, premio Nobel, testimone in tribunale
Autore: GIACOBINI EZIO

ARGOMENTI: GENETICA
NOMI: MULLIS KARY
LUOGHI: ITALIA

UNA delle caratteristiche del processo al campione sportivo americano Simpson, accusato di aver ucciso la moglie e il suo amico in un raptus di gelosia, è quella della disponibilità quasi illimitata di testimoni a tutti i livelli e in tutti gli strati sociali. La difesa ha chiamato in causa addirittura il Nobel per la medicina Kary Mullis, premiato nel 1993 per la scoperta di un rivoluzionario metodo per leggere il materiale genetico Dna in minimi frammenti. La tecnica si chiama Pcr (polymerase chain reaction) e si basa su una reazione chimica a catena che, usando l'enzima polimerasi, consente di riprodurre teoricamente all'infinito minutissimi pezzi di Dna. L'estrema sensibilità di questa tecnica permette di usare quantità minime di sangue o di tessuti umani, dell'ordine di un milionesimo di grammo o meno, e di ingrandirle di un milione di volte attraverso un sistema di amplificazione esponenziale di 25-30 cicli. Il test del Dna è un punto cruciale nel processo Simpson: la prova della colpevolezza o dell'innocenza dipende molto dall'esito dell'esame di poche gocce di sangue. Ma nell'arringa di partenza uno dei difensori di Simpson ha detto chiaramente di dubitare della validità del test Pcr, in questo caso specifico data l'alta probabilità che i campioni di sangue esaminati in laboratorio siano stati prima contaminati col sangue delle vittime o peggio con materiale estraneo al delitto. Mullis ha già detto di essere pronto a testimoniare sulla validità e i limiti del suo metodo, che è estremamente sensibile per il materiale genomico reperito su qualsiasi campione di sangue fresco, tessuto di mummia, goccia essiccata di sangue in un tessuto (anche la Sindone potrebbe essere esaminata per determinare l'identità genetica di Cristo), materiale antropologico o paleontologico (uova di dinosauro, vedi Jurassic Park). Il test consiste di tre fasi nel corso delle quali viene prima denaturato il Dna a 95 I'C e poi nuove parti di esso vengono sintetizzate usando appunto della polimerasi batterica. Ogni ciclo viene ripetuto più volte fino a ottenere una quantità misurabile. Il materiale di partenza non necessita neppure di purificazione. Il metodo è rapido e in poche ore si possono ottenere dati e risposte precise. La Pcr viene ora utilizzata nella diagnosi di malattie infettive usando quantità minutissime di Dna batterico presenti nel paziente. E' particolarmente utile per la diagnosi di microrganismi che si sviluppino molto lentamente. L'identificazione di oltre 1000 microrganismi, alcuni rari e difficili da riconoscere, è già possibile attualmente nelle nostre cliniche. E' però anche importante riconoscere i limiti e i margini di errore della tecnica Pcr. Le limitazioni devono essere superate prima che l'uso del metodo si estenda e giunga a sostituire molte delle tecniche correnti di diagnosi clinica e di identificazione di individui dal punto di vista legale. Paradossalmente l'estrema sensibilità porta la Pcr ad essere causa di risultati falsamente positivi. Quantità minime della sequenza di Dna amplificata in miliardi di copie possono essere presenti nella provetta dove si svolge la reazione e possono contaminare l'apparecchiatura del laboratorio o i reagenti chimici usati nel test. Il prodotto della reazione Pcr può essere perfino propagato nell'aria da goccioline aspirate dal campione o dai reagenti stessi. Il Dna contaminante il campione diventa così esso stesso la base per la reazione chimica, e si moltiplica. Il risultato è ovviamente quello che si chiama un falso positivo. I laboratori che usano la tecnica Pcr prendono molte precauzioni contro ogni contaminazione; malgrado ciò talvolta il sospetto rimane. Con lo sviluppo di kit diagnostici e dell'automatizzazione del metodo si arriverà certamente a diminuire le cause di errore. Kary Mullis, che si è autodefinito «il critico onesto del sistema», presenterà, se chiamato in causa, anche le limitazioni del metodo e le possibilità di errore. La difesa rimarrà probabilmente delusa se crede di screditare il metodo Pcr a suo vantaggio e altrettanto delusa sarà l'accusa; che ha tentato di screditare lo scienziato perché ammette di usare tuttora Lsd «due o tre volte l'anno». Per i membri della giuria sarà certo un onore e un privilegio essere illuminati direttamente dall'ideatore del metodo. Ezio Giacobini Università del Sud Illinois


IN UN LIBRO LA TESI DI JOEL RAK Neandertal, solo un lontano cugino Lo provano i resti di un bambino trovati in Israele
ARGOMENTI: PALEONTOLOGIA, ANTROPOLOGIA E ETNOLOGIA, LIBRI
PERSONE: RAK JOEL
NOMI: ARDITO FABRIZIO, MINERVA DANIELA, RAK JOEL
ORGANIZZAZIONI: EDITORE GIUNTI
LUOGHI: ITALIA
NOTE: «La ricerca di Eva. Viaggio alle origini dell'uomo moderno»

JOEL Rak è l'uomo dei neandertaliani. Ne ha visti e studiati per più di trent'anni nel suo laboratorio all'Università di Tel Aviv ed è il paleoantropologo più qualificato a risolvere il dilemma: erano o no della nostra stessa specie? Sono nostri antenati o solo lontani cugini? Oggi Rak ha nel cassetto la risposta a questa domanda: un bambino neandertaliano ritrovato da poco nel sito israeliano di Amud e non ancora reso noto al grande pubblico. Cosa svela il bambino di Amud? Lo racconta lo stesso Rak in un libro di prossima pubblicazione per l'Editore Giunti con il titolo «La ricerca di Eva. Viaggio alle origini dell'uomo moderno». Lo hanno scritto due giornalisti, Fabrizio Ardito e Daniela Minerva, raccogliendo testimonianze e idee nuove nella prima inchiesta giornalistica sulle origini della nostra specie. A loro Rak ha raccontato che il piccolo di Amud mostra già tutti i caratteri anatomici degli individui neandertaliani adulti. E così spazza via l'ipotesi che le differenze tra neandertaliani e uomini anatomicamente moderni fossero funzionali, ovvero create dall'uso. E' una prova molto forte a sostegno della sua teoria. Ma ascoltiamo le parole dello stesso Rak. «Lo spettro di variabilità esistente tra i fossili neandertaliani e quelli di Homo sapiens è simile a quello che si riscontra tra cavalli e asini: io sono convinto dunque che i due ominidi appartenessero a due specie distinte. I neandertaliani sono talmente diversi dagli attuali sapiens e, ancor più importante, dai sapiens loro contemporanei come quelli che vissero nella grotta di Qafzeh, in Israele, che non possiamo affermare che essi appartengano alla nostra specie». In che cosa sono diversi? «La faccia dei neandertaliani è molto diversa da quella dei sa piens moderni, sia sul piano morfologico sia su quello biomeccanico. Mi si può forse obiettare che, nel corso dei millenni, i tratti possono essere cambiati; il fatto è, però, che la faccia dei neandertaliani differisce dalla nostra più di quanto non differisca quella degli Ho mo erectus vissuti assai prima dei neandertal. L'altro aspetto peculiare dei neandertaliani sono le pelvi: completamente diverse da quelle di qualunque Homo sapiens vivente, dagli aborigeni australiani agli eschimesi. E ancora più importante è notare come esse siano diverse dalla pelvi ritrovata a Qafzeh, che ha invece un aspetto moderno. Anche la base del cranio dei neandertaliani è completamente diversa sia da quella dei sapiens, sia da quella degli erectus, che sono invece molto simili fra loro». Questo ci suggerisce l'esistenza di una linea continua tra gli erectus e i sapiens, da cui si staccherebbero i neandertaliani. Ma come, e quando? «La questione va posta sul piano dell'evoluzione dei sistemi, e di come i diversi caratteri si sono differenziati nel tempo a partire da tratti molto antichi. La nostra faccia, ad esempio, è simile a quella degli erectus ed è diversissima da quella neandertaliana. E' la faccia che rappresenta, quindi, la deviazione. D'altro canto, anche se non abbiamo pelvi intere di Homo ere ctus io sospetto che avesse un bacino simile a quello dei neandertaliani, mentre è il sapiens a rappresentare una deviazione in questo carattere. Ancor più chiaro è seguire le vicende evolutive del foro occipitale: il nostro è perfettamente tondo, e anche erectus e australopiteci avevano un foro rotondo. Poi, all'improvviso, nei fossili vediamo qualcosa di molto strano, un foro ellissoidale: sono loro, i neandertaliani. Allora, se volessimo sostenere che i sa piens si sono evoluti dai neandertaliani, ci troveremmo a dover teorizzare una vera stranezza: che da un foro occipitale tondo si sia passati a uno ellissoidale per poi tornare di nuovo a uno rotondo. E' più facile ed economico supporre, invece, che dall'erectus si sia direttamente evoluto il sapiens, e che i neandertaliani siano una variazione, per il foro occipitale e per l'architettura della faccia». Quali ragioni hanno permesso la differente evoluzione di questi caratteri? «Sono ormai vent'anni che studio il sistema facciale dei neandertaliani, e credo oggi di capire perché avevano una faccia così peculiare. Si tratta di una modificazione dovuta al modo in cui essi usavano la dentatura. Masticavano principalmente con i denti anteriori, mentre noi usiamo di più quelli posteriori: il perché non lo so, ma doveva essere così. Se noi proviamo a rompere coi denti qualcosa di molto duro, per esempio una noce, immediatamente usiamo i molari perché questo è il punto in cui l'architettura della nostra faccia consente una maggiore pressione. La faccia neandertaliana, invece, è costruita per fare pressione con gli incisivi. E questo sistema masticatorio non si riscontra nè nel sa piens nè nell'erectus. Per questo dico che i neandertaliani sono una specie a parte». Eppure molti studiosi non accettano questa idea. Perché? «La storia dell'antropologia mostra che gli scienziati sono sempre riluttanti nel parlare di speciazione quando si tratta di creature ominidi». I neandertaliani parlavano? «Forse sì, certo comunicavano. E forse in una maniera articolata quanto la nostra. Ci sono molti studi che, attraverso le misurazioni della laringe, arrivano ad affermare che pronunciavano male le parole e non usavano le vocali allo stesso modo in cui le usiamo noi. Ma io non vedo le prove di tutto ciò: non mi convincono. Il problema non è di tecnica dell'uso della laringe o della sua conformazione, ma di intelligenza. I boscimani che oggi vivono nel deserto sudafricano del Kalahari, usano la laringe diversamente da noi: vuol dire che non comunicano esattamente come noi? Gli scimpanzè non parlano non perché non hanno la nostra laringe, ma perché il loro cervello non è abbastanza sviluppato per il linguaggio. I neandertaliani avevano un cervello abbastanza grande da prevedere ogni forma di comunicazione. E avevano un cervello abbastanza grande da essere come noi, ma non lo erano».


PERIPATO DAL COLLARE Il bruco con la pistola che spara colla Filamenti gommosi intrappolano le prede
Autore: LATTES COIFMANN ISABELLA

ARGOMENTI: ZOOLOGIA, ETOLOGIA
NOMI: READ MORLEY, GHISELIN MICHAEL
LUOGHI: ITALIA

LA nostra attenzione va di solito agli animali più noti. Ci si interessa di elefanti, di leoni, di balene, di rinoceronti, di uccelli, di serpenti, di aragoste e magari di insetti. Ma è raro che si spinga lo sguardo nell'enorme folla degli esseri inferiori. Anche il giudicarli «inferiori» è una bella pretesa. Più li si studia, invece, e più ci si accorge che nascondono strutture e comportamenti assai complessi che funzionano a meraviglia. Non c'è che dire. L'evoluzione ha lavorato assai bene in tutti i rami della vita ed è giunta a soluzioni originali ed efficienti anche nei primi gradini della scala zoologica. Se ne è accorto, tra gli altri, lo zoologo Morley Read dell'University College del North Wales, il quale si è recato nella Simla Research Station di Trinidad con il proposito preciso di studiare il Peripato dal collare (Macroperipatus torquatus), per la maggior parte della gente un illustre sconosciuto. Ma cosa sono mai questi peripati? Sono animali talmente originali che vale la pena di saperne qualcosa di più sul loro conto. Tanto per cominciare, tutti, maschi e femmine, posseggono una fantastica pistola agglutinante. Ed è proprio questa pistola che Read è riuscito a vedere in funzione. Va detto che il peripato dal collare, lungo una quindicina di centimetri, è il più grosso rappresentante della famiglia. E' qualcosa di mezzo tra un bruco, un lumacone e un millepiedi. Ha il corpo rosso scuro e una sorta di collare di un bel giallo brillante. Ciascuna zampetta termina con una doppia unghia che gli consente di arrampicarsi sulle superfici verticali. Dietro alle lunghe antenne, ai lati della bocca, ha due piccoli orifizi che costituiscono lo sbocco di speciali ghiandole. Da questi fori il peripato può lanciare a distanza, a trenta e più centimetri, un ventaglio di filamenti vischiosi che avvolgono la preda come in una rete. Read, dopo molte notti di appostamento (i peripati sono animali notturni) ha potuto vedere il peripato dal collare alle prese con un grillo del genere Aclodes. Il lancio dei filamenti gommosi è istantaneo. Il grillo si trova improvvisamente intrappolato. Si dibatte furiosamente nel tentativo disperato di liberarsi. Ma un nuovo lancio di fili gli lega definitivamente le zampe e lo immobilizza. Incomincia allora il rito del pasto. Servendosi delle aguzze mandibole, il peripato perfora il corpo della vittima e le inietta una buona quantità di una saliva ricca di enzimi digestivi. Tempo dieci o al massimo quindici minuti, il grillo è bell'e spacciato. Muore, ridotto a un brodino nutriente e saporito che il predatore si succhia avidamente. Ma, mentre attende che la saliva faccia il suo effetto, il peripato non se ne sta con le mani in mano. Cerca di recuperare i fili collosi che ha lanciato poc'anzi. Sono di sostanza proteica. Quindi un ottimo cibo. E lui se li mangia. Come fanno del resto certi ragni che si rimangiano la ragnatela. Esempi di riciclaggio delle proteine niente affatto rari nel mondo animale. Comunque, nel giro di poche ore, del povero grillo non rimane altro che la corazza esterna (l'esoscheletro). E il peripato dal collare se ne può stare tranquillamente in panciolle per un paio di settimane. Anche il biologo Michael T. Ghiselin dell'Accademia delle Scienze di S. Francisco è un «fan» dei peripati e in generale degli Onicofori (termine che significa «portatori di unghie»), il gruppo zoologico a cui i peripati appartengono. E ribadisce l'opinione condivisa da molti che queste creature siano antichissime. Il fatto che si trovino in terre molto lontane tra loro, come l'America tropicale, il Congo, la Penisola Malese, il Cile, il Sud Africa, la Nuova Zelanda e l'Australia, fa supporre che abitassero il pianeta sin dai tempi remoti in cui i continenti ancora non si erano separati e la terraferma formava una massa unica. Solo così si può spiegare la larga diffusione di questi strani esseri che, tra l'altro, non si sarebbero potuti spostare da un continente all'altro, incapaci come sono di nuotare attraverso gli oceani. Per quanto nella loro biologia non ci sia nulla di primitivo, li si considera comunemente fossili viventi. Le stranezze non mancano negli onicofori. La gestazione dura dai dodici ai quindici mesi e spesso l'utero contiene una serie di embrioni in diverso stadio di sviluppo, un po' come succede nei canguri. Altro fatto sconcertante, il dimorfismo sessuale, cioè la differenza di aspetto tra i due sessi. Alla nascita, maschio e femmina hanno la stessa grandezza. Però nella maggior parte delle specie le femmine sono destinate a diventare più grandi dei maschi. Ebbene, in queste femmine ancora neonate si riscontra un fatto veramente singolare, più unico che raro nel mondo degli animali: hanno un numero di zampe maggiore di quello dei neonati di sesso maschile. Proprio come i nostri camion, che hanno quattro ruote se sono di misura normale, ma di ruote ne hanno sei, otto o più se diventano mastodontici Tir. In alcune specie che vivono nel Sud Africa, i maschi depongono le loro spermatofore (che sono pacchetti di sperma) non già nell'orifizio genitale femminile, come vorrebbe la prassi, bensì su un punto qualunque del corpo della femmina. In corrispondenza di quel punto, i tessuti si disgregano e gli spermatozoi possono così penetrare all'interno. Pensa poi la corrente sanguigna a portarli a destinazione negli ovari, dove possono fecondare le uova mature. Se però le femmine scarseggiano o magari ve n'è una sola nei paraggi, i maschi non si perdono d'animo. Polarizzano tutto il loro interesse su quell'unico rappresentante dell'altro sesso. Con il risultato messo in luce da un biologo: una femmina aveva ben 180 spermatofore disseminate su punti diversi del corpo. Ai maschi, piccoletti e svantaggiati quanto a numero di zampe, l'evoluzione ha concesso un compenso: diventano sessualmente maturi assai più precocemente delle femmine e cioè poco dopo la nascita. Isabella Lattes Coifmann


DIETA & LINEA C'è un gene che non ti lascia dimagrire Se difettoso, non fa scattare l'interruttore che spegne l'appetito
Autore: CALABRESE GIORGIO

ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA

SI è finalmente scoperto perché tanti obesi, dopo aver perso un bel po' di chili seguendo con grandi sforzi diete da fame, entro un periodo di tempo più o meno lungo ritornino a pesare come o più di prima. La colpa sembra essere di un gene che, quando funziona male, fa ingrassare e poi impedisce di dimagrire in modo duraturo. Chi si sottopone a una dieta dimagrante, sa che prima o poi riprenderà un bel po' di chili, ma non se ne conosce la causa: sembra che dei meccanismi misteriosi tendano a far tornare obesi. Alla Rockefeller University di New York, il professor Zhang ha esaminato 18 obesi e 23 normopesi e i risultati sono stati sorprendenti. Tutte le volte che gli obesi dimagriscono e i normopesi ingrassano, scatta un misterioso meccanismo che li riporta al peso iniziale. Come, non si è capito bene. Il metabolismo di un obeso che perda circa 5 chili, riduce al minimo il consumo di energia e accumula le calorie sotto forma di grasso. In colui che invece è ingrassato, bruciano le calorie in più accumulate con la dieta ingrassante. E' come se il corpo si accorgesse che qualcosa ha ridotto o aumentato le riserve di grasso. Ciò è da attribuire a una proteina che circola nel sangue, detta Ob, secreta dal tessuto adiposo. Questa proteina segnala le variazioni al cervello, e qui c'è l'adipostat, un organo del diencefalo che è il «set point» del peso corporeo. Esso comanda tanti neuroni che impediscono alla cellula obesa di diventare magra. Le informazioni per l'adipostat verrebbero dal numero, dalla grandezza e dalle sedi di deposito degli adipociti, o cellule grasse. Quando siamo a riposo il metabolismo basale è simile sia negli obesi che nei normopesi, mentre ciò che varia è la spesa energetica legata al funzionamento dei muscoli scheletrici. Quindi, quando rimproveriamo coloro che piluccano dolci o cibi salati tutto il giorno, potremmo aver torto, perché per loro ciò sarebbe praticamente obbligatorio. E' come se qualcuno dall'interno «gridasse» chimicamente «mangia ancora». I processi che riportano la cellula al peso iniziale sono lenti ma efficaci: con un eccesso di appena 100 calorie al giorno, si riacquistano in un anno circa 4 chili, persi magari tirando al massimo la cinghia. Questa proteina Ob si trova sia nel topo sia nell'uomo, a livello del cromosoma 6. L'adipostat può essere azzerato con un controllo continuo della qualità del cibo e una maggiore attività fisica e sportiva. Basti pensare che in 20 anni un uomo anziano può accumulare circa 10 chili di peso mangiando ogni giorno solo 10 calorie in più delle calorie totali ideali, è cioè l'equivalente di un po' di carota. Ma si può spiegare tutta l'obesità col fattore Ob? No, perché l'obesità è una malattia provocata da molti fattori, così come l'ipertensione arteriosa e le cardiopatie ischemiche. Essa è sicuramente determinata da una complessa interazione di geni difettosi e di fattori ambientali, in cui lo stress negativo la fa da padrone. Giorgio Calabrese


ANFIBI&LICHENI Lezione di ecologia Quanta vita in due metri quadri
Autore: RAVIZZA PAOLA

ARGOMENTI: ECOLOGIA, ZOOLOGIA, BOTANICA, MOSTRE
ORGANIZZAZIONI: MUSEO DI SCIENZE NATURALI
LUOGHI: ITALIA, TORINO (TO)
TABELLE: D. T. Come si riproducono gli anuri. Anatomia dei licheni
NOTE: «Amphibia & Licheni»

CHE cos'è una cecilia? E un lichene? Per scoprirlo ecco la mostra «Amphibia & Licheni», al Museo regionale di scienze naturali di Torino, una di quelle «Collezioni invisibili», con cui i responsabili museali, in collaborazione con l'Università, portano alla luce collezioni normalmente non esposte al pubblico. Nei secoli passati, rospi e salamandre sono stati considerati materia di stregoneria e usati per fare pozioni e unguenti magici; oppure erano oggetto di strane credenze: si pensava, per esempio, che le salamandre avessero un potere ignifugo. Oggi gli anfibi devono affrontare altri pericoli per la distruzione del loro habitat naturale, le piogge acide, l'avvelenamento da mercurio e perché alcune varietà sono considerate una raffinata ghiottoneria. Gli anfibi, suddivisi in Anuri (rospi, rane), Urodeli (tritoni e salamandre) e Apodi (appunto le cecilie, prive di arti e con gli occhi poco sviluppati, presenti solo in alcune zone tropicali), popolano quasi tutte le zone del mondo, ad eccezione delle aree desertiche e polari. Nella mostra si possono seguire passo dopo passo i vari stadi del loro sviluppo, dall'ammasso gelatinoso delle uova da cui nascono i girini sino all'individuo adulto. Una sezione è dedicata alle aree di diffusione degli anfibi. Si scopre così che in Piemonte esiste una specie di salamandra endemica del massiccio del Monviso, la Salamandra di Lanza; o che un rospo, il Pelobate Insubrico, vive esclusivamente nella Pianura Padana, minacciato dall'urbanizzazione e dall'agricoltura intensiva. Le salamandre acquaiole, diffuse in Estremo Oriente, sono lunghe fino a 160 centimetri; tra gli Anuri, i giganti sono la rana golia, dell'Africa occidentale, 25 centimetri, e la rana toro, che arriva a 20. La più piccola è la Stumpffia pygmea del Madagascar: solo 15 millimetri. L'altra sezione della mostra riguarda i licheni e la si deve alla Società lichenologica italiana, che ha trasferito il suo patrimonio al Museo di scienze naturali. I licheni sono il risultato della «fusione» in simbiosi tra un fungo e un'alga. Presenti a ogni latitudine e quota, passano generalmente inosservati ai più. Eppure, per fare un esempio, passeggiando su un prato in alta Val di Susa potremmo ritrovare in meno di due metri quadrati tutti gli esemplari esposti nel diorama di apertura della sezione lichenica. Ma i licheni, come si vede nella mostra, vivono anche sulla corteccia degli alberi, sulle rocce, su tetti in pietra, monumenti, cemento e persino vetrate, mentre alcuni si insediano su altre formazioni licheniche, vivendo da parassiti. Si raggruppano secondo la loro forma: licheni crostosi, fogliosi, fruticosi, composti, filamentosi, gelatinosi. Le proprietà di questi organismi sono state sfruttate in altri modi: per le decorazioni, ad esempio; molti Paesi nordici ne esportano una varietà usata per addobbare i presepi oppure per rappresentare la vegetazione nei plastici dei progetti architettonici. Un tempo i licheni erano usati anche nell'industria tessile: il nome della famiglia fiorentina dei Rucellai, in origine tessitori, deriva dalla rocella dei tintori, un lichene da cui si ottengono sostanze coloranti tendenti al viola. Da questa si ricava, tra l'altro il tornasole. I licheni sono usati anche in profumeria e nella mostra un apposito contenitore consente di sentire il profumo che se ne può estrarre. Uno sguardo a parte meritano gli usi farmaceutici. I licheni contengono sostanze antibatteriche. E la Cladonia stellaris contiene una sostanza di gran lunga più efficace dell'acido acetilsalicilico dell'Aspirina: purtroppo però è molto costosa e difficile da estrarre, essendo prodotta da organismi minuscoli e dalla crescita lentissima. La Cetraria Islandica è comune in erboristeria, ma in molti Paesi si usa anche per la panificazione, mescolata alla farina di frumento. La varietà corticicola, presente sugli alberi, è usata per il biomonitoraggio ambientale; funge da bioaccumulatore, perché assorbe, ma non smaltisce, le sostanze presenti nell'aria; poiché non sopravvive all'inquinamento la sua presenza, o assenza, in una certa area, ci informa sulle condizioni ambientali. Ai lichenologi, come è ampiamente illustrato nella mostra, tocca poi il compito di studiare gli insediamenti lichenici su monumenti e palazzi di importanza storica e artistica dove sono responsabili del «biodeterioramento». Per estirpare questi organismi bisogna procedere con estrema cautela, dato che le sostanze chimiche capaci di eliminarli possono a loro volta danneggiare il substrato. Paola Ravizza


Visti da vicino Una mostra a Torino
ORGANIZZAZIONI: MUSEO DI SCIENZE NATURALI
LUOGHI: ITALIA, TORINO (TO)
NOTE: «Amphibia & Licheni»

LA mostra «Amphibia & Licheni», nel Museo regionale di Scienze naturali in via Giolitti 36, a Torino, rimarrà aperta fino al 15 ottobre. Espone una selezione dei 3000 esemplari di anfibi collezionati nel museo (alcuni, risalenti all'800, ancora conservati nel rhum) e circa duecento licheni. Corredano la mostra fotografie, diorami, modelli, un sistema informatico digitale a disposizione del pubblico e due audiovisivi di quindici minuti ciascuno sul mondo dei licheni e degli anfibi (in vendita anche una cassetta con i due filmati), oltre a una valigetta didattica sui licheni (70 mila lire). La guida alla mostra costa 5 mila lire. Le visite guidate si prenotano telefonando al numero (011) 432.30.62. Per altre informazioni il numero della segreteria è 432.30.61. Gli orari: tutti i giorni dalle 9 alle 19, il venerdì dalle 9 alle 23. Chiusura il lunedì. Biglietto: intero 8000, ridotto 5000, per gruppi e scuole 3000. Il museo è provvisto di un minuscolo «trattorino» per trasportare le carrozzelle dei disabili al piano interrato, dove si trova la mostra. I pannelli didattici sono stati realizzati anche in Braille.


STRIZZACERVELLO Tre quadrati che diventano uno
LUOGHI: ITALIA

Trasformare la figura formata da tre quadrati uguali (vedi disegno), tagliandola, in modo opportuno, in un quadrato quattro volte più grande di uno dei quadrati di tale figura, con un buco al centro grande come uno di questi quadrati. Si provi anche a trasformare la stessa figura di partenza in un rettangolo. I disegni domani, accanto alle previsioni del tempo.


LA PAROLA AI LETTORI Acqua invisibile intorno alla pentola
LUOGHI: ITALIA

Perché, spegnendo la fiamma sotto un recipiente pieno di acqua in ebollizione, si forma istantaneamente una notevo le condensazione di vapore? Quando si spegne il gas sotto una pentola contenente acqua molto calda, accadono principalmente due fenomeni fisici: la temperatura dell'aria intorno alla pentola decresce e il vapore in eccesso si condensa in fumo bianco. Il vapore è un gas formato da molecole d'acqua, mentre il fumo bianco è sempre formato da molecole d'acqua, ma allo stato liquido. La quantità di acqua presente nell'aria allo stato gassoso (vapore, dunque) non è illimitata, ma è direttamente proporzionale alla temperatura. A ogni valore di temperatura corrisponde una quantità assoluta di acqua che può restare nell'aria allo stato di vapore invisibile: al di là di questo limite si ha la condensazione. Altrettanto accade se si varia la temperatura, mantenendo costante la quantità di acqua allo stato di vapore. In particolare si ha condensazione quando la temperatura decresce: per esempio, intorno alla pentola quando si spegne il gas, ma anche con l'umidità sul contenitore delle bibite molto fredde o la nebbia notturna. In definitiva, spegnendo il gas sotto la pentola, si fa crollare repentinamente la temperatura nelle immediate vicinanze della stessa, provocando la condensazione. Riaccendendo la fiamma si ha l'effetto contrario: la temperatura aumenta e le goccioline condensate, che formano il fumo, ritornano vapore invisibile. Enrico Fico Sanremo (IM) Perché i fusti crescono verso l'alto e le radici verso il basso? Per precisare e completare le risposte già pubblicate, vorrei aggiungere che lo sviluppo verso l'alto del fusto, legato al fenomeno noto come fototropismo, è connesso a un recettore per la luce costituito da un insieme di pigmenti ancora ignoti, che vanno sotto il nome di «criptocromo». L'effettore della risposta fototropica (e anche di quella geotropica positiva) è l'ormone auxina, che è presente in concentrazioni diverse nel fusto e nella radice. In una radice e in un fusto posti orizzontalmente, l'aumento di queste concentrazioni critiche inibisce la crescita nella radice e stimola quella del fusto. Viceversa, una diminuzione dell'ormone stesso provoca una differenza nella frequenza delle divisioni delle cellule degli strati inferiori rispetto a quelli superiori. Federico Pavan, Torino che deve dare il lanciatore del peso alla sfera metallica per lanciarla oltre 20 metri? Il lancio di un peso può essere assimilato alla parabola di un proiettile. Per avere la massima gittata, l'angolo di lancio dev'essere di 15I' sull'orizzontale e tra gittata G (in metri) e velocità iniziale V (m/s) corre la formula G=V2/g, dove g=9,8 m/s2 è l'accelerazione di gravità. La formula è approssimata perché non tiene conto della resistenza dell'aria nè dell'altezza del lanciatore rispetto al suolo. Per avere un gittata di 20 metri, la velocità di lancio dovrà essere V = radice quadrata di 20X9,8. L'altezza massima della traiettoria è pari a un quarto della gittata, quindi 5 metri. Paolo Andrietti, Torino Anche se fissiamo la massa m del proietto e l'angolo con il quale viene lanciato, il problema è indeterminato, cioè ha infinite soluzioni. Infatti un secondo lanciatore di pesi può imprimere una forza minore per un tratto maggiore prima di liberarsi della sfera, ottenendo un uguale lavoro e un uguale risultato. Oppure può imprimere una forza maggiore in un tempo minore, ottenendo un uguale impulso. Si osservi che questo problema ricorda la polemica tra la scuola leibniziana e quella cartesiana a proposito della misura della forza. Il problema ha però un'unica soluzione se lo si affronta dal punto di vista cinematico, se cioè ci si chiede qual è la velocità iniziale del proietto che raggiunge i 20 metri di distanza e viene lanciato secondo l'angolo di massima gittata. Occorre però conoscere alcuni elementi di calcolo differenziale e integrale. Angelo Figus, Torino


CHI SA RISPONDERE ?
LUOGHI: ITALIA

Q Perché, quando si sta a lungo immersi nell'acqua, la pelle delle mani e dei piedi (e in genere solo quella) si raggrinzisce? Q Perché un'immagine riflessa in un cucchiaio da una parte risulta dritta, dall'altra girata? Q Perché, tra i pianeti del sistema solare, uno solo, Venere, ha rotazione retrograda rispetto agli altri? _______ Risposte a «La Stampa-Tuttoscienze», via Marenco 32, 10126 Torino. Oppure al fax numero 011- 65.68.688




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio