TUTTOSCIENZE 29 gennaio 92


ECOLOGIA Le foreste coltivate Il patrimonio boschivo europeo oggi è più esteso che nel secolo scorso ma restano le minacce delle piogge acide, degli incendi e dell' inquinamento
AUTORE: DEL PIERO FABRIZIO
ARGOMENTI: ECOLOGIA, CONGRESSO
PERSONE: PRINS KIT, KOROTKOW ALEXANDER
NOMI: PRINS KIT, KOROTKOW ALEXANDER
ORGANIZZAZIONI: FAO, ONU, JEUR
LUOGHI: ESTERO, SVIZZERA, GINEVRA
NOTE: 013

L' EUROPA è una regione altamente sviluppata, e industrializzazione significa anche un forte consumo di legname da costruzione, semilavorati industriali, pasta di legno, e così via. Forse gli europei stanno esigendo troppo dalle proprie foreste? La loro richiesta di legname sta forse impoverendo le foreste europee e quelle tropicali? La migliore risposta a questa domanda può essere data da esperti internazionali indipendenti. La Fao, l' organizzazione dell' Onu per l' alimentazione e l' agricoltura, opera anche nel campo della forestazione. Sin dal 1948 ha unito le sue forze a quelle dell' Onu, creando una «Divisione congiunta per l' agricoltura e il legname» (in sigla Jeur) che ha sede presso l' Onu a Ginevra. Kit Prins, della Gran Bretagna, e Alexander Korotkow, dell' Unione Sovietica, sono due esperti del Jeur che seguono in particolare gli affari economici forestali. Innanzitutto quali sono i dati sullo stato delle foreste europee? Prins: decisamente migliori di quanto alcuni tendono a credere. Certo, in tempi remoti l' Europa era praticamente ricoperta di foreste. Ma la copertura verde dell' Europa toccò probabilmente il suo punto più basso verso la metà del secolo scorso. Da allora, escludendo i periodi di guerra, la tendenza è stata quasi universalmente in ascesa. Le foreste coprono oggi circa il 35 per cento della superficie contro circa l' 80 per cento nelle lontane epoche prima dello sviluppo degli insediamenti umani e un picco negativo probabilmente inferiore al 20 per cento nell' 800. In generale, oggi le foreste godono di una qualche forma di protezione legale. In più le enormi eccedenze agricole stanno spingendo molti Paesi a incentivare la riconversione di terreni coltivati in aree boschive. Inoltre, le foreste europee tendono ad essere gestite in maniera molto prudente da parte delle autorità e industrie forestali, ormai educate ad una lunga tradizione di «custodia» delle risorse forestali per le future generazioni. Dalla fine della seconda guerra mondiale c' è un aumento della superficie forestale, un aumento del numero di alberi in crescita e un aumento del tasso di incremento. Una parte di questi aumenti è forse dovuta a migliori metodi di rilevamento, ma in parte riflette senz' altro un' effettiva espansione. Non è vero, quindi, che le foreste europee si stanno riducendo e che sono minacciate da imminente scomparsa. Quali sono i più gravi problemi per le foreste europee? Prins: gli incendi e l' inquinamento atmosferico, comprese le cosiddette piogge acide. Quest' ultimo problema è balzato alla ribalta all' inizio degli Anni 80. Da allora vasti programmi di ricerca hanno indicato che le cause della «moria» forestale sono molto più varie di quanto si era immaginato. In alcune parti dell' Europa orientale e centrale possono essere l' emissione incontrollata di sostanze inquinanti, in particolare SO2, da parte delle industrie che bruciano carbone. Ma il danno più diffuso riscontrato altrove appare dovuto a cause differenti e molteplici. Oltre all' inquinamento atmosferico, sono in gioco fattori climatici (eccezionale siccità, gelate), fattori silvicolturali (ad esempio la distanza troppo piccola a cui sono stati piantati gli alberi in passato, causando eccessiva competizione nutritiva), e il grado di sensibilità intrinseca del terreno all' acidificazione. Vi sono fluttuazioni annuali e marcate differenze tra diverse regioni e diverse specie. Comunque, come ha confermato il rilevamento del 1990, vi è una generale tendenza ad un aumento delle zone interessate. Quanto agli incendi, questa piaga colpisce soprattutto l' Europa meridionale distruggendo centinaia di migliaia di ettari di bosco e macchia ogni anno con milioni di dollari di danni. Ma anche qui, le cause sono molteplici e richiedono una varietà di interventi: certo, c' è il clima più caldo e secco, ma anche errate pratiche silvicolturali (come l' accumulo di materiali naturali infiammabili) e soprattutto fattori «sociali»: il 90 per cento degli incendi è causato da negligenza o dolo. Fino a che punto gli europei possono soddisfare la loro richiesta di prodotti legnosi con i propri mezzi? Prins: lo potrebbero molto di più di quanto in realtà non facciano. L' Europa nel suo complesso è un grande importatore (al secondo posto dopo il Giappone), e il volume delle importazioni nette è cresciuto costantemente negli anni. Ma è un eccesso di semplificazione dire che questo è dovuto ad una «penuria» di legno in Europa. La «raccolta» annuale di alberi è molto al di sotto di quella che potrebbe essere ottenuta su base sostenibile. In altre parole, il potenziale fisico delle foreste europee è di gran lunga superiore alla loro effettiva produzione. Perché questo potenziale non è sfruttato? Due i motivi principali: 1) la disponibilità di forniture di alta qualità e a prezzi competitivi da altre regioni; 2) il fatto che molte foreste europee, comprese alcune tra le più produttive, sono gestite in realtà per fornire «benefici non legnosi» come quelli ricreativi, paesaggistici o ecologici. Forse l ' Europa sta «sfruttando» foreste di altri continenti, in particolare tropicali? Prins: non credo; quelle importazioni ammontano a circa il 10 per cento del consumo europeo, con due quinti dal Nord America, due quinti dall' Urss e circa un quinto dalle regioni tropicali. I legni duri tropicali ammontano a meno del 2 per cento del consumo europeo di prodotti forestali. Per una buona gestione delle foreste è vitale disporre di solidi ed esaurienti dati statistici. Cosa si fa su questo fronte? Korotkov: Jeur è impegnato in un grande progetto: la valutazione delle risorse forestali della zona temperata, che è parte di un progetto Fao per la valutazione delle risorse forestali a livello mondiale. L' ultimo rilevamento fu intrapreso nel 1980 (con risultati pubblicati nel 1985), e dopo un decennio è necessario aggiornare le cifre. Abbiamo creato speciali questionari e programmi computerizzati, e contiamo sulla cooperazione dei servizi forestali nazionali per raccogliere i dati il più completi possibile. Il Dipartimento forestale della Fao, con sede a Roma, sta curando la parte riguardante le foreste nei Paesi del Terzo Mondo. Il Jeur, a Ginevra, cura le zone temperate nei Paesi sviluppati: tutta l' Europa (compresa l' Urss), gli Usa, Canada, Australia, Nuova Zelanda, Giappone. E si tratta di un patrimonio verde pari al 50 per cento delle foreste del pianeta. Fabrizio Del Piero


INGEGNERIA GENETICA Geni di topo innestati in una pianta di tabacco per farla più resistente IN ITALIA IL PRIMO IBRIDO VEGETALE ANIMALE
Autore: GRANDE CARLO

ARGOMENTI: GENETICA, RICERCA SCIENTIFICA, BOTANICA
NOMI: BENVENUTO EUGENIO
ORGANIZZAZIONI: ENEA
LUOGHI: ITALIA
NOTE: 013

Ecosì, alleandosi, topi e carciofi riuscirono a sconfiggere la malattia. Non è il finale di una fiaba di Esopo, ma un' avventura scientifica moderna, tanto straordinaria da far pensare ai «cyborg» della fantascienza. In concreto, è successo che in un vegetale (una pianta di tabacco), sono stati inseriti alcuni geni di un topolino da laboratorio. Il matrimonio tra regno animale e vegetale, con lo scopo di ottenere piante più resistenti alle malattie, è riuscito nel laboratorio Enea della Casaccia all' equipe di Eugenio Benvenuto. Visto che in natura solo i mammiferi hanno un sistema immunitario particolarmente efficiente, e dato che non si può prendere in blocco tutto questo complicato sistema di autodifesa e trasferirlo nei vegetali, i biologi hanno pensato di prenderne in prestito solo una parte e di trapiantarla nelle piante dopo averla opportunamente modificata in base alle conoscenze di biologia molecolare. Come? Hanno iniettato il virus del carciofo in un topo e l' organismo del roditore ha reagito all' attacco producendo una serie di anticorpi specifici: gli anticorpi sono molecole che riconoscono un antigene (ad esempio le tossine prodotte dai batteri ) e lo neutralizzano. Con tecniche di ingegneria genetica sono stati poi prelevati dalle cellule che producono anticorpi i geni responsabili del processo, e sono stati trasferiti nelle cellule di una pianta di tabacco, una specie più facile da manipolare «in vitro». E' nata così la prima pianta «transgenica» (anzi, per la precisione, ne sono state ottenute tre), in grado di difendersi da sola dagli attacchi di una malattia contro la quale, finora, si era dovuto ricorrere ai fitofarmaci: le piantine sono identiche alle altre prive di cellule animali, ma contengono in sè il «programma» per esprimere da sole anticorpi contro quel determinato agente patogeno. Se si riuscisse, con questo sistema, a far produrre alle piante anticorpi efficaci anche contro altri virus, batteri o funghi (dotandole cioè di un sistema immunitario più complesso, sempre ricavato da quello ricchissimo dei vertebrati), si compirebbe un enorme passo avanti per fare a meno di antiparassitari e pesticidi, risparmiando manodopera e sostanze chimiche. L' esperimento, i cui risultati sono stati pubblicati su Plant molecular biology, è stato possibile perché solo i vegetali possono rigenerarsi completamente a partire da una singola cellula. Ma gli scienziati italiani (che finora hanno raggiunto i risultati migliori, ma devono battere la concorrenza di un gruppo di ricerca tedesco e di uno americano) hanno ancora davanti a sè un compito difficile: verificare se la pianta modificata sarà capace di produrre da sola l' anticorpo specifico in grado di difenderla. E soprattutto se l' immunità acquisita è resistente e stabile, cioè se l' organismo vegetale sarà in grado di riprodursi conservando nel suo codice genetico il dono prezioso ereditato dal topolino: un sistema immunitario «in miniatura», che la pianta non aveva in dotazione. Carlo Grande


ASTROFISICA Buon compleanno, buco nero] Da Einstein alla scoperta di Cygnus X 1
Autore: TREVES ALDO

ARGOMENTI: ASTRONOMIA
LUOGHI: ITALIA
NOTE: 013

POCHI termini scientifici hanno un potere evocativo come «buco nero » . Eppure questa espressione riassume due proprietà fondamentali e specifiche del campo gravitazionale descritto dalla relatività generale, l' inevitabilità per qualunque oggetto che si avvicini a sufficienza a un buco nero di caderci dentro, e l' impossibilità di lanciare segnali luminosi dall' interno di un buco nero verso l' esterno. Queste proprietà erano ben chiare ad Einstein sin dalla formulazione della relatività generale (1915). Ma il riconoscere che la natura poteva fornire esempi concreti di buchi neri richiese tempi assai lunghi e probabilmente sfuggì allo stesso Einstein. Per chiarire questo tema, richiamiamo la teoria dell' evoluzione stellare che inizia a svilupparsi negli Anni Venti. Il punto di partenza è la comprensione che la grande maggioranza delle stelle (anche il Sole) devono il loro equilibrio alla perfetta compensazione tra la gravità e la forza dovuta al fatto che la pressione decresce dal centro alla periferia della stella. L' equilibrio richiede che la stella produca energia nel suo nocciolo centrale, e questo avviene mediante reazioni nucleari, principalmente trasformando idrogeno in elio. Ma che succede quando la stella esaurisce il combustibile nucleare? Nei primi anni 30 Chandrasekhar suppose che le nane bianche (stelle di massa solare, ma con raggi cento volte più piccoli) dovessero il loro equilibrio alla compensazione della forza di gravità con una forza non legata alla produzione di energia, bensì a una forza di natura quantistica, che impediva agli elettroni di essere stipati in spazi arbitrariamente piccoli. Negli Anni 30 Landau stabilì che una seconda configurazione di equilibrio si poteva realizzare quando le particelle non fossero gli elettroni, ma i neutroni, e si postulò quindi l' esistenza di stelle di neutroni. Chandrasekhar comprese che l' equilibrio in tali condizioni poteva realizzarsi soltanto se la stella aveva una massa relativamente piccola, di poco superiore a quella del Sole. Si poneva quindi il problema di quale fosse il destino di una stella di grande massa che avesse esaurito il combustibile nucleare. La soluzione fu che la stella avrebbe subito un collasso gravitazionale completo. Nel 1939 Volkoff e Oppenheimer descrivevano il collasso usando la relatività generale e trasformando gli oggetti che ora chiamiamo buchi neri da soluzioni di equazioni matematiche a stelle ormai alla fine della loro evoluzione. La guerra distolse l' interesse da questi problemi, che furono ripresi negli anni 60, questa volta con la coscienza che stelle di neutroni e buchi neri potevano avere una esistenza effettiva. Per i buchi neri il punto di partenza fu la scoperta dell' esistenza di sorgenti celesti di raggi X ad opera di Giacconi e Rossi mediante il lancio di un missile suborbitale che ebbe luogo nel 1963. Seguì un periodo di ricerche che portò a riconoscere che le sorgenti X erano probabilmente associate a stelle compatte, cioè nane bianche, stelle di neutroni o buchi neri, dall' altro all' affinarsi delle tecniche sperimentali e osservative, per arrivare alla determinazione delle controparti ottiche delle sorgenti X. La difficoltà consisteva nel fatto che nel margine di errore della posizione della sorgente X compaiono moltissime stelle e per identificare quella giusta è necessario ridurre quanto più possibile la dimensione della zona di incertezza. Nel caso della sorgente X Cyg X 1, che sarà il primo candidato buco nero, l' identificazione avvenne attraverso una fortunata circostanza. Nella zona di errore della sorgente X comparve una sorgente radio, che prima era assente, fatto assolutamente insolito. Diventò naturale associare la sorgente radio a quella X, e poiché la posizione della sorgente radio era nota con grande precisione, seguì immediatamente la determinazione della controparte ottica. Essa appariva però come una stella di grande massa e molto calda, a prima vista senza caratteristiche peculiari. Lo studio della stella (Webster e Murdin) portò all' ultimo atto della scoperta dei buchi neri, al riconoscimento che la stella faceva parte di un sistema binario, con compagno invisibile, la cui massa si poteva tuttavia misurare ed era tale da indicare un buco nero piuttosto che una stella di neutroni o una nana bianca. La compressione del gas della stella visibile dovuta al campo gravitazionale del buco nero dava una spiegazione convincente della presenza della sorgente X. Sono passati vent' anni da questa importante scoperta e oltre a Cyg X 1 conosciamo alcune altre binarie X che probabilmente ospitano buchi neri. Si riconosce ora che i buchi neri sono alla base di molti fenomeni astrofisici: per esempio l' emisisone dei quasar. In sessant' anni essi si sono trasformati da soluzioni di equazioni differenziali a primi attori dell' universo. Aldo Treves Scuola Internazionale Superiore di Studi Avanzati, Trieste


NUOVE TECNOLOGIE Quando l' aereo fa di testa sua Interrogativi sui velivoli computer E' sufficiente duplicare i controlli?
Autore: PINNA LORENZO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, TECNOLOGIA, INFORMATICA
ORGANIZZAZIONI: A 320 AIRBUS
LUOGHI: ITALIA
NOTE: 014

GLI aerei dell' ultima generazione, anche quelli civili come l' A 320 dell' Airbus, del tipo di quello precipitato presso Strasburgo, impiegano sofisticatissime tecnologie informatiche, il così detto «fly by wire», per tenere sotto controllo tutte le funzioni «vitali» del velivolo. Persino il pilota non controlla più direttamente, con la cloche o il volantino, i movimenti degli alettoni e delle superfici mobili della coda. Infatti, mentre sugli aerei più vecchi i movimenti della cloche arrivavano, tramite sistemi di leve e tiranti o elettromeccanici, alle ali ed alla coda con il «fly by wire» quegli stessi movimenti arrivano ad uno dei vari computer di bordo che li analizza e li trasmette poi alle varie superfici che sostengono in volo l' aereo. Stessa cosa per gli altri comandi, motori, carrello, flaps: tutto passa attraverso il sistema informatico. La cosa presenta diversi vantaggi. I computer infatti sono in grado di fornire, in tempo reale, al pilota tutti i parametri del volo e della navigazione su un piccolo schermo che, nell' A 320, per esempio, ha rimpiazzato tutti gli altri strumenti (solo tre strumenti tradizionali rimangono ancora su questo aereo) Ma, come dimostra l' esperienza dell' A 320, insieme ai vantaggi sono sorti anche nuovi problemi. La questione cruciale è infatti questa: quanto è sicuro il software che gira nei computer ed al quale è, in definitiva, delegata la responsabilità dell' aereo? Alcune emergenze capitate agli A 320 lasciano un margine di dubbio. Nel volo inaugurale del 28 aprile 1988, l' allora primo ministro francese Chirac e il suo seguito non dovettero divertirsi molto quando una serie di falsi allarmi costrinse il comandante a rientrare rapidamente alla base. Nè al pilota del volo AF 914 del 25 agosto 1988, Parigi Amsterdam, fece molto piacere leggere sul monitor di bordo che tutti i comandi si erano bloccati. La cosa per fortuna non era vera. Ma i computer continuarono a inventare falsi allarmi, come «fuoco nella toilette» ed altri, ugualmente bizzarri. Nei due incidenti più gravi capitati all' A 320 (in Francia nel giugno 1988 ed in India nel febbraio 1990) non è stato ancora chiarito con esattezza che cosa sia successo. La responsabilità di entrambi gli incidenti viene, per il momento, attribuita ai piloti. Ma al di là del caso particolare dell' A 320, che essendo il primo aereo civile ad utilizzare questa nuova tecnologia è costretto a subire il prezzo della messa a punto, ci si può chiedere: come si stabilisce il livello di sicurezza di un software di così vitale importanza? L' ingegnere capo dei sistemi di bordo dell' A 320, Joelle Monso, spiega che la sicurezza ottenuta si può calcolare in un' avaria grave ogni miliardo di ore di volo. Per raggiungere questo eccezionale livello viene utilizzata la tecnica della ridondanza multipla. Il velivolo ha cioè cinque computer: uno che lavora e gli altri quattro di riserva. Inoltre ogni computer è fatto di due parti progettate e realizzate da diversi team di ingegneri. In caso di errore ogni computer viene sostituito dalla riserva. Ma due esperti inglesi, Bev Litlewood e Martyn Thomas, mettono in dubbio che il sistema della ridondanza multipla fornisca simili livelli di sicurezza. Il problema, secondo i due esperti, sta nella tendenza che hanno i computer (cioè il soft ware e chi lo scrive) a sbagliare nella stessa situazione. A questo proposito citano un «esperimento». Negli Usa a 27 gruppi indipendenti di progettisti di soft ware è stato dato uno stesso problema da risolvere. Ebbene, gli errori nel software scritto da questi 27 gruppi erano molto simili. Eppure ognuno aveva lavorato per conto proprio. Quindi la certezza che il secondo computer riesca sempre dove il primo ha sbagliato non risulta così granitica. Inoltre Bev Littlewood ha dimostrato, con una teoria matematica, che il software sbaglia quando le richieste del sistema diventano eccessive. Anche in questo caso la ridondanza multipla non garantisce la sicurezza assoluta perché, in certi casi critici, tutti i computer, per quanto il soft ware sia diverso, tenderanno a sbagliare poiché si trovano sotto stress. Insomma, secondo i due esperti inglesi le stime sulla sicurezza del software impiegato in sistemi critici, come un aereo, sono molto complicate e non così facilmente risolvibili. L' invito è alla prudenza nell' uso di un' eccessiva informatica di bordo. Lorenzo Pinna


DIVULGAZIONE Scienza cenerentola in tv Eppure nel ' 91 ha battuto persino Perry Mason
Autore: BIANUCCI PIERO

ARGOMENTI: COMUNICAZIONI, TELEVISIONE, PROGRAMMA
NOMI: ANGELA PIERO
LUOGHI: ITALIA
NOTE: 014. Quark, La macchina meravigliosa

CHE la Rai non abbia un progetto organico per la divulgazione della scienza è una vecchia lamentela. Vecchia ma sempre attuale. Forse non lo sarà più tra qualche mese, perché si parla di un telegiornale dedicato all' informazione scientifica (una decina di minuti sulla Rete 3, redazione a Torino). In ogni caso per adesso è così: in tv la scienza compare in modo sporadico, i notiziari radiofonici e televisivi non hanno redazioni scientifiche, giornalisti attenti a questo tipo di informazione non vengono valorizzati, si trova normale che nell' organico di un Tg esista un cronista specializzato in discorsi di De Mita e non ci sia invece un redattore che filtri le decine di notizie diffuse ogni giorno da laboratori di ricerca sparsi in tutto il mondo. Finora di queste cose si poteva dare una giustificazione pragmatica: questione di indici di ascolto. Se la scienza facesse ascolto, si poteva pensare ecco che riceverebbe attenzione. Ma, a parte il fatto che rimane da dimostrare che le cronache dei discorsi di De Mita facciano salire l' audience, i dati sui programmi di divulgazione scientifica andati in onda nell' ultimo anno su Rai 1 smentiscono i teorici della dura legge dell' indice di ascolto. E poiché difficilmente questi dati verranno pubblicizzati, proviamo noi a riassumerne alcuni. «La macchina meravigliosa», programma dedicato alla fisiologia del corpo umano, con un pubblico massimo di circa 6 milioni di spettatori, ha battuto la maggior parte dei film e telefilm di prima serata ed è secondo soltanto a «La Piovra», «Fantastico» e Coppe di calcio. Questi documentari in diretta sono costati 69 lire per spettatore, scese a 37 grazie al fatto che una decina di Paesi, dalla Germania al Giappone, ne hanno acquistato i diritti. «Serata oceano», con 4, 7 milioni di spettatori, indica un forte interesse del pubblico per i grandi temi ambientali e lascia indietro programmi di sicuro richiamo come quelli di Enzo Biagi e Tg1 Sette. Ancora: nelle pigre serate estive, «Quark speciale» in 8 serate su 11 ha battuto le altre due reti Rai e le tre reti di Berlusconi. Tra le vittime illustri, Perry Mason (Rai3) il Festivalbar (Italia 1), il film «Un tocco di velluto» (Rai2) Costo per spettatore: 5 lire. Da confrontare con le 110 lire dell ' ultimo «Fantastico», che pure è stato prodotto in economia. Poi c' è «Il mondo di Quark». Siamo in un' altra fascia oraria, tra le 14 e le 14, 30, lo spazio della romana pennichella. L' ascolto è stato pari a quello di «Piacere Rai Uno», il costo di 10 lire per spettatore. E 32 dei documentari trasmessi non erano della mitica Bbc ma di produzione italiana. Si diceva della casualità con cui la scienza appare sulle reti Rai (ma alla Fininvest è peggio). Bene: pur con una collocazione del tutto occasionale, messa lì per tappare un buco, «Serata speciale Quark» il 12 novembre ha catturato un milione e 880 mila spettatori scampati a Tg1 Sette e alla pubblicità delle 21, 45, e se ne è ritrovati 5 milioni 760 mila alla fine della trasmissione (ore 22, 40). Un particolare. Tutti questi programmi hanno la firma di Piero Angela. Ottima cosa, perché prova che la qualità paga. Ma anche preoccupante, perché prova che dietro Piero Angela c' è il vuoto. «Fantastico» è andato alla scoperta di ballerine, cantanti, fantasisti. Forse è il caso di investire anche un po' di energie per dare una squadra ad Angela (che peraltro, ormai da anni, è per la Rai solo un collaboratore esterno). Come il mondiale di calcio ha dimostrato, neanche lo Schillaci dei tempi d' oro poteva permettersi di giocare da solo. Piero Bianucci


MISSIONE SPACELAB Nella «fabbrica spaziale» cristalli superconduttori e esperimenti di biologia
ORGANIZZAZIONI: BIORACK, ESA
LUOGHI: ITALIA
NOTE: 014

L A missione della navetta americana «Challenger» che si sta concludendo in queste ore dopo una settimana di permanenza in orbita ha aperto una fase nuova nella ricerca spaziale; nel laboratorio «Spacelab», collocato nella sua stiva, erano infatti sistemati 42 esperimenti progettati da scienziati di 14 Paesi (di cui 21 forniti dall' Agenzia Spaziale Europea). La missione è la prima dell' International microgravity laboratory, un programma coordinato dalla Nasa che prevede, nell' arco di un decennio, ripetuti voli analoghi sia per compiere esperimenti sia per produrre materiali che non potrebbero essere prodotti sulla Terra. Nel corso di questo primo volo sono stati prodotti cristalli per varie applicazioni; in particolare i giapponesi hanno puntato alla creazione di un tipo di cristalli superconduttori, capaci cioè di far passare la corrente elettrica praticamente senza resistenza. In un apposito contenitore costruito dalla società francese Matra per conto dell' Esa e chiamato «Biorack» erano contenuti 17 esperimenti con cellule animali e vegetali di cui tre ideati dal biologo italiano Augusto Cogoli, che lavora al Politecnico di Zurigo; anche l' esperimento ideato da Carlo Bruschi del Centro internazionale di biotecnologia delle Nazioni Unite di Trieste riguarda il comportamento di varie cellule, in particolare l' influenza dell' assenza di peso e delle radiazioni cosmiche sulla riproduzione delle stesse. I semi di alcuni vegetali sono stati piantati durante il volo con l' obiettivo di controllarne in seguito le modalità di sviluppo.


TRA SCIENZA E FANTASCIENZA Un progetto per la Terra Deserti coltivati e isole galleggianti
Autore: FEMINO' FABIO

ARGOMENTI: GEOGRAFIA E GEOFISICA, RICERCA SCIENTIFICA, AGRICOLTURA
NOMI: OWEN CHARLES
ORGANIZZAZIONI: PROGETTO PHOENIX
LUOGHI: ITALIA
NOTE: 014

PER combattere l' «effetto serra» (cioè il presunto riscaldamento della Terra dovuto all' uso dei combustibili fossili per produrre energia), tutti chiedono di ridurre i consumi energetici, arrivando se necessario anche al razionamento. Tuttavia, tale razionamento potrebbe essere sgradito alla popolazione. E' per questo motivo che l' Institute of Design dell' Illinois Institute of Technology (Chicago), sotto la direzione del professor Charles L. Owen, ha ideato il Progetto Phoenix allo scopo di trovare alternative. Le aree desertiche dovrebbero essere rinverdite con vegetazione per assorbire l' anidride carbonica responsabile dell' effetto serra. Il Progetto Phoenix prevede di proteggere questa vegetazione con cupole di plastica impermeabile all' acqua ma trasparente alla luce solare visibile e ultravioletta. Simili a tende, avrebbero forma esagonale con lati di 250 metri; 19 cupole insieme (includendone una usata come nucleo centrale della struttura) coprirebbero 3, 1 chilometri e formerebbero un «gruppo» autosufficiente. Ogni cupola potrebbe innalzarsi insieme alle piante, da 5 metri iniziali agli angoli fino a un massimo di 15 metri. Il centro di una cupola sarebbe alto all' inizio 32 metri, per salire poi ad un massimo di 42. A sostenere un gruppo di cupole sarebbe soprattutto la pressione interna dell' aria, mantenuta ad un livello leggermente superiore a quello dell' atmosfera. Questo, oltre a tenerle gonfie, permetterebbe ai supervisori del progetto di controllare la temperatura e la composizione dell' aria. Per portare l' aria all' interno sei tubi del diametro di 10 metri sarebbero incorporati nella superficie di ogni cupola, e correrebbero dagli angoli fino al centro, irrigidendo ulteriormente la struttura. Per il trasporto delle cupole da un luogo all' altro appese ad elicotteri i tubi permetterebbero di richiuderle come ombrelli. Il centro operativo di un gruppo di cupole regolerebbe la distribuzione dell' aria e dell' acqua. L' energia sarebbe ricavata dalla luce solare, per la cui raccolta occorrerebbe circa la metà dei 162. 400 metri quadrati racchiusi nello spazio esagonale. L' aria verrebbe fatta circolare in tutto il gruppo da ventilatori posti ai sei angoli della cupola del nucleo, in grado di insufflare 14. 160 metri cubi d' aria al minuto. Ventilare il gruppo durante il giorno raffredderebbe l' ambiente e lo rifornirebbe di anidride carbonica nel periodo di crescita delle piante. Di notte, le basse temperature condenserebbero l' umidità all' interno delle cupole e questa gocciolerebbe poi nell' ambiente in modo uniforme. La maggior parte dell' acqua sarebbe però estratta da pozzi. Un altro settore del Progetto Phoenix riguarda la creazione di piattaforme vegetali galleggianti sulle acque dei mari, per consentire a forme di vita di prosperare in aree dove altrimenti non potrebbero insediarsi. Tra queste forme di vita vi sarebbero alghe (Macrocystis pyrifera), molluschi e alberi di mangrovia rossa (Rhizophora mangle) in grado di tollerare l' acqua salata. Se queste isole artificiali raggiungessero una superficie di un milione di chilometri quadrati, circa tre volte le dimensioni del Giappone, assorbirebbero ogni anno 0, 5 miliardi di tonnellate di anidride carbonica dall' atmosfera. L' elemento di base di queste strutture sarebbe costituito da moduli triangolari di 50 metri di lato, formati da cavi ancorati a 20 metri di profondità sotto la superficie. Ogni isola, esagonale, riunirebbe sei moduli, e sarebbe protetta da frangionde alti 2, 5 metri con incorporati generatori per ricavare energia dal moto ondoso. Per far crescere gli alberi di mangrovia ai moduli sommersi sarebbero fissati galleggianti tra i quali verrebbero tesi vari strati di reti, che consentirebbero alle radici di far presa. Crescendo, i tronchi e le radici formerebbero uno strato solido al di sopra delle reti, insieme ad alghe e foglie morte. Per la creazione di un letto d' alghe che assorbirebbe ogni anno 1 2 chilogrammi di anidride carbonica per metro quadrato, verrebbero sommerse reti alla stessa profondità dei cavi ancorati al fondo. Partendo da queste, le alghe crescerebbero fino alla superficie. Intorno verrebbero allevati molluschi. Fra le isole di mangrovie e i letti d' alghe verrebbero lasciati canali navigabili larghi una quarantina di metri. Per alimentare di sostanze nutritive questi ambienti galleggianti sarebbero infine costruite stazioni di pompaggio in grado di portare in superficie l' acqua dei fondali, ricca di azoto e di fosforo. Queste stazioni userebbero l' energia ricavata dal moto ondoso e da pannelli solari. Fabio Feminò


NEUROCHIRURGIA Vie nuove per bloccare il dolore I possibili sviluppi della stimolazione midollare
Autore: VISOCCHI MASSIMILIANO

ARGOMENTI: MEDICINA E FISIOLOGIA, SANITA'
NOMI: MEGLIO MARIO
LUOGHI: ITALIA
TABELLE: D
NOTE: 015

NELLA prossima primavera, dal 3 al 6 maggio, si terrà a Roma, con il patrocinio di Tuttoscienze, il primo congresso della «International Neuromodulation Society». Presidente del congresso sarà Mario Meglio, dell' Istituto di Neurochirurgia dell' Università Cattolica del S. Cuore di Roma, esperto di fama internazionale di neurochirurgia del dolore. La Società è stata fondata a Parigi nel 1990 da rappresentanti di varie discipline mediche, provenienti da Francia, Belgio, Olanda, Germania, Inghilterra e Italia: neurochirurghi, chirurghi vascolari, cardiologi, anestesisti, antalgologi, angiologi, dermatologi. Per capire esattamente perché specialisti così diversi trovino interessi comuni e soprattutto quali prospettive di ricerca e terapia si ripromettano di considerare in questo congresso, bisogna innanzitutto cercare di dare una definizione più comprensibile della cosiddetta «neuromodulazione». Questo termine, apparentemente piuttosto generico, in realtà introduce il concetto di «interferenza». Interferenze con le fuzioni del sistema nervoso sono quelle operate da stimoli fisici come quelli associati alla stimolazione elettrica cronica e chimici come quelli indotti dalla infusione locale di farmaci ad azione analgesica o decontratturante La stimolazione elettrica del sistema nervoso è esperienza antica, come dimostrano le documentazioni dell' impiego della torpedine nel dolore cronico già noto in epoca romana. Fin dalla metà degli Anni 50 i neurochirurgi hanno impiegato la stimolazione elettrica cerebrale per il controllo del dolore intrattabile di origine maligna. Le corrette basi fisiopatologiche sono state poste invece in epoca più recente con la teoria del «gate control» di Melzak e Wall del 1965 che ha valorizzato la funzione inibitoria delle fibre sensitive di grosso calibro; la stimolazione delle prime riduce pertanto il dolore. Negli ultimi due decenni la medicina ha ideato numerosi sistemi e modalità di attivazione del «gate control» allo scopo di sedare dolori di origine varia. Nel 1967 Shealy propose l' impiego clinico della stimolazione dei cordoni posteriori del midollo spinale, sede del passaggio delle fibre di grosso calibro per il trattamento del dolore cronico dovuto a varie cause; tale intervento, inizialmente effettuato in anestesia generale, viene effettuato attualmente in maniera assai più rapida con procedura percutanea e in anestesia locale. In maniera quasi casuale sono stati identificati successivamente effetti collaterali della stimolazione elettrica del midollo successivamente impiegati a scopo terapeutico. Nel corso degli ultimi decenni sono stati documentati effetti terapeutici sulla spasticità e la vescica neurologica, sulla sintomatologia anginosa in pazienti cardiopatici con evidenza di incremento di flusso miocardico e con normalizzazione di tracciati elettrocardiografici ischemici, sulle vasculopatie ischemiche degli arti a diversa eziologia (arteriosclerosi, vasculiti autoimmunitarie) e su alcune distrofie cutanee (sclerodermia) attraverso un incremento del flusso locale. Più recentemente è stato identificato anche un incremento del flusso cerebrale. Con la dimostrazione nel sistema nervoso della presenza di siti recettoriali specifici per gli oppiacei, effettuata da Goldstein nel 1971, è entrata nella comune pratica analgesica la somministrazione di piccole dosi di morfina direttamente nel sistema nervoso. Il farmaco viene iniettato nello spazio subaracnoideo spinale o direttamente nei ventricoli cerebrali, compartimenti occupati da quella componente fluida circolante che prende il nome di liquido cefalorachidiano. Il vantaggio di questa via di somministrazione è legato essenzialmente alla possibilità di impiegare dosaggi molto bassi con minimi effetti collaterali e massimi effetti terapeutici. Nel corso di questi ultimi anni l' armamentario dei farmaci somministrabili per questa via si è ulteriormente arricchito di nuovi farmaci ad azione analgesica e soprattutto ad azione decontratturante muscolare come il Baclofene, farmaco questo già impiegato da anni per via generale per il trattamento della spasticità. Il congresso consentirà un contatto diretto con i nomi più prestigiosi legati alle fondamentali tappe della ricerca nel settore. Ad arricchire la definizione dello stato dell' arte sarà la sessione conclusiva, dedicata forse agli aspetti più interessanti: le prospettive. Saranno affrontati argomenti come la stimolazione della corteccia cerebrale per il trattamento del dolore, del nervo vago per il trattamento dell' epilessia e del ganglio trigeminale per il trattamento della temibile nevralgia del trigemino, del nervo frenico nei pazienti con gravi lesioni neurologiche condannati alla respirazione artificiale, e delle radici nervose sacrali per il trattamento dell' incontinenza. Una particolare attenzione verrà posta sull' interferenza della stimolazione midollare sul circolo cerebrale e sulle possibili prospettive d' impiego, non ultima quella del trattamento dello stato vegetativo persistente, il cosiddetto «coma vigile», su cui si discute per le delicate implicazioni di carattere medico legale e soprattutto per le sempre più frequenti segnalazioni di una sua possibile guarigione. Collateralmente si terrà presso il Centro Congressi del Policlinico Gemelli, Università Cattolica di Roma, dal 6 al 7 maggio, il Corso Satellite di Neuroprotesi, rivolto a quel personale sanitario che si trova ad assistere, nella quotidiana pratica clinica, i pazienti portatori di impianti di neuroprotesi sia per la neurostimolazione sia per la somministrazione locale di farmaci. Massimiliano Visocchi


BIOGEOGRAFIA Anche gli insetti confermano le ipotesi di spostamento di zolle della crosta terrestre
Autore: MONZINI VITTORIO

ARGOMENTI: ZOOLOGIA, GEOGRAFIA E GEOFISICA
LUOGHI: ITALIA
TABELLE: C
NOTE: 015

PUO' capitare che un gruppo di insetti confermi le ipotesi di spostamenti che le zolle e microzolle della crosta terrestre hanno compiuto prima di raggiungere la disposizione attuale o che le smentisca. La biogeografia, infatti, una scienza relativamente giovane ma chiaramente importante per leggere eventi tettonici e geografici, sta riservando molte sorprese. L' Italia, secondo lo studio fatto da un gruppo di entomologi sulla sua omogeneità biogeografica, verrebbe suddivisa in 17 regioni compresa la Corsica con una modificazione anche dei confini. La Liguria occidentale verrebbe a costituire una regione a sè, includendo anche una porzione di Francia fino alla valle del Var e un pezzetto della provincia di Cuneo; il Piemonte sarebbe fuso con la Valle d' Aosta, senza però le colline del Po, le Langhe, il Monferrato e parte dell' Alessandrino; la Liguria orientale includerebbe l' Oltrepo' pavese, oggi lombardo, e le zone tolte al Piemonte; la Lombardia, privata della sua porzione transpadana, includerebbe però il Canton Ticino, politicamente svizzero. Il Friuli Venezia Giulia e il Veneto sarebbero fusi in un' unica regione; l' Umbria anch' essa fusa con le Marche; il Lazio senza la provincia di Rieti; l' Abruzzo unito al Molise e con l' aggiunta della provincia di Rieti; la Campania includerebbe i monti della Daunia ora appartenenti alla Puglia, la Basilicata si unirebbe alla Calabria escludendo però la provincia di Matera che passerebbe alla Puglia. Tutte le altre regioni rimarrebbero sostanzialmente invariate. Anche i coleotteri del genere Aptinus sono stati studiati dal punto di vista biogeografico. Si tratta di un genere arcaico sia per le caratteristiche esoscheletriche, sia per il tipo di distribuzione. Questi insetti infatti sono caratterizzati da una limitata capacità di dispersione e la loro separazione da altri gruppi sarebbe avvenuta in epoche alquanto remote. Le poche specie attualmente esistenti occupano areali molto disgiunti, un fenomeno che si spiega solo rifacendosi alla situazione paleogeografica del Miocene medio, quando queste popolazioni erano distribuite sul territorio in maniera compatta. Solo i successivi spostamenti delle zolle terrestri le avrebbero separate, causando per deriva genetica la formazione di diverse specie ormai sempre più isolate tra di loro. Vittorio Monzini


DATI ISTAT Bambini al pronto soccorso il trauma più frequente è la caduta dalla bicicletta INCIDENTI DOMESTICI
Autore: DIENA DANIELE

ARGOMENTI: DEMOGRAFIA E STATISTICA, BAMBINI, INCIDENTI, DOMESTICI
ORGANIZZAZIONI: ISTAT
LUOGHI: ITALIA
TABELLE: T
NOTE: 015

D EI bambini che muoiono nel nostro Paese, uno su tre è vittima di un incidente. Ma, quel che è più grave, quaranta infortuni mortali su cento dell' età pediatrica avvengono entro le mura domestiche. Il trauma è la prima causa di morte per i bambini d' età compresa tra 1 e 14 anni. Nell' 87, ultimo anno della ricerca Istat, le morti per cause violente registrate in quest' arco di età sono state 707 E quasi un centinaio quelle avvenute nel primo anno di vita. Sono questi i dati forniti dai pediatri al recente convegno di Genova «Gli infortuni in età pediatrica», curato dall' Istituto Gaslini e finanziato dalla Cee, impegnata in una campagna d' educazione informazione per la sicurezza domestica del bambino. Nel 40% dei casi l' incidente avviene in casa, nel 10% a scuola, nel 5% sulla strada e nel restante 45% nei diversi ambienti esterni frequentati dal bambino: il giardino pubblico, il cortile, l' auto del papà. Più a rischio i maschietti, notoriamente più vivaci delle femmine e impegnati in sport più movimentati. L' incidente più frequente è la caduta (54% ), seguono le ferite (17% ), l' incidente stradale (12% ), l' ustione (6% ) e l' ingestione di corpi estranei (3% ). La causa più frequente di ricovero è il trauma addominale: avviene per cadute da bicicletta, da cavallo o per incidenti d' auto e rappresenta il 66 70% dei ricoveri dei maschi e il 50% di quelli delle femmine. Al secondo posto, la frattura: 56 57% i maschi, 50 56% le femmine. La lesione prevalente curata al pronto soccorso è la contusione cranica: 25 35% delle prestazioni fornite ai maschi e il 21% di quelle delle femmine. Poi ci sono le ferite lacero contuse, 16% (11% le femmine), e le fratture 13% (14 % ). Tra le lesioni più temute dai medici, ci sono i traumi cranici e addominali. Seri problemi possono dare anche le ustioni: nella casistica del Gaslini risultano provocate dall' ingestione di prodotti come soda caustica, varechina, acquaragia, detersivi. E proprio l' ustione costituisce la maggior preoccupazione per il chirurgo, chiamato talvolta anche a ricostruire il palato o addirittura a sostituirlo con protesi. Un dramma, insomma, quello degli incidenti in età pediatrica, che sicuramente richiede interventi legislativi per essere contenuto, ma che almeno in parte sarebbe scongiurabile con appena un po' più d' attenzione da parte dell' adulto. Daniele Diena


ANGHERIE E io ti sbatto contro il muro
Autore: DIENA DANIELE (D_D)

ARGOMENTI: PSICOLOGIA, BAMBINI, MALTRATTAMENTI, STATISTICHE
LUOGHI: ITALIA
TABELLE: T
NOTE: 015

TRA il primo anno di vita e il compimento del quattordicesimo ben un bambino su cento conosce la triste umiliazione di finire nel pronto soccorso di un ospedale perché è stato picchiato crudelmente dai suoi stessi genitori. Più spesso la responsabile è la madre, perché sta di più in casa, ma è comunque un dato di fatto che il 90% dei casi di maltrattamento di minori è opera dei genitori. L' 80% dei maltrattamenti subiti dai bambini rientra in quel tipo di violenza sottile e infida, in quanto sfugge all' attenzione di chi potrebbe intervenire in difesa del piccolo, classificata «psicologica». Nel restante 20% si tratta di violenze fisiche, un problema riscontrato nel 10% dei casi d' infortunio che arrivano al pronto soccorso, spesso sotto forme camuffate da chi accompagna il piccolo. Quando i colpevoli non sono i genitori, si tratta del convivente della madre (5% ), oppure della baby sitter (4% ) o degli stessi fratelli (1% ). Cosa fanno alle loro disgraziate vittime? Di tutto: brutte contusioni (40% ) procurate magari mandandoli a sbattere da qualche parte, ferite (20% ), abrasioni (21% ), ustioni (8 9%, frequente quella da sigaretta), fratture (5, 7% ), traumi cranici (2, 3% ). C' è perfino chi arriva a fingere (se non addirittura a indurre realmente) malattie per i propri figli, immettendo gocce di sangue nella provetta delle urine in vista di esami di laboratorio. I pediatri chiamano questa tortura «sindrome di Munchhausen per procura»: si riscontra nell' 1 per cento dei maltrattamenti. (d. d. )


LABORATORIO Non c' è soltanto l' eutanasia per ridurre le sofferenze dei neonati senza speranza
Autore: CASTIGNONE SILVANA

ARGOMENTI: BIOETICA, BAMBINI, HANDICAP, MEDICINA
NOMI: SINGER PETER
LUOGHI: ITALIA
NOTE: 015

IL principio su cui si basa l' etica pratica di Singer, recentemente discussa sulle pagine di questo giornale, è il principio detto «della qualità della vita». Esso si contrappone al principio della «sacralità della vita», in quanto considera la vita certamente come un valore, ma non come un valore assoluto, incondizionato. Vi sono circostanze, che devono essere ovviamente ben precisate e delimitate, in cui la qualità della vita è così bassa e così ridotta da far preferire la sua cessazione. Vi sono circostanze in cui lo stato di sofferenza è talmente insopportabile e senza speranza da rendere desiderabile la morte e moralmente lecito infliggerla, a sè e agli altri. In Singer tale principio si lega alla sua concezione utilitarista, che consiste nel porre a fondamento della morale il soddisfacimento delle preferenze (vale a dire dei bisogni, dei desideri e degli interessi) delle persone direttamente coinvolte in un' azione e nelle sue conseguenze. Tuttavia occorre notare che il principio della qualità della vita può derivare anche da concezioni etiche diverse dall' utilitarismo ad esempio l' etica della simpatia o della responsabilità. Se si accetta tale principio, si può in taluni casi giustificare l' eutanasia, sia per i malati terminali sia per i neonati affetti da sindromi gravissime che nella maggioranza dei casi li porteranno comunque alla morte in breve tempo e sicuramente a una vita ricolma di sofferenze. Detto questo si è solo all' inizio, perché le difficoltà insorgono non appena si cerca di stabilire in concreto quali siano i criteri per individuare i limiti e le modalità del comportamento in oggetto. Vi sono casi che con grande evidenza non offrono alcuna speranza, ma ve ne sono molti altri non nettamente delineati e in cui gli aspetti da prendere in considerazione sono numerosi e a volte in conflitto tra loro. Alcune delle posizioni di Singer, proprio a proposito di quest' area dai contorni ambigui, possono suscitare una serie di perplessità anche in coloro che in linea generale sono disposti ad accettare il principio della qualità della vita. Prendiamo il caso di «bambini Down» il cui stato sia tale da permettere loro di condurre una vita non certo normale, dato il loro ritardo mentale, ma tuttavia esente da sofferenze fisiche gravi. Ebbene, Singer si chiede se, qualora i genitori li rifiutino e non vi sia possibilità di adozione, non sarebbe meglio impedir loro di continuare a vivere, nell' interesse dei bambini stessi, delle loro famiglie e della società. La risposta giusta invece, a mio avviso, dovrebbe essere quella di predisporre delle strutture di appoggio per le famiglie onde evitare che la nascita di un figlio Down pregiudichi la loro possibilità di vivere decentemente e di avere altri figli, consentendo al tempo stesso ai bambini Down di condurre al meglio delle loro possibilità quella vita, sia pure limitata, che la sorte ha loro assegnato. La discussione dei vari punti potrebbe continuare, trattandosi come è ovvio di problemi di estrema delicatezza e complessità. Ma niente di tutto quanto è stato obiettato o potrebbe essere obiettato autorizza a lanciare contro Singer le accuse di nazista e assassino, come purtroppo è avvenuto in Germania e in altri Paesi di lingua tedesca. I suoi scritti sono pieni di descrizioni delle sofferenze dei bambini, e di testimonianze dei genitori e dei medici: e non mancano certo anche le testimonianze a favore del mantenimento in vita dei neonati affetti da sindromi più o meno gravi. Da tali descrizioni e da tali testimonianze Singer cerca di derivare, con lucidità dolorosa e talvolta impietosa, le soluzioni etiche più consone alla riduzione della sofferenza per gli esseri coinvolti: e non si può in nessuna maniera pensare che egli sia mosso da considerazioni eugenetiche o razziste. Basta leggere i suoi libri per rendersene conto. Comunque, indipendentemente dalle valutazioni sulla posizione di Singer, c' è solo da augurarsi che le tecniche avanzatissime di diagnosi prenatale e l' ingegneria genetica siano sempre più in grado di prevenire le malformazioni di ogni tipo, anche le più gravi, evitando in misura sempre maggiore i laceranti drammi di coscienza dei genitori e dei medici. E anche dei poveri filosofi. Silvana Castignone Università di Genova


COME SARA' LA NAVETTA SPAZIALE EUROPEA In anteprima su «Hermes» Divisa in due parti: una tornerà a terra, l' altra sarà abbandonata nello spazio Porterà 3 astronauti, avrà seggiolini di salvataggio, atterrerà su aeroporti civili
Autore: RAVIZZA VITTORIO (V_RAV)

ARGOMENTI: AERONAUTICA E ASTRONAUTICA
ORGANIZZAZIONI: EURO HERMESPACE, ALENIA, AEROSPATIALE, DESSAULT AVIATION, DEUTSCHE AEROSPACE
LUOGHI: ITALIA
TABELLE: D
NOTE: 016

L A navetta spaziale europea «Hermes» ha imboccato la dirittura finale: la settimana scorsa è stata costituita a Tolosa la società che deve costruirla, la Euro Hermespace, composta dall' italiana Alenia, dalle francesi Aerospatiale e Dassault Aviation e dalla tedesca Deutsche Aerospace. Diamo un' occhiata in anteprima al progetto e proviamo ad immaginare come opererà la navetta, destinata a collegare le future stazioni spaziali. Lunga complessivamente 18, 615 metri, con un' apertura alare di 9, 01 (le dimensioni delle navette Usa sono rispettivamente 37, 19 e 23, 59) sarà divisa in due parti, la navetta vera e propria e il modulo risorse. Nella prima trovano posto gli astronauti e i principali elementi di comando, mentre nella seconda sono collocati vari serbatoi per il carburante e gli altri elementi di servizio tra cui la speciale tuta per le «passeggiate» all' esterno; le due parti sono collegate da un tunnel nel quale gli astronauti possono passare galleggiando e strisciando. «Hermes» sarà messa in orbita da un razzo «Ariane 5» in corso di costruzione; non possiede motori propri ma solo propulsori a getto per i brevi spostamenti in orbita e per controllare il proprio assetto; una volta giunta alla quota prestabilita appositi razzi le imprimono una spinta supplementare che la fanno separare da «Ariane» e proseguire da sola fino a collocarsi sull' orbita prefissata. Compiuta la missione la parte anteriore si separa dal modulo delle risorse, che viene abbandonato nello spazio, e torna a terra planando pilotata dai computer; questi le fanno assumere automaticamente l' esatto angolo di rientro affinché l' attrito con l' atmosfera non la trasformi in una palla di fuoco e la guidano fin sulla pista. «Hermes» potrà portare tre astronauti; comandante e pilota siederanno davanti, l' ingegnere di volo dietro. I loro sedili, di derivazione aeronautica, saranno eiettabili durante il decollo e la salita fino alla quota di 25 mila metri. Dietro la cabina vi sarà un vano per esperimenti scientifici e dove potranno lavorare gli astronauti. Per la costruzione della navetta è stato usato alluminio combinato con fibre di carbonio; una copertura fatta con «tegole» in carbonio e silicio proteggerà le parti più esposte all' attrito con l' atmosfera dove si produrranno temperature estremamente elevate. Il lancio avverrà dal poligono spaziale di Kourou, nella Guyana francese (America del Sud ), mentre per l' atterraggio sarà usato l' aeroporto civile di Caienna, il capoluogo della regione, lo stesso su cui si svolge il normale traffico passeggeri. Altri aeroporti «di riserva» saranno individuati in vari punti del mondo per atterraggi di emergenza. Primo volo nel 2002. (v. rav. )


LE DATE DELLA SCIENZA Galileo all' Università di Padova I 18 anni più felici della sua vita
AUTORE: GABICI FRANCO
ARGOMENTI: STORIA DELLA SCIENZA
PERSONE: GALILEI GALILEO
NOMI: GALILEI GALILEO
LUOGHI: ITALIA
NOTE: 016

QUATTROCENTO anni fa Galileo Galilei arrivava a Padova. E 350 anni fa si spegneva nel confino di Arcetri. Due anniversari, il primo lieto, il secondo triste. Il periodo padovano viene celebrato con una fitta serie di manifestazioni: 13 14 febbraio, convegno su «Galileo e la cultura padovana»; 13 maggio, manifestazione per il mezzo secolo dell' Osservatorio astrofisico di Asiago; 9 12 giugno, International Conference from Galileò s «occhialino» to optoelectronics; Venezia, 18 20 giugno, convegno su «Galileo e la cultura veneziana»; Venezia, 5 ottobre, convegno su «Galileo e la scienza sperimentale»; 2 5 dicembre, «Tribute to Galileo in Padua» Per Galileo i 18 anni padovani (1592 1610) furono i più sereni e anche i più proficui perché a Padova trovò un ambiente aperto che favorì la maturazione delle sue idee e del suo metodo. Qui, inoltre, ribadì la concezione pratica di un sapere dove la manualità non era più considerata un fatto degradante, ma un momento essenziale: Galilei, che frequentò l' Arsenale di Venezia ( «Largo campo di filosofare a gl' intelletti specolativi parmi che porga la frequente pratica del famoso arsenale» ), fu anche abile artigiano e costruttore di strumenti e per questo scopo aveva allestito in casa propria un laboratorio. Qui effettuò gli esperimenti col piano inclinato che condussero alla formulazione della legge della caduta dei gravi, il risultato più alto da lui raggiunto nel periodo padovano che abbatteva l' asserto aristotelico dell' esistenza di due movimenti (verso l' alto e verso il basso). La ricerca di una legge matematica dietro ai fenomeni indicava un metodo che si ispirava ad Archimede, ma Galileo andò ben oltre il geniale matematico greco: se Archimede aveva matematizzato la statica, Galileo applicò la matematica anche alla dinamica scoprendo le regolarità aritmetiche nascoste dietro ai fenomeni. A Padova si interessò, tra le molte altre cose, di calamite, e rese più pratico il compasso geometrico militare (a proposito del quale sostenne una polemica con Baldassar Capra sulla priorità dell' invenzione). Nel 1604 apparve nella costellazione dell' Ofiuco una «stella nova» (oggi conosciuta come la Supernova di Keplero) e Galileo tenne in proposito tre affollatissime conferenze. Secondo Galilei la «stella», non presentando variazioni di parallasse, doveva appartenere a quel cielo delle stelle fisse ritenuto eterno e immutabile. L' interesse di Galileo per i fenomeni celesti è ribadito dalla sua curiosità verso il cannocchiale, il nuovo strumento giunto dall' Olanda e che sicuramente Galileo costruì e perfezionò nella sua officina padovana. Già è stato affrontato l' argomento della priorità dell' invenzione (Tuttoscienze, 27 novembre 1991), ma ciò che va sottolineato è il modo nuovo con cui Galileo utilizzò lo strumento, considerato non un oggetto «curioso» per divertire o sbalordire, ma un potente mezzo di indagine dal quale avrebbe potuto ricavare anche benefici materiali Con una abilissima mossa, infatti, regalò un esemplare di cannocchiale da lui costruito al governo veneziano dimostrando di essere un vero manager e, come lo ha definito Paul Feyerabend, un propagandista dei suoi strumenti e del suo metodo. Lo strumento fu mostrato ai rappresentanti del governo veneziano in un pomeriggio di agosto del 1609 e molti, anche se anziani, salirono sui campanili di Venezia per ammirare i prodigi di uno strumento che avvicinava e ingrandiva oggetti lontani. Verso la fine dell' anno costruì un altro cannocchiale col quale osservò la Luna, preludio a quella famosissima notte del 7 gennaio 1610 durante la quale scoprì tre satelliti di Giove (il quarto fu scoperto sette giorni dopo). Nel marzo dello stesso anno usciva il Sidereus Nuncius. Seguiranno la scoperta degli anelli di Saturno, delle macchie solari e, già a Firenze, delle fasi di Venere. Galilei lasciò Padova nel giugno del 1610. Va ricordato che a Padova si era unito con Marina Gamba, dalla quale ebbe tre figli (Virginia, Livia e Vincenzio) e che durante il periodo padovano scrisse «Trattato di fortificazione», «Mecaniche» e «Operazioni del compasso geometrico militare». Franco Gabici


STRIZZACERVELLO Cubo problematico
Autore: PETROZZI ALAN

ARGOMENTI: GIOCHI
LUOGHI: ITALIA
NOTE: 016

Cubo problematico Come tutti sanno, è possibile costruire modelli di cubo partendo da sviluppi piani disegnati su cartoncino. La semplice operazione successiva al disegno è quella di piegare a 90 il cartone lungo le linee che in genere risultano tratteggiate sullo sviluppo, il che fa intuire che un corretto sviluppo deve comprendere porzioni di spazio non separate tra loro. Per il cubo, non considerando riflessioni e rotazioni, esistono undici differenti sviluppi piani che ne consentono la costruzione; sei inglobano una striscia lineare che ospita quattro facce del dado risultante, mentre in altri quattro le facce allineate sulla stessa striscia sono al massimo tre (due da tre, in un particolare caso). Vi è poi l' ultimo sviluppo possibile, nel quale non vi sono strisce consecutive con più di due facce allineate. Premesso che sarebbe buon esercizio quello di disegnare tutte le undici possibilità, la domanda ufficiale si riduce al disegno dell' ultima forma elencata. La soluzione domani, accanto alle previsioni del tempo. (Alan Petrozzi)


LA PAROLA AI LETTORI Pesi di meno se l' ascensore scende, ma aumenti se sale
NOTE: 016

ANCORA una risposta al numero di melodie percepibili dall' orecchio umano. La propone uno studente di matematica: «Il numero è infinito. Una melodia è una sequenza finita di suoni, il numero di suoni percepibili dall' orecchio umano è finito. Consideriamo ciascun suono come una lettera di un alfabeto finito e ciascuna melodia come una parola del vocabolario di quell' alfabeto. Il numero di parole distinte di lunghezza n è ovviamente finito e il vocabolario si può considerare come l' unione degli insiemi contenenti, ciascuno, le parole di una determinata lunghezza. Poiché l' insieme delle lunghezze di tali parole è ovviamente infinito (c' è una lunghezza per ogni numero naturale 1, 2, 3.. . ) possiamo concludere che il vocabolario è infinito e quindi tale è anche il numero di melodie percepibili dal nostro orecchio» (Lorenzo Meneghini Padova) Perché una persona in sovrappeso si potrebbe consolare pesandosi in un ascensore che scende con accelerazione costante? Perché la bilancia segnerebbe un peso minore. Il peso, infatti, è la forza con la quale la Terra attira a sè i corpi. E' quindi una misura che varia secondo le condizioni in cui si effettua la misurazione. Il peso di un corpo in caduta libera, quindi con accelerazione costante di 9, 8 metri al secondo, è nullo perché non contrasta la forza di gravità, ma la asseconda. Sull' ascensore, che scende con accelerazione costante inferiore a quella di caduta libera, il peso della persona risulterà parzialmente inferiore a quello misurato a livello del mare. (Emiliano Panaro Alessandria) Per la terza legge di Newton, la forza P esercitata dal passeggero sul pavimento dell' ascensore è sempre uguale e contraria alla forza P, esercitata da quest' ultimo sul primo. Perciò, se con l' ascensore fermo si ha R= P, con l' ascensore in discesa con accelerazione costante si ha R= P ma, dato che si deve togliere la forza dovuta all' accelerazione (F= ma per la seconda legge del moto). Un uomo di 60 chilogrammi, considerando un' accelerazione di mezzo metro al secondo, peserebbe tre chili di meno (60 60: 9, 8 x 0, 5). Ovviamente, se l' ascensore salisse, i tre chili andrebbero aggiunti. (Pier Carlo Canguri Chiavari, Ge) Come si fa a distinguere un uovo crudo da uno sodo? C' è un trucchetto che mi ha insegnato mio padre quando ero piccola: far roteare le uova sul tavolo in senso orizzontale. L' uovo sodo girerà velocemente, quello crudo a fatica, perché non ha l' interno compatto. (Barbara Pizzocchi Torino) Immergere le due uova nel lavandino pieno d' acqua: quello sodo cade verso il fondo e vi rimane immobile mentre quello crudo, arrivato al fondo, ha quasi un rimbalzo che lo spinge verso l' alto. Oppure controllare con una fonte luminosa di buona intensità: l' uovo crudo è trasparente, quello sodo opaco. (Massimo Martinelli La Morra, Cn) Perché l' emorragia è meno grave se viene danneggiata una vena anziché un' arteria? Il sangue procede dal cuore verso i tessuti periferici, spinto da un' onda pressoria detta onda sfigmica, la quale esprime la pressione che il muscolo cardiaco deve esercitare sul sangue per portarlo, mediante le arterie, ai capillari periferici dove avverrà lo scambio ossigeno anidride carbonica. Da qui, attraverso le vene, ritornerà al cuore, grazie al continuo arrivo di sangue al tessuto. Da ciò si comprende che la pressione nelle arterie dev' essere superiore a quella delle vene. Dovendo sopportare l' onda sfigmica, le arterie sono elastiche, mentre le vene, semplici «vie di ritorno», sono più rigide. (Luigi Vallino Vercelli) L' emorragia arteriosa si riconosce da quella venosa perché il sangue arterioso è rosso vivo e sgorga a zampillo violento intermittente. Il sangue venoso, invece, è rosso scuro ed esce in maniera lenta e continua. (Emanuela Foddai Stefania Siciliano Torino) La struttura delle pareti delle arterie è più robusta di quella venosa, in quanto deve sopportare la maggior pressione del sangue dovuta alla contrazione esercitata dai ventricoli del cuore. Nelle vene la pressione sanguigna è invece relativamente bassa, perché il sangue viene spinto dall' azione dei muscoli circostanti e dalle valvole site nelle vene stesse, che si aprono solo in direzione del cuore. Questa disparità di pressione comporta, in caso di emorragia, una maggiore fuoruscita di sangue da un' arteria rispetto alla vena. (Gian Domenico Lupo Givoletto, To) Le vene, quando vengono tagliate si afflosciano perché le loro pareti sono più sottili e provviste di valvole, dette «a nido di rondine» per la loro forma, le quali rallentano il flusso sanguigno. Le arterie invece restano aperte a causa di una tunica muscolare che le inguaina completamente. (Stefano Maccario Torino)




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio