TUTTOSCIENZE 15 gennaio 97


TUTTOSCIENZE SCUOLA. IL RADIOTESCOPIO Deboli messaggi dalle stelle Grandi antenne paraboliche amplificano le radionde
LUOGHI: ITALIA
TABELLE: T. D. Il funzionamento del radiotelescopio e del telescopio ottico

Galassie e stelle emettono radioonde contemporaneamente all'emissione di luce, entrambe forme di radiazioni elettromagnetiche in grado di attreversare l'atmosfera terrestre. Il radiotelescopio viene impiegato per scrutare l'universo proprio come il telescopio ottico ma con la differenza che non fornisce immagini nel vero senso della parola; ciò che il radiotelescopio può fornire è la misura della lunghezza d'onda dei segnali radio che giungono da una certa regione del cielo. Questo consente agli astronomi di individuare anche quegli oggetti celesti che non emanano luce. I segnali radio che giungono dallo spazio sono debolissimi; l'intera energia captata in un decennio da un radiotelescopio non sarebbe sufficiente ad accendere una torcia elettrica per un secondo. E' per questa ragione che, per poter captare e utilizzare i deboli dati così ricevuti, occorrono apparecchiature molto complesse. Una grande antenna parabolica, in genere con un diametro di circa 30 metri, viene fatta ruotare in modo da poter puntare qualsiasi regione del cielo; essa fa convergere le onde radio verso un unico punto focale, dove queste sono amplificate migliaia di volte. I dati sono quindi passati ad un centro di controllo che li registra e che, in base ad essi, programma l'ulteriore puntamento dell'antenna. I dati registrati vengono in seguito analizzati sul computer. Il principale limite di un radiotelescopio isolato è la scarsa «risoluzione», cioè la scarsa capacità di individuare i dettagli. I migliori telescopi ottici riescono a distinguere i due fari di un'auto alla distanza di 300 chilometri; per ottenere lo stesso risultato un radiotelescopio dovrebbe avere un'antenna parabolica di 40 chilometri di diametro. Questa limitazione è stata superata collegando elettronicamente più radiotelescopi; in questo modo i rispettivi segnali vengono combinati insieme come se provenissero da una parabola di diametro equivalente alla distanza tra di essi.


VOLANDO NEL VENTO Parapendio: questi sono i giorni dei record al Tropico del Capricorno
AUTORE: BELLONI MASSIMO
ARGOMENTI: SPORT, TECNOLOGIA
ORGANIZZAZIONI: FAI FEDERAZIONE AERONAUTICA INTERNAZIONALE
LUOGHI: ITALIA
TABELLE: T. TAB. TUTTI I PRIMATI DELL'ALA GONFIABILE ============================================ Bojan Marcic 337 km distanza linea retta (mas) Louw Alex 283,9 km " " " " Thurston Kat 285 km " " " (fem) Slana Domen 280 km con meta dichiarata Kralj Nal 280 km " (mas) Louw Alex 250,2 km " Thurston Kat 166 km " (fem) Westgate Richard e Guy 200 km distanza biposto ---- Guadagno di quota Robbie Wittal 4526 m Guadagno di quota (fem) 4325 m Guadagno di quota biposto Richard e Guy Westgate 4380 km

IL mondo del volo in parapendio vive durante la stagione invernale un momento di particolare frenesia: nel periodo intorno all'inizio dell'anno sugli altipiani dell'Africa del Sud si verificano infatti particolari condizioni meteorologiche che permettono voli eccezionali, con record di distanza e di quota che, tenendo conto della semplicità del mezzo impiegato, lasciano davvero stupefatti. Questi primati dimostrano anche il grande progresso tecnico raggiunto dal velivolo meno costoso e (apparentemente) più semplice che esista, il cui sviluppo è basato su raffinatissime ricerche tecnologiche ed è totalmente separato da quello del paracadute ad ala, poiché questi due attrezzi, pur provenendo da radici comuni, hanno impieghi molto differenti: mentre il paracadute permette di posarsi a terra incolumi dopo la caduta libera, il parapendio è un aliante flessibile, con il quale è oggi possibile volare per ore, percorrendo centinaia di chilometri senza scalo e guadagnando migliaia di metri di quota rispetto al punto di decollo. Nell'altopiano a Nord di Johannesburg e nel deserto della Namibia, a poca distanza dal Tropico del Capricorno, nel periodo del solstizio d'inverno (21 dicembre) il grande calore sviluppato dall'irraggiamento solare scalda enormi masse d'aria, le «termiche», che salgono condensandosi in nubi cumuliformi, spesso disposte in lunghe file approssimativamente rettilinee, note con il nome di «strade di cumuli». E' grazie a questa particolari condizioni, quasi impossibili altrove, che si possono realizzare questi fantastici voli. I piloti decollano generalmente al traino di veicoli poiché l'altopiano (1200/1300 metri sul livello del mare) è poco dotato di rilievi adatti all'involo, e vengono sganciati a circa 300 metri di quota, per poi iniziare a salire sfruttando le termiche. La salita non supera la base dei cumuli, che in quel territorio spesso arriva a 6000 metri. A quel punto il pilota inizia a seguire le «strade» tracciate dalle nubi effettuando una serie di planate con il vento in coda, intervallate dallo sfruttamento di altre zone ascendenti che gli consentono di riguadagnare la quota perduta, finché le condizioni lo permettono. L'attrezzatura usata per questi voli è avanzatissima e complessa: parapendio di grandi prestazioni, paracadute d'emergenza, imbrago con protezione dorsale, tuta termica (il decollo avviene sovente a temperature superiori ai 50 Co, mentre in quota si scende parecchio sotto lo zero). Viene poi la strumentazione, che comprende variometro (indica la velocità di salita o discesa), altimetro, barografo (che traccia un grafico elettronico delle quote raggiunte), sistemi di navigazione satellitare Gps, cartina, bussola, bombola di ossigeno per respirare in quota, acqua per evitare la disidratazione e ricetrasmettitore per comunicare con l'equipaggio di terra addetto al recupero. Le termiche arrivano fino a velocità di 15 metri al secondo, e la conseguente turbolenza e i forti scossoni rendono il pilotaggio molto impegnativo. Lo sviluppo dei cumuli (massimo nelle ore centrali) sovente degenera, tentando di risucchiare il pilota all'interno della nube, dove si trovano condizioni insidiosissime da evitare assolutamente: i cumulonembi sono pericolosi anche per i velivoli di linea. Le difficoltà del volo non finiscono qui: durante la navigazione bisogna evitare di invadere le aerovie e le zone vicine agli aeroporti per ragioni di sicurezza, ed è opportuno tentare di seguire una rotta che mantenga il pilota in prossimità di zone abitate, per evitare di perdersi nel deserto e attendere magari fino al giorno dopo l'arrivo dell'equipaggio impegnato nel recupero. Di fondamentale importanza è il sistema di localizzazione tramite i satelliti Gps, che permette una navigazione accurata anche in assenza di punti di riferimento chiaramente visibili. Il raggiungimento di grandi distanze è vincolato ad alcuni fattori: la velocità del mezzo, che raramente supera i 45 km/h (sfruttando a favore i venti ad alta quota si raggiungono talvolta picchi prossimi ai 100 Km/h rispetto al terreno), e la durata della giornata: poiché l'attività termica dipende dall'irraggiamento solare, le ore migliori per volare vanno dalle 11 alle 17, e molto tempo viene speso per salire in termica effettuando dei cerchi di 360o senza avanzare. L'omologazione dei record è regolata dalla Fai (Federazione Aeronautica Internazionale), che richiede una documentazione fotografica, testimonianze ufficiali e la traccia del barografo (per confermare che il pilota non abbia effettuato tappe intermedie). I record sono suddivisi in oltre 40 classi, ma in queste occasioni si realizzano generalmente quelli di distanza libera (quello attuale è di 337 km, più della distanza da Torino a Firenze), distanza con meta dichiarata e guadagno di quota, suddivisi in maschili, femminili (il parapendio è uno sport particolarmente adatto per le donne poiché non richiede particolari sforzi fisici) e biposto. La corsa è aperta, e tra poco sapremo se nuovi voli d'eccezione hanno ulteriormente ampliato l'orizzonte di questo sport che nella pratica normale permette a chiunque di realizzare il sogno di tutti: volare in libertà. Massimo Belloni


DIDIMO Il pioniere della scienza nei giornali
Autore: BIANUCCI PIERO

ARGOMENTI: DIDATTICA, STORIA DELLA SCIENZA
NOMI: DIDIMO (DE BENEDETTI RINALDO)
LUOGHI: ITALIA, EUROPA, ITALIA

E' passato un anno dalla scomparsa di Didimo, all'anagrafe Rinaldo De Benedetti, pioniere del giornalismo scientifico nel nostro Paese. A ricordarcelo è un libro intitolato «Che cos'è: le parole della scienza», edito dalla Cuen di Napoli e promosso dall'Ugis, l'associazione che riunisce i giornalisti scientifici italiani. Per i lettori di «Tuttoscienze» queste pagine avranno qualcosa di familiare. Sono infatti una scelta delle schede didattiche che Didimo, con grande rigore e capacità di sintesi, scrisse per questo supplemento negli Anni 90: si va da inerzia a Big Bang, da neutrone a radar, da laser a plasma... Paola De Paoli, presidente in carica dell'Ugis, e Giancarlo Masini, presidente onorario, nel trentesimo anno di questa associazione, giustamente hanno pensato che questo libro fosse il modo migliore per rendere omaggio a Didimo e, insieme, a un genere giornalistico che gli deve molto. Scomparso a 92 anni nei primi giorni del 1996, originario di Cuneo, modesto fino alla ritrosia, Didimo si era laureato ingegnere: esordì progettando macchine elettriche in una azienda di Milano. Ma in quegli anni il regime fascista andava imponendo a tutti almeno una tessera. L'ingegner De Benedetti rifiutò, e così rimase senza lavoro. O meglio, senza «quel» lavoro, perché seppe subito inventarsene un altro, che si sarebbe poi evoluto nel mestiere del giornalista scientifico: divenne redattore dell'Enciclopedia Treccani, strana isola culturale dove, pur all'ombra del regime, rimanevano margini per le persone di qualità. Lì Rinaldo De Benedetti, redigendo voci scientifiche e tecniche con la chiara eleganza dell'umanista, ebbe rifugio fino al 1938, quando il giro di vite delle leggi razziali lo mise un'altra volta alla porta. L'accolse allora un editore milanese, Aldo Garzanti, e lo tenne con sè come clandestino per sette anni. Fondatore e direttore della rivista «L'Illustrazione scientifica», Rinaldo De Benedetti fu poi chiamato a collaborare al «Corriere della Sera». Così, nell'estate 1945, per primo in Italia diede notizia della bomba atomica lanciata su Hiroshima e ne spiegò, per quel che allora si poteva sapere, il meccanismo di funzionamento. L'articolo comparve in prima pagina ma senza firma. Nel 1947 il «Corriere» formalizzò il rapporto di collaborazione invitandolo a scrivere sotto pseudonimo. De Benedetti scelse quel Didimo che non avrebbe mai più abbandonato, ispirandosi a un'opera del Foscolo, «Notizia intorno a Didimo Chierico». Durò poco. Fattosi divulgatore dei problemi demografici, Didimo si batté per l'abolizione dell'articolo 553 del Codice Penale che vietava la diffusione di informazioni sui sistemi anticoncezionali: e la collaborazione al «Corriere» venne bruscamente interrotta. Su invito di Giulio De Benedetti, Didimo passò allora a «La Stampa», dove sarebbe rimasto fino ai suoi ultimi giorni. Il primo articolo porta la data del 2 novembre 1953, l'ultimo comparirà 42 anni dopo, il 15 novembre 1995, sul supplemento «Tuttoscienze»: emblematicamente, come in un cerchio che si chiude, riguardava ancora la questione demografica. In mezzo, circa 1300 articoli sugli aspetti più vari della scienza e della tecnologia, ma anche opinioni di «Terza Pagina» su temi etici e sociali, e persino recensioni letterarie: è memorabile quella dedicata alle «Storie Naturali» che Primo Levi aveva pubblicato nascondendosi sotto il falso nome di Damiano Malabaila. Si incontravano così non soltanto due pseudonimi ma anche due culture affini: entrambi erano di formazione scientifica, entrambi con il gusto della buona letteratura, entrambi spinti allo scrivere da una motivazione civile e morale prima ancora che estetica. I libri di Didimo sono tanti: tra gli altri, «Il problema della popolazione in Italia», «L'aneddotica delle scienze», «Siamo troppi in questo mondo inquinato», «L'inquinamento da radiazioni»... Ma una citazione a sè merita quello a cui Didimo fu più affezionato, la raccolta di poesie «Modi antichi», pubblicata da Guanda nel '64 sotto il nome di Sagredo, personaggio del «Dialogo dei massimi sistemi» di Galileo. Per l'incursione nella poesia l'ingegnere aveva voluto uno pseudonimo al quadrato. Piero Bianucci


IN EUROPA Sospesi sulle Alpi per 200 km
Autore: M_B

ARGOMENTI: SPORT, TECNOLOGIA
LUOGHI: ITALIA, EUROPA, ITALIA
NOTE: Parapendio

L'AFRICA del Sud gode di condizioni meteorologiche uniche: ma che cosa succede nelle altre parti del mondo? Ci sono alcune regioni dove si possono realizzare ottime prestazioni; alcune di esse sono però più adatte al deltaplano. In Europa le pianure non si prestano ai grandi voli, mentre le Alpi sono molto più idonee a imprese notevoli. La tecnica e la strategia del volo in montagna, però, differiscono notevolmente da quelle degli altopiani. In montagna si ha meno libertà nella scelta del percorso, e si è costretti a seguire principalmente lo sviluppo delle valli, anche perché le termiche ascensionali si sviluppano soprattutto sui fianchi montani esposti al sole. E' quindi necessaria un'accurata pianificazione dell'itinerario, prevedendo diverse possibili rotte in funzione dell'evolversi della giornata. Sono consigliabili un decollo in tarda mattinata da una zona esposta a Sud/Sud-Est, la parte centrale della giornata lungo versanti Sud e quella finale sui fianchi Sud-Ovest, in modo che il volo si svolga sempre nelle zone più esposte all'irraggiamento solare e quindi più generose di termiche. Il tutto non si svolge in una singola valle (non ne esistono di abbastanza lunghe e adatte), e l'attraversamento delle creste è uno dei momenti più delicati del volo: una corretta strategia condurrà il pilota in una valle dove proseguire con profitto, mentre una scelta errata potrà portarlo in zone aerologicamente pericolose. I voli migliori possono superare abbondantemente i 200 chilometri. Ad esempio il francese Thomas Puthod ha superato i 225 chilometri nella zona Rhone-Alpes. E in Italia? Citando solo alcune delle prestazioni del 1996 vediamo che Mauro Maggiolo e Christian Biasi hanno volato per 175 chilometri, Eduard Taschler per 150. Il periodo migliore per questi voli, poiché ci troviamo nell'emisfero boreale, è la primavera-estate. Anche se queste prestazioni sono numericamente inferiori ai record assoluti, il loro valore reale non è da meno, poiché le difficoltà sono estremamente impegnative, seppur molto diverse da quelle africane. In ogni caso, pur non realizzando alcun record, anche il semplice veleggiare sulle Alpi offre sempre uno spettacolo di impareggiabile bellezza. Per saperne di più: vi suggeriamo di consultare una bibliografia su Internet: http://lappc-th4.in2p3. fr/fliss http://cougar.stanford.edu:7878/HGMPSHomePage.html http: //www.web-search.com/hang.html (m. b.)


PREVISIONI DEL TEMPO Nuovi computer per i meteorologi Non sbaglieranno più?
Autore: SCAPOLLA TERENZIO

ARGOMENTI: METEOROLOGIA, ELETTRONICA
ORGANIZZAZIONI: OKLAHOMA UNIVERSITY, CENTER FOR ANALYSIS AND PREDICTION OF STORMS
LUOGHI: ESTERO, AMERICA, USA
NOTE: Calcolatore Cray T3E

I fenomeni meteorologici che hanno caratterizzato l'inizio del '97 hanno mostrato ancora una volta quanto sia difficile fornire previsioni accurate. Il controllo dell'evoluzione del tempo e la possibilità di una sua previsione rimangono tra gli obiettivi più ambiziosi della comunità scientifica. Ma i grandi progressi nel calcolo automatico stanno fornendo un contributo sostanziale in questa direzione. La corsa verso computer sempre più potenti ha segnato da poco una tappa importante con la produzione del Cray T3E, una macchina con 512 processori in parallelo capace di 300 miliardi di operazioni al secondo. Il numero di processori rende la macchina idonea alla risoluzione di problemi non affrontabili con un elaboratore, sia pure potente, di tipo sequenziale. Proprio per questa ragione il calcolo parallelo ha assunto negli ultimi anni un'importanza strategica per il calcolo scientifico. Le previsioni meteorologiche sono uno tra i settori che più hanno tratto beneficio da nuove tecnologie e potenze di calcolo. In meteorologia è essenziale ottenere risultati in tempi molto stretti. La previsione non ha alcun valore se non è possibile prevedere il tempo in modo sensibilmente più veloce della sua evoluzione. Ad esempio, una previsione a quattro-sei ore va elaborata in meno di mezz'ora. Per fare questo, calcolo parallelo e ad alta prestazione sono elementi cruciali. Come spesso accade, i problemi reali sono in grado di stimolare le migliori soluzioni. Nel mese di aprile del 1995 un temporale improvviso colpisce l'aeroporto di Dallas. Blocchi di grandine si abbattono sugli aeroplani danneggiandone oltre sessanta, con un danno diretto di trenta miliardi e un danno indotto di oltre 400. Se fosse stato disponibile un preavviso di almeno quattro ore si sarebbero potuti spostare gli aeroplani, limitando al minimo i danni. Alcuni studi effettuati da compagnie di assicurazione indicano che previsioni meteo migliori potrebbero far risparmiare, nei soli Stati Uniti, oltre trentamila miliardi di risarcimenti. Le previsioni fornite dal National Weather Service segnalano i temporali con trenta minuti di preavviso, ma le informazioni relative all'estensione e all'intensità sono ancora imprecise. Il direttore del Center for Analysis and Prediction of Storms della Oklahoma University era convinto si potesse fare meglio. Chi ha soggiornato negli Stati Uniti sa che sono disponibili previsioni locali molto accurate e si è in grado di sapere, quasi con certezza, se il giorno dopo sarà accompagnato dal sole, dalla pioggia o dalle nuvole. Si tratta di previsioni estratte su scala regionale da modelli più grandi. Ma i temporali improvvisi, proprio per la loro natura quasi imprevedibile, non possono essere segnalati con cura. Utilizzando i nuovi sistemi di calcolo i ricercatori del centro hanno sviluppato un sistema di previsioni che elabora i dati su una scala a misura di temporale, pochi chilometri quadrati di estensione e circa quindici minuti di tempo, spazio e tempo che corrispondono alla scala nella quale si evolve un singolo temporale. L'obiettivo è quello di poter dire, con almeno sei ore di anticipo, che, ad esempio, oggi pomeriggio a Dallas dalle 15,20 alle 15,40 ci sarà una tempesta con vento a 60 km/h, 5 centimetri di pioggia e grandine. Ciò è reso possibile da più fattori: disponibilità di dati iniziali, modelli matematici per la simulazione dell'evoluzione del tempo, tecniche numeriche adeguate per la soluzione discreta del modello e nuovi mezzi di calcolo. Sono decine i ricercatori coinvolti nel progetto. Tutti i dati iniziali, pressione, temperatura, velocità del vento, sono dedotti da radar Doppler e introdotti in un supercalcolatore. Il modello matematico, costituito da un sistema di equazioni alle derivate parziali, fornisce la rappresentazione più adeguata del fenomeno atmosferico. Le tecniche di approssimazione numerica consentono di risolvere il modello con frazioni di tempo molto piccole, mantenendo sotto controllo la propagazione degli errori commessi. Si tratta di un passaggio cruciale: proprio l'instabilità della soluzione numerica di modelli di previsione meteorologica ha dato avvio con la celebre esperienza di Edward Lorenz allo studio della dinamica dei sistemi caotici. La potenza di calcolo e la possibilità di calcolo parallelo rendono poi possibile l'elaborazione in tempi limitati. La prova che il modello funziona bene è data dal fatto che la compagnia aerea American Airlines partecipa al suo perfezionamento proprio in vista di un impiego come «allarme» per evitare danni agli aerei della sua flotta. La compagnia mantiene a Dallas uno dei suoi centri aeroportuali più importanti. Il supercalcolatore Cray T3E, insieme alle nuove tecniche numeriche sviluppate, non potrà che contribuire al miglioramento delle prestazioni di questo modello e di tanti altri sempre più spesso impiegati in molti settori per la simulazione di fenomeni e processi. Terenzio Scapolla Università di Pavia


RICERCA Per il cervello avremo pezzi di ricambio
Autore: BASSI PIA

ARGOMENTI: RICERCA SCIENTIFICA, BIOLOGIA
NOMI: VESCONI ANGELO, PARATI EUGENIO
ORGANIZZAZIONI: ISTITUTO NAZIONALE NEUROLOGICO BESTA
LUOGHI: ITALIA, EUROPA, ITALIA, MILANO (MI)

LA storia incomincia cinque anni fa, tra le Montagne Rocciose, nelle fredde lande canadesi della provincia di Alberta. Grazie a una collaborazione tra un gruppo di ricerca canadese e due scienziati italiani, Angelo Vesconi e Eugenio Parati dell'Istituto Nazionale Neurologico «Besta» di Milano, venivano coltivate per la prima volta, su esemplari di topo, le cellule staminali del cervello, e cioè quelle cellule che danno origine al tessuto nervoso nella sua forma matura. Da allora gli sforzi si sono concentrati nel tentare la stessa impresa su tessuto cerebrale umano. Per tre anni Vescovi e Parati si sono impegnati nello sviluppo di una tecnica di crescita, ora finalmente messa a punto, che permette di coltivare le cellule staminali del cervello dell'uomo. Grazie a questa tecnica diventa possibile moltiplicare le cellule cerebrali in uno stato indifferenziato. I risultati sono tali che, partendo da un microscopico frammento di tessuto composto da non più di cinquantamila cellule, i due ricercatori sono riusciti a ottenerne un numero molto grande (più di quattro miliardi), dando così il via alla costituzione della prima banca di cellule staminali cerebrali umane, unica nel mondo. Il valore di queste cellule sta nella loro peculiare capacità di poter essere differenziate a piacere nei tre tipi cellulari che costituiscono il cervello: neuroni (le cellule pensanti), e astrociti e oligodendrociti (le cellule che nutrono i neuroni e aiutano la trasmissione degli impulsi nervosi). Ben presto i due ricercatori milanesi si sono accorti di avere a disposizione un patrimonio di cellule da trapiantare in pazienti colpiti da alcune malattie neurologiche in cui specifiche cellule cerebrali vengono distrutte. Le cellule staminali possono venire differenziate in cellule specifiche che contengono le sostanze neurochimiche che vanno perdute in queste malattie, come la dopamina nel morbo di Parkinson, il Gaba nella corea di Huntington o l'acetilcolina nella malattia di Alzheimer. In questo modo le cellule staminali permettono di preparare specifici «pezzi di ricambio cerebrali» utilizzabili per la sostituzione di parti del cervello che, per svariati motivi, siano andate distrutte. Si spera di poter passare a una prima sperimentazione pre-clinica su pazienti parkinsoniani entro i prossimi 2-3 anni. In questi pazienti circa l'80 per cento delle cellule dopaminergiche vengono distrutte dalla malattia. L'idea è di rimpiazzarle sostituendole con cellule staminali programmate a produrre la dopamina mancante. Ma come avviene questa programmazione? Le cellule staminali vengono esposte a proteine note come «fattori di crescita» come il Nerve Growth Factor (il famoso Ngf scoperto da Rita Levi Montalcini) l'Egf, il bFgf, il Cntf ed altri ancora. Sebbene grazie a questa manipolazione solo il 7 per cento delle cellule si trasformi in neuroni dopaminergici, grazie alla incredibile capacità di moltiplicazione delle cellule staminali, sono oggi disponibili, presso la banca di cellule staminali dell'Istituto Nazionale Neurologico Besta, cellule sufficienti a trapiantare almeno 200 malati. Le speranze non si fermano qui, spiegano Vesconi e Parati. E' in corso un progetto di ricerca che valuta la possibilità di estrarre le cellule staminali dai pazienti stessi (tali cellule si trovano distribuite attorno alle cavità cerebrali note come ventricoli), di moltiplicarle, di differenziarle in cellule dopaminergiche e reimpiantarle nel paziente medesimo, realizzando così il cosiddetto trapianto cerebrale autologo. Questo modo di affrontare la questione dovrebbe risolvere le difficoltà legate al rigetto (dato che il paziente riceve il trapianto delle proprie cellule) e ai problemi etici sollevati all'uso di tessuto embrionale umano, che altri istituti nel mondo utilizzano nei tentativi di terapia del morbo di Parkinson tramite trapianti di cellule. Pia Bassi


IN ITALIA PROCEDE IL CABLAGGIO Il futuro è su fibre ottiche Ci porteranno il mondo in casa
Autore: SARACCO ROBERTO

ARGOMENTI: OTTICA E FOTOGRAFIA, TECNOLOGIA
LUOGHI: ITALIA
TABELLE: D. Fibre ottiche attuali e quelle sperimentate in laboratorio

TELEVISORE, telefono e computer diventeranno un unico elettrodomestico multimediale. Con esso potremo, restando a casa, lavorare, divertirci, fare un certificato all'anagrafe, frequentare un corso alla Sorbona o acquistare prodotti in Giappone. E' un futuro che a Torino (e in altre città italiane) è reso più vicino dal cablaggio del territorio urbano. Un anno e mezzo fa la Stet annunciava un vasto piano di cablaggio per coprire gran parte dell'utenza residenziale in Italia. Ora questa infrastruttura comincia ad essere una realtà e arrivano i primi servizi. In Italia è già operativa la trasmissione via cavo della tv digitale gestita dalla Stream. Questo sistema consente di scegliere tra una molteplicità di programmi provenienti da tutto il mondo e di pagare solo quelli che si vuol vedere (pay per view). Niente parabole sui tetti e decodificatori. Un solo apparecchio, collegato alla nuova rete, permette di accedere a tutti i programmi. Alcuni nuovi servizi possono essere forniti anche utilizzando il filo di rame del telefono. Possiamo mandare un messaggio dal computer di casa sul normale doppino di rame o via telefonino; se volessimo però, come è possibile fare, associare al messaggio un videoclip e un commento vocale scopriremmo che la velocità di questi tipi di collegamento non è adeguata. La tecnologia che per capacità e interattività è al cuore della città cablata è quella delle fibre ottiche e dell'optoelettronica. Le fibre ottiche, nate a metà degli Anni 60 ma da poco diventate economicamente interessanti per un uso nella parte terminale della rete, consentono di trasmettere enormi quantità di informazioni: se prendiamo a campione il normale filo del telefono e lo paragoniamo a un viottolo di ingresso in casa di 50 centimetri, una fibra ottica che viene oggi sperimentata in laboratorio ci fornisce una strada larga 1000 chilometri; una fibra «normale» che vediamo in posa nelle nostre città dà un accesso largo «solo» da 1 a 6 chilometri (non per la fibra in sè ma per l'elettronica che viene associata). Ma quanto deve essere «larga» l'autostrada per fornire la molteplicità di servizi che oggi iniziamo a intravedere? Per la voce, o per un normale accesso a Internet, i 50 centimetri di cui disponiamo sono sufficienti (anche se per ascoltare musica o vedere immagini/filmati su Internet ci farebbe comodo avere una decina di metri), una trasmissione televisiva con qualità Vhs (del videoregistratore di casa, per intenderci) richiede una strada larga 15 metri; per una migliore qualità dobbiamo arrivare sui 50-60 metri (in questi esempi 1 centimetro corrisponde a una velocità di 1000 bit al secondo). La fibra offre una capacità estremamente elevata ma i costi dell'elettronica (quella che serve per convertire un segnale da elettrico a luminoso - il laser - e da luminoso in elettrico - il fotorivelatore) suggeriscono di ripartire tale capacità su più utilizzatori. Ciò si fa concentrando l'elettronica in un punto da cui si fanno partire dei cavi coassiali fino alla nostra abitazione. Questi, su distanze brevi, sono in grado di offrirci autostrade larghe una decina di chilometri. Per il singolo utilizzatore autostrade di questa ampiezza sono più che sufficienti ma se moltiplichiamo le esigenze del singolo per i milioni di utenti che in contemporanea richiedono i servizi scopriamo che le capacità della rete di oggi potrebbero ben presto risultare insufficienti. Il collo di bottiglia non è la fibra ma di nuovo l'elettronica che oggi deve essere utilizzata per instradare il singolo messaggio sulle diverse tratte ottiche. La ricerca lavora da un lato cercando soluzioni di basso costo per i convertitori, dall'altro studiando commutatori completamente ottici. I servizi che iniziamo a utilizzare cambiano il nostro modo di vivere e con questo anche il modo con cui utilizziamo la rete. Paragonando i nuovi servizi con quelli su cui sono state progettate in tutti questi anni le reti telefoniche (conversazioni di 3 minuti, 10 chiamate al giorno) ci si rende conto di come l'intera struttura delle reti di comunicazione debba essere rivista. Le città cablate che stanno nascendo in Italia sono i primi nuclei della nuova infrastruttura. Roberto Saracco Cselt, Torino


IRLANDA: IL TUMULO DI NEWGRANGE Monumento all'inverno Un calendario dell'età della pietra
Autore: COSSARD GUIDO

ARGOMENTI: ASTRONOMIA, ANTROPOLOGIA E ETNOLOGIA
LUOGHI: ESTERO, EUROPA, IRLANDA, NEWGRANGE

PER noi il solstizio d'inverno è una semplice data del calendario: significativa perché annuncia le festività più solenni, ma nulla di più. Nell'antichità, invece, il solstizio era importantissimo perché in quel giorno il Sole descrive nel cielo l'arco più basso di tutto l'anno. Dal giorno successivo l'arco descritto dal Sole riprende ad alzarsi; quindi, le giornate tornano ad allungarsi e il punto di levata del Sole riprende a spostarsi verso l'Est, dove giunge nel giorno dell'equinozio di primavera. Ma nell'antichità le conoscenze astronomiche non erano sufficienti a garantire che, ogni anno, il Sole avrebbe ripreso il suo ciclo. Dunque era fondamentale determinare con buona precisione il punto dell'orizzonte nel quale era sorto il Sole nel giorno d'inverno, per confrontarlo con quello dei giorni successivi e avere la certezza che sarebbe tornata la stagione calda. Così, sono molto numerose le strutture in pietra della preistoria europea dirette sul punto di levata del Sole nel giorno del solstizio d'inverno. Il più accurato e spettacolare monumento preistorico di questo tipo è il tumulo irlandese di Newgrange, che si erge nei pressi di Droghedda. Di forma vagamente tronco-conica, ha un diametro di oltre 80 metri, per un'altezza di 30 nella parte centrale. Tra le pareti bianche di quarzo, restaurate recentemente in modo fin troppo regolare, spicca un'apertura che porta ad un grande dolmen, caratterizzato da un recesso di fondo e da due camere laterali. Il dolmen è preceduto da un corridoio d'ingresso; camera e corridoio raggiungono complessivamente i 25 metri di lunghezza. Nel giorno del solstizio d'inverno, il primo raggio del Sole nascente filtrava, attraverso un'apertura realizzata sopra l'entrata, nello stretto passaggio, lo percorreva rapidamente, ed andava ad illuminare di colpo la camera di fondo. La stessa entrata produceva un secondo fascio di luce che andava a illuminare splendide decorazioni, incise su un pilastro del corridoio, sporgente più degli altri proprio al fine di ottenere una ottimale luce radente. Il perimetro del tumulo di Newgrange è delimitato, alla base, da pietre piatte molto regolari, chiamate kerbstones, a loro volta circondate da un cerchio di pietre erette. La kerb stone di ingresso, attentamente decorata, è caratterizzata da una scanalatura verticale e da numerose spirali incise. Anche la kerbstone diametralmente opposta ha una scanalatura verticale e presenta incisioni analoghe. Così questo grandioso tumulo presenta tutto l'asse diretto sul punto di levata del Sole nel giorno del solstizio d'inverno e le sue complesse decorazioni rappresentano una sorta di allineamento simbolico. Infatti, non si deve pensare che i realizzatori del tumulo fossero semplicemente alla ricerca di un dato osservativo. La consapevolezza che la vita dipende dalla nostra stella aveva portato a una forma di profondo culto astronomico, con il Sole divinizzato. La sua esaltazione era appunto il complesso di Newgrange. Guido Cossard


IN PERICOLO Cefali contro trote Allarme per molte specie di pesci
Autore: RAVIZZA VITTORIO

ARGOMENTI: ZOOLOGIA
NOMI: ZERUNIAN SERGIO, TADDEI ANNA RITA
ORGANIZZAZIONI: WWF
LUOGHI: ITALIA, EUROPA, ITALIA

IL 25 per cento dei pesci delle acque italiane appartiene a forme endemiche, cioè che esistono solo nel nostro Paese; considerando anche le forme subendemiche, cioè quelle che vivono prevalentemente in Italia ma che sconfinano anche in territori contigui, si arriva al 40 per cento. Come dire che se queste forme dovessero scomparire dal nostro paese sarebbero perdute per sempre sulla faccia della Terra. Adesso il Wwf lancia un allarme: alcune di queste forme sono davvero in pericolo, è in corso un attentato alla diversità biologica di fiumi, laghi, torrenti, rogge d'Italia. Vi sono specie che scompaiono in certi bacini, altre introdotte dall'esterno che «inquinano» quelle autoctone, altre ancora che fanno sparire le popolazioni locali e vi si sostituiscono, come documenta uno studio compiuto per il Wwf dagli ittiologi Sergio Zerunian e Anna Rita Taddei. Le cause? L'inquinamento industriale, quello organico degli scarichi urbani, quello provocato dalle attività agricole con gli scarichi degli allevamenti, con i fitofarmaci e i diserbanti, la costruzione di dighe, il prelievo di acqua e ghiaia, la pesca indiscriminata e il bracconaggio, la cementificazione e la folle pratica di «raddrizzare» i corsi d'acqua. Le dighe colpiscono in particolare le specie migratrici che risalgono i fiumi per riprodursi; dovrebbero essere accompagnate da «scale di risalita» grazie alle quali i pesci siano messi in grado di superare gli improvvisi dislivelli creati dagli sbarramenti. In realtà in Italia ne esistono ben poche e ciò spiega perché a monte degli invasi sono spariti gli storioni (un tempo si pescavano anche nel Po a Torino), le lamprede di fiume o le alose. L'inquinamento organico dovuto agli scarichi urbani e degli allevamenti ha, tra l'altro, l'effetto di modificare le diverse «zone» di cui è composto il fiume, riducendone la diversità ambientale. Si riducono le zone di acqua limpida e ossigenata. «Di conseguenza si verificano consistenti modifiche nelle comunità ittiche - afferma la ricerca di Zerunian e Taddei - e vengono avvantaggiate le specie tipiche del tratto medio di un corso d'acqua come per esempio il triotto (Rutilus erythrophtalmus), la scardola (Scardinius ery throphtalmus), e alcuni ciprinidi di origine alloctona, a svantaggio dei salmonidi e delle altre specie tipiche del tratto alto e medio di un corso d'acqua». Nel lago di Fondi, basso Lazio, in seguito all'aumento dell'inquinamento organico e della salinità, molte popolazioni indigene rischiano di sparire mentre dominano specie estranee come il carassio dorato (il comune pesce rosso che si tiene in casa), o i cefali e i muggini di provenienza marina. Effetti analoghi hanno le canalizzazioni e la cementificazione dei corsi d'acqua (l'assurda «cura» che solitamente viene praticata ai fiumi dopo uno straripamento: scompaiono le curve e di conseguenza le zone dove l'acqua rallenta, scompaiono gli avvallamenti dove è maggiore la profondità e quindi scompaiono gli habitat di lucci, scardole, carpe). La cementificazione degli alvei e il continuo prelievo di ghiaia distruggono gli anfratti di cui hanno bisogno per deporre le uova il ghiozzo di ruscello, il ghiozzo padano, il barbo e il barbo canino. Persino il ripopolamento fatto senza precisi criteri ha spesso effetti disastrosi, così come l'introduzione di nuove specie. Spesso i ripopolamenti sono effettuati con avannotti raccolti in acque distanti centinaia di chilometri e ciò provoca «variazioni della biodiversità delle comunità ittiche» dice la ricerca. L'inquinamento genetico sta provocando la scomparsa della trota marmorata, indigena della parte sinistra del bacino del Po, e della trota macrostigma propria dell'Italia peninsulare tirrenica, della Sicilia e della Sardegna. L'immissione di nuove specie si è rivelata in passato una pratica rischiosa; senza voler andare agli antichi disastri provocati dall'introduzione del persico sole e del pesce gatto basta ricordare che il recente arrivo nelle nostre acque del siluro comincia a far sentire negativamente la sua presenza nelle comunità ittiche in cui si è indebitamente introdotto. Vittorio Ravizza


FORFORA Nevica sulle giacche blu
Autore: GIORCELLI ROSALBA

ARGOMENTI: MEDICINA E FISIOLOGIA
NOMI: CAPUTO RUGGERO
ORGANIZZAZIONI: ISTITUTO DI SCIENZE DERMATOLOGICHE
LUOGHI: ITALIA

SU tante giacche blu «nevica»: sarà la stagione? La forfora affligge il 20 per cento della popolazione adulta mondiale a partire dai 10 anni di età; e il 3 per cento soffre di dermatite seborroica, che alla desquamazione si aggiunge un'infiammazione della cute ai danni del cuoio capelluto ma talvolta anche di palpebre, ginocchia, orecchie. Varie le cause predisponenti per entrambi i disturbi, che creerebbero sulla pelle le condizioni ideali per lo sviluppo del Pityrosporum ovalis, un fungo che sembra avere una parte fondamentale nella desquamazione. A Lisbona, al V Congresso dell'Accademia Europea di Dermatologia e Venereologia, sono stati illustrati i risultati di studi sul trattamento esterno con un antimicotico, il ketoconazolo. Anche la forfora sarebbe in un certo senso una malattia, ingigantita o trascurata a seconda dell'intensità del fenomeno e della psicologia individuale. E non sembra avere preferenze di sesso, e di colore o tipo di pelle e capelli. L'orientamento medico è quello di considerare la dermatite seborroica (e, in misura minore, anche la forfora) come segnale dell'organismo. I fattori predisponenti possono essere: un eccesso di ormoni androgeni, diete squilibrate, ereditarietà, forse anche fattori ambientali come umidità, inquinamento, cambiamento di stagione; e poi stress, debolezza del sistema nervoso o del sistema immunitario (senza voler generare allarmismi, va detto che la dermatite seborroica si osserva in elevata percentuale nei malati di Hiv). In queste condizioni il Pityrosporum ovalis, che fa parte normalmente della flora cutanea, si moltiplica, passando dal 47% della flora allo stato normale al 75% in presenza di forfora e l'83% nella dermatite. Risalgono all'Ottocento le prescrizioni antiforfora e antidermatite, a base di zolfo, del medico francese Sabouraud, che si riferiva al fungo come «Malassezia ovalis» (dalla prima definizione di Malassez del 1874). In seguito si sono adoperati corticosteroidi e antinfiammatori per controllare la produzione di sebo. Gli studi sul ketoconazolo nella cura della dermatite seborroica sono iniziati nel 1978 con terapie orali; nel 1982 è stato sperimentato sotto forma di shampoo; impiegato da alcuni anni, ora disponibile in varie concentrazioni per le forme leggere di dermatite e per la forfora, per un'azione di attacco e di mantenimento. Ridurrebbe drasticamente la presenza del fungo, con effetto più durevole rispetto ad altri trattamenti; finora non sono stati osservati effetti collaterali. Uno studio attualmente condotto in Belgio da De Doncker, Pierard e Baeten, i cui risultati parziali sono stati pubblicati sul Journal d'Actualité Dermatologiques Belges, apre una debole speranza sugli effetti del ketoconazolo anche nella calvizie incipiente (Alopecia androgenica): si vuol capire se il famigerato fungo sia un fattore di infiammazione cronica. I miglioramenti sarebbero osservabili ma in tempi molto lunghi. E l'acne, la psoriasi? Ci sono alcune ipotesi, e qui ci fermiamo, perché, ad esempio, se la terapia di mantenimento con ketoconazolo può in molti casi essere soddisfacente, un soggetto con forfora su 10 non risponde al trattamento. Niente bacchetta magica, ma una strada comunque interessante. Ma in che misura la forfora è sentita come problema? In generale, esistono tre categorie di soggetti, come spiega Ruggero Caputo, direttore dell'Istituto di Scienze dermatologiche dell'Università di Milano: «Gli "ansiosi" esasperati dal "look", circa un terzo dei soggetti, gli unici che si rivolgono al medico o al farmacista; i moderatamente attenti all'estetica, un altro terzo; infine i poco attenti, che lo considerano un "difetto" estetico, comprano lo shampoo dell'ultima pubblicità e tendono a lavarsi i capelli troppo spesso aumentando il grado di acidità della pelle e la desquamazione». Rosalba Giorcelli


IL PESCE GATTO: UNA CALAMITA'
LUOGHI: ITALIA, EUROPA, ITALIA

Il pesce gatto, originario dell'America settentrionale, fu portato in Europa alla fine del secolo scorso. Grazie alla sua prolificità e robustezza si è diffuso con rapidità in ogni ambiente di acqua stagnante. Voracissimo, mangia molluschi, crostacei, larve oltre a uova e avannotti degli altri pesci. Per i pescatori è una calamità perché si avventa sulle loro esche, destinate a prede più pregiate, ingoiandole profondamente tanto da rendere impossibile il recupero dell'amo. Impossibile scacciarlo da un laghetto: anche se lo si prosciuga lui riesce a vivere tra la melma per mesi pronto a riprendere l'attività appena tornerà l'acqua.


IL PERSICO SOLE: BELLO E IMMANGIABILE
LUOGHI: ITALIA, EUROPA, ITALIA

Anche il persico sole è stato portato in Europa alla fine del secolo scorso per accrescere le specie pescabili a lenza ma è sfuggito al controllo ed ha invaso tutte le acque italiane. E' un pesce bellissimo, dai colori sgargianti (verde, blu, giallo, arancio e una macchia rossa sull'opercolo) che può arrivare a 20 centimetri. Immangiabile perché pieno di dure spine. E' un predatore famelico di uova e avannotti di altre specie tanto che nel suo regno di solito crea il deserto. La sua prolificità è tale che in molti bacini gli individui in numero molto elevato non superano i 3-4 centimetri di lunghezza.


UN FEROCE PREDATORE VENUTO DALL'EST: IL SILURO
LUOGHI: ITALIA, EUROPA, ITALIA

Il siluro europeo o «del Danubio» ha il suo habitat nell'Europa centrale e orientale, in Asia occidentale, nel Caucaso e in Anatolia, dove può raggiungere i 3-4 metri di lunghezza e 2-3 quintali di peso. A partire dalla fine degli Anni 70 è comparso nel Po e nella parte bassa di alcuni dei suoi affluenti con sempre maggiore frequenza, segno che si sta adattando bene. Alcune catture sono avvenute anche in altri fiumi, per esempio nell'Arno. E' un predatore che attacca anche gli adulti delle altre specie. Dove è presente da più lungo tempo già si nota una diminuzione degli esemplari delle specie autoctone.


ALLARME DA GINEVRA OMS: è la malaria il nemico n. 1 della salute Uccide una persona ogni 15 secondi, eppure ci sono nuovi farmaci
Autore: P_BIA

ARGOMENTI: MEDICINA E FISIOLOGIA
NOMI: VAGLIO GIAN ANGELO
ORGANIZZAZIONI: OMS ORGANIZZAZIONE MONDIALE DELLA SANITA'
LUOGHI: ESTERO, EUROPA, SVIZZERA, GINEVRA
TABELLE: T. TAB. D. COSI' ATTACCA I GLOBULI ROSSI ==================================================================== - Quando il protozoo della malaria, P.falciaparum, invade i globuli rossi, si sviluppano grumi di proteine sulla superficie del globulo che aderiscono ai vasi sanguigni, che vengono ostruiti - I geni della malaria fanno variaare ripetutamente i grumi di proteine e così essi rimangono per un certo tempo inavvertiti dalle difese del sistema immunitario - Di solito le proteine di superficie prodotte dalle cellule infettate dalla malaria vengono rapidamente riconosciute e attaccate dagli antciorpi. ====================================================================

SI parla tanto dell'Aids come della nuova «peste» ma vecchie malattie fanno stragi ben maggiori e, a differenza dell'Aids, queste potrebbero essere sconfitte, per di più con una spesa irrisoria. Se non lo si fa è soltanto perché spesso le «vecchie malattie» riguardano il Terzo Mondo, e i Paesi sviluppati si preoccupano egoisticamente dei propri malanni, ignorando quelli dei Paesi poveri. Un caso esemplare? La malaria. Pochi giorni fa l'Organizzazione mondiale della sanità (Oms) ha dichiarato la malaria «nemico della salute n. 1» e ha fornito come prova cifre drammatiche: nel 1996 da 1 a 3 milioni di uomini sono morti di malaria, ogni 15 secondi il plasmodio trasmesso dalla zanzara anofele uccide una persona (il più delle volte un bambino o una donna incinta), da trent'anni le vittime della malaria continuano ad aumentare e la malattia è endemica in 91 Paesi, compresa l'ex Unione Sovietica. Così ogni anno sono da 300 a 500 milioni le persone che il plasmodio della malaria riesce a infettare. In contrasto con questi dati, si investono nella lotta alla malaria soltanto 85 milioni di dollari all'anno. Inoltre, con una decina di dollari si potrebbe salvare la vita di un bambino colpito da questa malattia, mentre con la stessa somma non si cura un malato di Aids neppure per un giorno. Una proiezione dell'Oms (organismo dell'Onu con sede a Ginevra) dovrebbe però portare l'attenzione dei Paesi ricchi anche sulla malaria: all'inizio del 2000 nel Sud degli Stati Uniti e dell'Europa potrebbero verificarsi fino a 80 milioni di casi di malaria all'anno. Persino in Gran Bretagna si sono avuti ben 2000 casi di contagio in un anno. E questo perché la malattia si propaga grazie all'emigrazione dal Terzo Mondo e ai viaggi per diporto degli abitanti dei Paesi ricchi. Inoltre la malaria diventa sempre più resistente ai farmaci tradizionali e alle vecchie cure preventive a base di clorochina e della stessa meflochina, che era stata introdotta per combattere l'infezione clorochinoresistente. La malaria è causata da un protozoo del genere Plasmodium (falciparum, vivax, malariae, ovale). Questi protozoi hanno un ciclo di sviluppo che comprende una fase sessuata, che si svolge nella zanzara anofele, e una fase asessuata che avviene nell'organismo infettato. Il Ddt negli Anni 60 stava debellando la zanzara anofele, e quindi anche la malaria. Ma poi questo insetticida è stato abbandonato per motivi ecologici, e la zanzara ha di nuovo occupato regioni molto ampie, per lo più paludose, specialmente in Africa e nel Sud-Est asiatico. Quando il Plasmodium falciparum, il più pericoloso, viene iniettato dalla zanzara (femmina) nel sangue dell'uomo, invade i globuli rossi e induce lo sviluppo di proteine che aderiscono alle pareti dei vasi sanguigni. I capillari più fini, nel cervello, vengono così ostruiti e si arriva alla morte del malato. Come ricordava su «Tuttoscienze» del 4 dicembre scorso Gian Angelo Vaglio, professore di chimica generale all'Università di Torino, fortunatamente sono già pronte nuove armi per combattere la malaria anche quando si tratti di una forma resistente alla clorochina e alla meflochina. Uno dei nuovi farmaci, il più promettente, è stato ottenuto sintetizzando una sostanza simile a quella contenuta nell'arbusto Artemisia an nua, pianta già usata in medicina dagli erboristi cinesi. Un'altra strada battuta nei laboratori di ricerca è quella del vaccino. Il tipo di vaccino oggi più maturo non tende tanto a immunizzare la persona che se lo fa iniettare, quanto a far sì che la persona vaccinata, se punta dalla zanzara anofele, trasmetta all'insetto degli anticorpi che interrompono il ciclo di riproduzione del Plasmodium. E' un vaccino, insomma, «altruistico», nel senso che lo si prende essenzialmente per tutelare gli altri e, in una prospettiva a lungo termine, per sradicare una malattia che, dopo aver subito alcune parziali sconfitte, oggi va alla riscossa. (p. bia.)


NASCITA DELLA BIONICA Dalla struttura del femore alla Tour Eiffel I calcoli del 1889 furono ispirati al reticolo di trabecole che compone l'osso
Autore: VICO ANDREA

ARGOMENTI: STORIA DELLA SCIENZA
NOMI: KOECHLIN MAURICE, CULMANN KARL, STEEL JACK
LUOGHI: ITALIA

CHE cosa hanno in comune un femore umano e la Tour Eiffel? Nulla, apparentemente. In realtà moltissimo dal punto di vista strutturale. Infatti se il simbolo di Parigi svetta sulla città in modo così ardito ed elegante, lo dobbiamo anche al nostro femore. Verso la fine dell'Ottocento a Parigi si decise che per l'Esposizione universale del 1889 sarebbe stata costruita una torre in ferro alta almeno 300 metri. I calcoli statici della struttura furono affidati a Maurice Koechlin, un giovane ingegnere che per settimane si disperò per aver accettato un tale incarico. D'un tratto Koechlin si ricordò di uno studio sugli scheletri umani e animali condotto dal suo maestro, l'ingegnere e matematico svizzero Karl Culmann, che nel 1875 aveva a sua volta ripreso gli appunti di anatomia di un medico di Zurigo. Osservando uno scheletro umano, o quello di un pollo o di un bue, si può notare che il femore non è perfettamente in asse con il bacino. L'incastro tra la testa di quest'osso e il corrispondente incavo del bacino (che si chiama cavità cotiloidea dell'osso iliaco) avviene quasi lateralmente, grazie a una sporgenza inclinata del femore che alla sua sommità piega verso l'interno del corpo. Come buona parte delle ossa umane, al suo interno il femore non è fatto di materiale pieno, ma da un tessuto spugnoso, un reticolato le cui lamine (che si chiamano trabecole) a prima vista appaiono estremamente disordinate e disposte in modo casuale. Culmann si accorse che l'orientamento delle trabecole del femore non è affatto lasciato al caso e corrisponde perfettamente alle linee lungo le quali si scaricano le forze di trazione e compressione che l'osso, se incastrato «lateralmente» nel bacino, deve compiere per sostenere il peso del corpo. A questo punto il lavoro di Koechlin divenne facilissimo: nel progettare la Tour Eiffel egli si limitò a riprodurre lo schema base delle trabecole. Per le sue soluzioni altamente innovative Koechlin venne acclamato eroe della patria. Ma la sua genialità non sta tanto nell'aver inventato qualcosa di nuovo. Piuttosto nell'aver osservato una soluzione «naturale» per poi riprodurla in una situazione artificiale. La scienza che si occupa di questo particolare tipo di ricerche, cioè la rielaborazione in chiave tecnologica di un meccanismo naturale, è la bionica, una nuova disciplina a cavallo tra ingegneria e biologia, chimica e architettura, botanica e anatomia. Fin dalle origini l'uomo si è ispirato alla natura per risolvere i suoi problemi quotidiani. D'altra parte i cieli, i boschi e i mari non sono altro che sconfinati laboratori dove da tre miliardi di anni si conducono esperimenti di ogni sorta per muoversi più velocemente, per combattere il freddo, per proteggersi dai nemici, per arrivare sempre più in alto a conquistare qualche raggio di Sole in più. Ma è nei primi Anni Quaranta che la bionica comincia a prendere corpo come disciplina di ricerca a sè stante. Purtroppo per scopi non tanto nobili: infuriava la Seconda Guerra mondiale e tutti i migliori cervelli venivano mobilitati per perfezionare gli armamenti. Negli anni successivi la bionica assunse una fisionomia sempre più delineata e nel 1960 ricevette il suo battesimo ufficiale. Il nome fu proposto da un maggiore della Marina americana, Jack Steel, che in quell'anno radunò in un convegno coloro (ingegneri, chimici, fisici, architetti, biologi, botanici e naturalisti) che portavano avanti questo tipo di ricerche. Andrea Vico


BIOMEDICINA Ricerca, va un po' meglio
Autore: MARCHISIO PIER CARLO

ARGOMENTI: RICERCA SCIENTIFICA, MEDICINA E FISIOLOGIA, GENETICA
ORGANIZZAZIONI: TELETHON
LUOGHI: ITALIA

IN Italia ci sono tante cose che non vanno. Tuttavia, a costo di sembrare un inguaribile ottimista, devo dire che almeno la qualità della ricerca scientifica in campo biomedico sta rapidamente migliorando. I convegni dei ricercatori italiani sono ormai copie di quelli europei, e non così diversi da quelli americani. Sono abbastanza vecchio per ricordare i convegni di trent'anni fa. Nulla di paragonabile come impegno, qualità e quantità. E' chiaro che negli ultimi anni deve essere successo qualcosa che ha migliorato il livello qualitativo della ricerca nel nostro Paese. Mi sono fatto su questo un'idea precisa. E' intervenuta finalmente la selezione. Oggi chi finanzia i progetti di ricerca lo fa in base al merito: si scovano i progetti migliori e i migliori ricercatori e tra questi si dividono i finanziamenti (che sono pur sempre pochi rispetto ad altri Paesi). Ha cominciato l'Airc per il cancro alcuni fa, è seguito il progetto Aids e ora Telethon ha stabilito uno standard al quale tutti dovranno uniformarsi. In particolare il Cnr dovrebbe cambiare il modo di distribuire i magri fondi e adottare gli stessi rigidi criteri meritocratici delle agenzie private come Airc e Telethon. Non che il Cnr qualche sforzo non l'abbia fatto per migliorare rispetto al passato ché alcuni progetti di ricerca sono stati gestiti correttamente. Quello che occorre è darsi regole che valgano per tutti, basate sul merito. Il privato deve insegnare al pubblico come si gestisce il denaro pubblico in maniera semplice ed efficiente. Soprattutto, il Cnr deve rendere agile la sua costosissima burocrazia. Il mio improvviso entusiasmo per il miglioramento qualitativo della ricerca viene dal recente convegno di Telethon che si è tenuto a Napoli nella fortezza di Castel dell'Ovo. Telethon, come è noto, finanzia la ricerca nel campo della genetica delle malattie neurologiche e non. Con il denaro raccolto ogni anno nella manovra televisiva Telethon ha compiuto il miracolo di organizzare un paio di centri di ricerca avanzati, catalizzare l'attivazione di servizi comuni e finanziare più di cento ricercatori che comunicano attivamente. Un forte incitamento è stato dato nel 1996 agli sviluppi della terapia genetica, forse troppo. E' giusto puntare su questa svolta della medicina del 2000 che risolverà il problema di molti mali ora incurabili sostituendo il Dna alterato. L'applicazione al malato è ancora lontana ed è bene lavorare sodo per renderla una realtà il prima possibile. Non bisogna dimenticare tuttavia che della maggioranza dei geni noi non conosciamo ancora il reale funzionamento. Investiamo quindi anche nella ricerca di base e saremo sicuri che da questa anche la terapia genetica trarrà grande impulso. Pier Carlo Marchisio Dibit, Milano




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio