TUTTOSCIENZE 16 aprile 97


MICRORGANISMI DOMESTICI Allergie da camera da letto Un grammo di polvere può contenere 30 mila acari
Autore: BELLI ENRICO

ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA
TABELLE: T. TAB. I CONSIGLI = ==================================================================== 1) La camera sarà asciutta, ben aerata, priva di macchie di umidità --- 2) L'arredo sarà semplice, a superfici lisce. I mobili avranno i piedi, in modo da permettere una completa pulizia del pavimento, che sarà in legno, marmo, ceramica o linoleum (mai moquette) --- 3) Il vestiario sarà tenuto in un armadio ben chiuso --- 4) Evitare poltrone e divani imbottiti: utilizzare sedie e poltroncine in legno o plastica --- 5) Ricoprire con copri-materassi e copri-cuscini in materia plastica i materassi e i cuscini, che non dovranno essere in lana (gli acari non vivono nella gomma-piuma) --- 6) Cambiare la biancheria del letto una volta la settimana. Durante la buona stagione esporre lenzuola e coperte al sole: l'insolazione diretta uccide gli acari --- 7) Eliminare dalla camera libri, giocattoli di peluche, animali e piante --- 8) Evitare tappezzerie, tappeti, tendaggi e drappeggi --- 9) Non usare umidificatori in camera --- 10) Non rifare i letti in presenza della persona allergica agli acari: sprimacciare coperte, cuscini e materassi aumenta la presenza di derivati degli acari nell'aria = ====================================================================

CON una diffusione esponenziale, soprattutto nei Paesi industrializzati e nelle aree urbanizzate, le malattie allergiche sono un problema che va oggi affrontato non soltanto dal punto di vista clinico, ma anche socio-economico. E il problema diventa più evidente in primavera, quando agli altri agenti si aggiungono anche i pollini delle piante. Ma perché le malattie allergiche sono in aumento? Perché cresce l'inquinamento del pianeta e molti fattori inquinanti sono tali da scatenare o favorire una risposta allergica; perché aumenta la diffusione e l'uso di prodotti chimici: ogni anno ne vengono messi in commercio più di 30 mila, molti dei quali sono capaci di causare reazioni allergiche in persone predisposte; perché cresce la popolazione nelle zone abitate; e infine perché cresce nell'umanità il «monte-geni allergico»: il figlio di un allergico diventerà tale nel 38- 40 per cento dei casi, il figlio di genitori entrambi allergici lo sarà con il 60-78 per cento di probabilità. L'allergologia non è soltanto una branca dell'immunologia. E' una scienza ecologica, che deve necessariamente tener conto delle conoscenze di aerobiologia, di botanica, di alimentaristica e deve quindi esaminare la complessa rete dei rapporti tra il soggetto e l'ambiente che lo circonda. Che l'ambiente delle grandi città non sia salutare non è una novità: non è necessario ricorrere ai dati di rilevamento scientifico per rendersi conto di quanto l'aria sia divenuta irrespirabile nei centri a maggiore industrializzazione. Ma che all'interno delle nostre case si accumuli una serie di sostanze o microorganismi potenzialmente causa di malattie bronco-polmonari di origine allergica è una realtà più difficile da accettare, ma che deve essere fronteggiata in modo adeguato. Recentemente è stata rivolta una particolare attenzione ai fattori di rischio respiratorio degli ambienti «indoor», ossia gli ambienti confinati adibiti ad abitazionee, lavoro, svago ecc. L'allergene «polvere di casa» è stato oggetto di studi sin dalle prime osservazioni che mettevano in evidenza il rapporto causa-effetto fra esso e la sintomatologia rinitica e/o asmatica del paziente. Numerose ricerche ipotizzavano che questo allergene fosse di derivazione biologica e condussero ad accertare nella polvere ambientale la presenza di un organismo microscopico, il «Dermatophagoides pteronissimus», ossia un acaro dotato di una notevole attività allergizzante. Questo acaro è di minuscole dimesioni: vive intorno ai 25 gradi di temperatura, con un'umidità relativa del 75-80 per cento; dopo il primo accoppiamento vengono deposte 25-50 uova, 15-30 dopo il secondo. Successive osservazioni di vari autori hanno evidenziato la presenza di altri acari: il «D. farinae» o «culinae» e altri. Dove vivono gli acari domestici? Soprattutto nelle zone dell'abitazione dove si accumula la polvere e in particolare nella camera da letto, nei materassi, nei cuscini, nei tappeti, nei divani, nella moquette, nei tendaggi pesanti. Si nutrono prevalentemente di forfora umana: il materasso, il cuscino e la polvere della camera da letto ne sono ricchi. Ogni grammo di polvere ottenuta con la battitura di un materasso contiene fino a 30.000 acari. Un uomo elimina mediamente un grammo di forfora al giorno, e che tale quantità è sufficiente a mantenere in vita migliaia di acari per almeno tre mesi] Oltre alla immunoterapia specifica, ossia le iniezioni iposensibilizzanti praticate con il cosiddetto «vaccino» (oggi disponibile anche per via orale e in dose unica da somministrasi una-due volte l'anno), dobbiamo prendere in considerazione le strategie per ridurre la presenza degli acari, la loro crescita e la concentrazione di particelle allergizzanti nelle abitazioni. Esistono metodi biologici per la bonifica ambientale, cioè per distruggere e prevenire la crescita della popolazione di acari: la temperatura (esposizione del materiale lettereccio a 25oC per sei ore oppure a 50oC per quattro ore), l'umidità ambientale inferiore al 50 per cento per almeno due mesi, specie nel periodo invernale; è evidente però che sono metodi scarsamente praticabili. Poiché si trascorrono nella camera da letto circa 8 delle 24 ore della giornata, dobbiamo mettere in atto una serie di misure di bonifica, che possiamo riassumere nel «Decalogo della profilassi ambientale» pubblicato qui accanto. Riguarda, come si vedrà, arredi, vestiario, biancheria, libri, tende, tappezzerie. La guerra agli acari passa attarverso questo decalogo. E speriamo di riuscire a lasciare al di là della finestra i pollini delle piante. Enrico Belli


SCIENZA Italia fanalino di coda
Autore: GIACOBINI EZIO

ARGOMENTI: RICERCA SCIENTIFICA, STATISTICHE, CLASSIFICA, MONDIALE
ORGANIZZAZIONI: UE UNIONE EUROPEA, G7
LUOGHI: ITALIA, EUROPA, ITALIA

SE esistessero le Olimpiadi della scienza l'Italia sarebbe sicuramente tra le nazioni in coda. Nessuna medaglia d'oro (premi Nobel), nessuna d'argento e pochissimi bronzi negli ultimi 10 anni. Se teniamo conto del rapporto della nostra produzione scientifica col numero degli abitanti, il prodotto nazionale lordo e la percentuale investita in ricerca e sviluppo passiamo al fondo della classifica delle nazioni industrialmente più avanzate. Uno studio presentato recentemente su «Scienze» ci mette al corrente di questi fatti. I dati presentati dovrebbero far riflettere seriamente i politici italiani. Questa situazione d'allarme non fa presagire un futuro benessere economico per l'Italia a meno di non continuare a esportare solo scarpe e vestiti. Partiamo dalle notizie migliori. Quindici nazioni contano per circa l'85% della produzione scientifica mondiale stimata come numero di pubblicazioni in tutti i campi delle scienze, dell'ingegneria e della medicina nei 15 anni tra il 1981 e il 1994. L'Italia si mantiene al settimo posto (2,7 per cento) tra le 7 potenze economiche mondiali (i G7) con gli Stati Uniti al primo col 35 per cento della produzione mondiale (più delle 15 nazioni dell'Unione europea assieme). Fin qui le cose andrebbero benino. Se la qualità di tali pubblicazioni viene stimata usando il numero totale di citazioni si mantiene ancora l'ordine precedente della classifica. Noi passiamo invece per valore relativo alla metà delle francesi, a un terzo delle tedesche o giapponesi e a un quarto delle inglesi. Anche qui gli Stati Uniti fanno la parte del leone con circa la metà del totale. La situazione peggiora notevolmente quando consideriamo il rapporto chiamato impatto relativo di citazione che rappresenta il numero delle citazioni di tali pubblicazioni diviso per il numero stesso delle pubblicazioni. Solo tre delle nazioni G7 si mantengono tra le prime dieci in classifica (Stati Uniti, Regno Unito e Canada), la Francia viene proiettata al 14o e l'Italia al 19o. Svizzera, Svezia, Danimarca e Regno Unito balzano ai primi posti (in quest'ordine) dopo gli Stati Uniti: e, come si faceva notare, solo il Regno Unito è tra i «grandi». L'Italia compare dopo nazioni come Olanda, Finlandia e Australia con peso economico minore del nostro. Come prevedibile le cinque nazioni che sono in testa al mondo per produzione scientifica e qualità della loro ricerca sono le stesse che investono maggiormente. In testa a tutti sono Giappone e Stati Uniti (2,9% e 2,5% del prodotto nazionale lordo speso in ricerca) seguite da Regno Unito, Germania e Francia, tutte oltre il 2%. L'Italia ha il primato del più basso investimento tra le nazioni industrializzate del mondo con poco più dell'1%, appena superiore a quello dell'India. Si deve notare che Paesi come la Svezia e la Svizzera investono proporzionalmente di più nella ricerca che gli stessi Stati Uniti (3,3 e 2,7% rispettivamente). Un saggio di qualità della ricerca mondiale può esser rilevato in venti singoli campi della ricerca che riflettono entro certi limiti un investimento più selettivo di un certo Paese. Anche qui lo sforzo è misurato basandosi sulla popolazione e sul prodotto nazionale lordo di quel Paese. I dati mostrano in testa gli Stati Uniti seguiti da Svizzera, Svezia e Regno Unito con un numero maggiore di campi. Mentre certi Paesi europei emergono ad esempio nel campo della ricerca biomedica (Danimarca, Svezia e Svizzera), le nazioni asiatiche concentrano i loro sforzi in ingegneria, informatica e chimica altre invece come l'Australia, il Canada, la Nuova Zelanda e il Sud Africa puntano su risorse naturali. Le nazioni più avanzate industrialmente distribuiscono le proprie risorse in modo equo tra i campi principali. L'Italia ha il dubbio primato di non essere inclusa tra le prime cinque in un singolo campo dei 20 considerati. Qual è la performance relativa della ricerca italiana in relazione alla sua popolazione e agli investimenti compiuti nella ricerca di base? A parte il fatto che il maggiore successo relativo appartiene a dodici Paesi minori dell'Italia, essa compare al fondo della classifica, al 16o posto tra le nazioni più industrializzate. Ezio Giacobini


Pollini, chimica, stress Triplicate le allergopatie nei Paesi avanzati
Autore: E_B

ARGOMENTI: MEDICINA E FISIOLOGIA, STATISTICHE
ORGANIZZAZIONI: ITS
LUOGHI: ITALIA

QUASI ogni giorno si sente ripetere la domanda: ma le malattie allergiche sono comparse soltanto adesso? Perché una volta non se ne sentiva parlare? Perché continuano ad aumentare? Il progressivo aumento delle malattie allergiche è documentato dagli studi scientifici, statistici, epidemiologici: l'incidenza delle allergopatie è quasi triplicata, in particolare nei Paesi a sviluppo avanzato: da una percentuale oscillante fra il 3 e il 4 per cento nel 1975-1980, oggi possiamo considerare che circa il 12-20 per cento della popolazione soffre o ha talvolta sofferto di manifestazioni allergiche. Le cause dipendono da vari fattori che si influenzano fra di loro: inquinamento ambientale, aumento della diffusione delle sostanze chimiche (ogni anno ne vengono messe in commercio più di 30 mila), uso di sostanze alimentari sempre più sofisticate, aumento dell'industrializzazione e dello stress con conseguente usura del sistema nervoso, aumento del monte-geni allergico. E poiché l'età più colpita va dai 6 ai 40-50 anni, ossia i soggetti in età scolare e lavorativa, sono immaginabili i riflessi economici e sociali di questa patologia sulle assenze scolastiche nei più giovani e sulla perdita di giornate lavorative nei soggetti adulti. I maggiori responsabili delle manifestazioni allergiche sono i pollini e gli acari domestici: i primi con la fioritura primaverile causano la cosiddetta «febbre da fieno» (anche se raramente la sintomatologia oculorinitica è accompagnata da febbre), con l'acme - per quanto riguarda l'Italia settentrionale - aprile a giugno, con la fioritura delle graminacee. La polvere di casa in realtà è composta da una serie di sostanze ed organismi potenzialmente allergenici e, per merito di Voorhost, nel 1966 si è scoperto il vero allergene comune alla polvere di tutte le abitazioni, che è un derivato degli acari del genere Dermatophagoides ed in particolare di un loro prodotto fecale. Questi microscopici artropodi vivono nelle nostre abitazioni, che costituiscono il loro habitat ottimale: temperatura fra 18o e 25o e umidità intorno al 70-80 per cento. Ne consegue la necessità di una bonifica ambientale, soprattutto del letto, dove gli acari si annidano più frequentemente. Ma poiché non sempre la sola bonifica ambientale riesce a distruggere tutti gli acari, è necessario fare ricorso alle cure farmacologiche e immunoterapiche. Mentre le prime sono soprattutto un presidio immediato e puramente sintomatico, ossia con carattere di temporaneità, l'immunoterapia specifica (Its) è la strategia terapeutica più efficace per modificare la risposta immunitaria del soggetto allergico, allo scopo di abolire o ridurre la fastidiosa e talvolta grave sintomatologia. Pur essendo stata introdotta da Noon nel 1911, ancora oggi non ne è del tutto chiaro il meccanismo d'azione, anche se gli enormi progressi in campo immunologico hanno dimostrato le modificazioni umorali e cellulari che l'Its induce. Tuttavia numerosi controlli ne hanno confermato l'efficacia clinica, con notevole miglioramento della sintomatologia asmatica e oculorinitica e della iperreattività bronchiale aspecifica, che è il problema attuale più importante nei pazienti asmatici. Nel tentativo di ovviare ai rischi implicati nell'Its, sono state messe a punto metodiche differenti per ridurre la dose dell'allergene contenuto in quello che comunemente viene chiamato vaccino. Una di queste è l'Enzyme Potenziated Desensitisation (Epd), nella quale vengono impiegate dosi molto basse di allergene, miscelato con jaluronidasi e B-glicuronidasi. Oltre all'eliminazione delle reazioni avverse e dei rischi, questo metodo offre numerosi vantaggi: non esistono controindicazioni (eccetto la gravidanza od altre vaccinazioni in corso), è indolore e utile a chi per ragioni di lavoro non può recarsi dal medico per praticare le iniezioni settimanali per 3-4 mesi.(e. b.)


SCIENZE FISICHE. RAITEL «Eloquens» la voce artificiale
Autore: BONZO MARIALUISA

ARGOMENTI: COMUNICAZIONI, INFORMATICA
ORGANIZZAZIONI: CSELT, RAITEL, FS FERROVIE SPA
LUOGHI: ITALIA

BASTA alzare la cornetta del telefono, comporre un numero verde, dire da quale città si intende partire, dove si vuole andare, in quale fascia oraria e una voce gentile, anche se artificiale, fornisce gli orari dei treni più comodi con le loro tariffe. Fantascienza? No, Raitel è un servizio sperimentale elaborato per le ferrovie da Cselt (Centro studi e laboratori telecomunicazioni) di Torino, polo di ricerca del gruppo Stet. Risponde Eloquens, che non è nè un operatore, nè una voce registrata, è un sintetizzatore vocale. Raitel è il più evoluto servizio al pubblico che usa Eloquens. Il 14-12 ne è il precursore. In questo caso l'utente digita alla tastiera del telefono il numero telefonico e la sintesi legge l'indirizzo corrispondente. Sia per Raitel, sia per il 14-12 un motore di ricerca scandaglia un archivio informatico per trovare le notizie richieste. Eloquens permette poi di convertire il testo scritto in un formato vocale. La stringa di lettere, cifre e simboli è trasformata in una successione di fonemi (i suoni elementari di una lingua) direttamente pronunciabili dalla sintesi. Per il differente modo con cui si ricostruiscono i fonemi si distinguono due tipi di sintetizzatori: per difoni (come Eloquens) e per formanti. In quelli per difoni si usano per base acustica segmenti di voce umana, dei pezzi di fonema campionati (i difoni). Questi segmenti non vengono semplicemente riaccorpati, sono scomposti e rielaborati. La tecnica per formanti è più utilizzata nei Paesi anglosassoni. In questo caso si generano direttamente i frammenti di onda sonora (i formanti). I risultati ottenuti sono comunque molto simili. La differenza tra i sintetizzatori è strettamente legata alle ricerche sulle caratteristiche peculiari di ogni lingua. La prima difficoltà per l'italiano sta nel dare un accento lessicale, che è segnato solo per le parole tronche, a tutto il testo. Non esistendo regole per una corretta accentazione bisogna ricavare delle norme statistiche sulla base della terminazione delle parole. Inoltre in italiano moltissime parole, scritte nello stesso modo, cambiano significato a seconda della posizione dell'accento. Risolvere, se non tutti, molti dei 10 mila omografi facilita la comprensione. Per accentare un omografo non è sufficiente analizzarlo fuori dal suo contesto. Per distinguere ancora da ancora occorre fare un'analisi morfologica e sintattica delle parole confinanti. In questo caso scoprire se ancora è un avverbio o un sostantivo. Se ancora è preceduta da un articolo determinativo o indeterminativo, da una preposizione semplice o articolata che concordi per genere e numero con la parola le si attribuisce la categoria sostantivo per leggerla ancora. L'accentazione e la punteggiatura sono degli agganci per costruire la curva prosodica, cioè per dare un'intonazione che renda comprensibile e gradevole Eloquens. L'altra faccia del problema sta nel capire ciò che l'utente chiede a Raitel. Esistono in commercio dei programmi che permettono di dettare direttamente al computer. Vengono però istruiti sulla voce di un singolo utente. Un servizio al pubblico deve invece poter essere usato da chiunque e oltre tutto per telefono. Raitel riconosce parole isolate (500 fra città, fasce orarie, ecc.) che devono appartenere a un vocabolario predeterminato. La macchina confronta il segnale da riconoscere, la parola dell'utente, con i modelli delle parole che si aspetta in quel momento e vede a quale assomiglia di più. Il modello in memoria è costruito analizzando le caratteristiche della stessa parola pronunciata da un migliaio di parlatori diversi. Allo Cselt stanno già lavorando al riconoscimento del parlato continuo. Allora l'utente potrà rivolgersi alla macchina come se si rivolgesse ad un operatore. Le difficoltà maggiori stanno nello scindere le parole di una normale conversazione e nella possibilità di avere innumerevoli risposte tutte diverse. Marialuisa Bonzo


SCIENZE FISICHE. A CACCIA DI COMETE Rosetta e la Wirtanen Una sonda euroamericana partirà nel 2003
Autore: LO CAMPO ANTONIO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, ASTRONOMIA
ORGANIZZAZIONI: NASA, ESA, ISAS
LUOGHI: ITALIA

QUATTRO piccoli razzi sono stati lanciati dalla Nasa per osservare la cometa Hale-Bopp. I razzi, a due stadi, hanno raggiunto la quota di 386 chilometri, eliminando la turbolenza atmosferica che invece penalizza gli osservatori terrestri. Ma non sono certo venti minuti di studio (cinque per ogni razzo) a svelarci segreti importanti su questi oggetti cosmici, residui della nube di polveri da cui si formò 4 miliardi e mezzo di anni fa il sistema solare. Le possibilità di andare a studiare da vicino una cometa sono state dimostrate nel marzo 1986, quando la sonda europea «Giotto» giunse fino a 597 chilometri dal nucleo della cometa di Halley. «Giotto» resistette talmente bene con il suo scudo protettivo al bombardamento delle particelle della chioma ribollente della Halley, che fu dirottata nel 1992 verso la cometa Grigg-Skjiellerup. Attualmente una sola missione ha per obiettivo una cometa. E' quella della sonda euroamericana «Rosetta», che, pur tra vari problemi di budget e ritardi dei programmi scientifici di Esa e Nasa, sta per essere realizzata; il lancio è previsto per il 2003 e sarà affidato ad un potente vettore americano Titan 4, con uno stadio-propulsore Centaur. Quest'ultimo sparerà la sonda su una lunga e tortuosa traiettoria che la dovrà portare nel 2011 a scendere sul nucleo, del diametro di 3 chilometri, della Wirtanen, una cometa di breve periodo che porta il nome dell'astrofilo finlandese che l'ha scoperta. «Rosetta» sarà costituita da due sezioni: un veicolo-madre realizzato dagli americani, che si avvicinerà al nucleo per poi sganciare un modulo di sbarco europeo che dovrà posarsi sulla superficie. Se tutto andrà bene, dopo la grandinata di particelle che colpiranno lo scudo del modulo, alcuni strumenti effettueranno il prelievo di campioni della cometa con il metodo del «carotaggio», già usato per prelevare campioni dalla superficie della Luna o di Marte. Verranno poi inviati dati e immagini a Terra. Il progetto originario di «Rosetta» prevedeva che il modulo di sbarco stivasse i campioni in una mini-capsula, che avrebbe poi dovuto riportarli a Terra. Ma per motivi di costo e di tempo questa importante fase della missione è stata cancellata. Altri progetti spaziali destinati a comete, come il Craf (Comet Rendez-vous Asteroid Fly- by) della Nasa, che prevedeva di lanciare dei moduli-penetratori nel suolo cometario, o come il progetto francese «Vesta», destinato ad alcuni avvicinamenti di asteroidi e comete, sono stati cancellati. L'Istituto Spaziale Scientifico giapponese Isas, che ha varato un ambizioso programma di esplorazione interplanetaria con mezzi e costi contenuti, ha invece in programma ciò che «Rosetta» avrebbe dovuto fare. Entro il 2005 i nipponici hanno intenzione di inviare una piccola sonda-robot su una cometa, con l'obiettivo di riportarne i campioni sulla Terra. I giapponesi stanno mantenendo fede al loro programma: una sonda verrà inviata verso la Luna in estate, e un'altra salperà per Marte entro il 1999. E dato che in fatto di robotica non sono secondi a nessuno, è molto probabile che i primi campioni di una cometa arriveranno via Sol Levante. Antonio Lo Campo


SCAFFALE Carotenuto Aldo: «Il fascino discreto dell'orrore», Bompiani
AUTORE: BIANUCCI PIERO
ARGOMENTI: PSICOLOGIA
LUOGHI: ITALIA

VAMPIRI, mostri, esseri alieni e inquietanti presenze fantastiche abitano da sempre la nostra mente: pittura, narrativa e cinema ne traboccano. Queste entità e le storie «horror» in cui spesso si esprimono, sono ricche di significati per lo psicoanalista. Aldo Carotenuto in questo suo ultimo libro, che esce direttamente in edizione economica, si avventura nella loro analisi, ricordandoci che la «psicologia del profondo» deve occuparsi non soltanto della patologia mentale, ma anche - e primariamente - di tutta la vita psichica nel suo insieme. Una vita psichica che comprende, ovviamente, anche la «normalità», i processi mentali quotidiani, la creatività artistica e la fruizione dei suoi prodotti. Massimo studioso in Italia del pensiero di Jung, Carotenuto insegna psicologia della personalità all'Università di Roma ed è autore di decine di saggi, molti dei quali tradotti all'estero (persino in giapponese).


SCAFFALE Rigutti Mario: «Comete, meteoriti e stelle cadenti», Giunti
AUTORE: BIANUCCI PIERO
ARGOMENTI: ASTRONOMIA
LUOGHI: ITALIA

La cometa Hale-Bopp sta attraversando il nostro cielo ed ecco che arriva puntualissimo un rigoroso libro sulle comete, utile antidoto a tante approssimazioni che in queste settimane si leggono sui giornali. Dalla «nube di Oort», dove le comete si affollano a miliardi, alle future missioni spaziali per studiarle da vicino, Rigutti tratta ogni aspetto riguardante questi popolari corpi celesti con grande chiarezza divulgativa.


SCAFFALE Lewis Roger: «Le origini dell'uomo moderno», Zanichelli
AUTORE: BIANUCCI PIERO
ARGOMENTI: PALEONTOLOGIA
LUOGHI: ITALIA

Le fasi evolutive che portano all'Homo sapiens costituiscono uno dei capitoli più controversi della ricerca scientifica. Ma la scarsità di reperti fossili negli ultimi tempi ha trovato una compensazione nei progressi degli studi genetici e si può quindi sperare in conclusioni che vedano più concorde la comunità dei paleoantropologi. Il libro di Lewis è esemplare nell'equilibrio con cui cerca di fare il punto sulle attuali conoscenze. Un ampio capitolo riguarda il Dna dei mitocondri, che si trasmette solo per via materna (teoria di Eva nera); un altro affronta il tema dello sviluppo del linguaggio in relazione alle origini dell'uomo moderno.


SCAFFALE Celli Giorgio: «La scienza e i fantasmi», Aspasia
AUTORE: BIANUCCI PIERO
ARGOMENTI: DIDATTICA
LUOGHI: ITALIA

La scienza può offrire molti spunti alla narrativa. E la narrativa può mettere a disposizione della scienza un'arte e una tecnica della comunicazione che mancano al saggio scientifico diretto agli specialisti. Eppure scienza e narrativa raramente incrociano le loro strade. Quando succede, lo si deve al fatto che l'una e l'altra convivono in un intellettuale completo, dalla cultura non dimezzata come quella che affligge umanisti e scienziati «puri». Celli, entomologo di fama, docente all'Università di Bologna e divulgatore televisivo di successo, è una di queste eccezioni. Il suo ultimo libro illustra le due facce della medaglia: come si possa usare uno stile narrativo per spiegare la scienza e come la scienza dia materia al narratore. Da segnalare il micro-giallo entomologico «Come fu ucciso Umberto Eco».


SCAFFALE Fasolo e Cappellari: «Psichiatria di territorio», La Garangola
AUTORE: BIANUCCI PIERO
ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA

Raccolti in un «Almanacco '97», una ventina di saggi dedicati agli aspetti più vari della salute mentale: ipocondria, paranoia, pedofilia, tossicodipendenza, aspetti sociali ed economici dell'assistenza psichiatrica.


SCAFFALE Autori vari: «Astronomical and Biochemical Origins and the Search for Life in the Universe», Editrice Compositori, Bologna
AUTORE: BIANUCCI PIERO
ARGOMENTI: ASTRONOMIA, BIOLOGIA
LUOGHI: ITALIA

Questi atti dell'importante convegno di bioastronomia svoltosi a Capri nel luglio scorso per iniziativa di Cristiano Batalli Cosmovici rappresentano una autorevole sintesi di tutte le ricerche in corso per individuare forme di vita non terrestri. Piero Bianucci


SCIENZE FISICHE. IL CNR ALL'EVEREST L'«energia invisibile» La sopravvivenza alle alte quote
Autore: MARTINET ENRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA
NOMI: DA POLENZA AGOSTINO, BLANC ABELE, ARNAUD CLAVEL
ORGANIZZAZIONI: CNR
LUOGHI: ITALIA
TABELLE: D. La piramide del Cnr al campo base dell'Everest

LA «porta dell'infinito» sarà anche quella di una scoperta scientifica? La «porta» è a 8000 metri, ed è il nome che gli alpinisti hanno dato al Colle Sud, il più alto e magico della Terra, sulla «spallona» dell'Everest, una sella di ghiaccio tra due giganti himalayani, l'Everest (8846 metri) e il Lhotse (8505). Su quel ghiaccio il 3 maggio saranno piantate le tende laboratorio di «E.A.S.T. 1997», spedizione scientifico-alpinistica del Cnr. E i fisiologi, con l'aiuto di alpinisti-cavie, daranno la caccia all'«energia invisibile». L'interrogativo è: come può l'uomo trovare la forza di affrontare una scalata oltre gli 8000 metri, oltre cioè l'altitudine che consentirebbe soltanto di sopravvivere e anche per poco tempo? I test alla «porta dell'infinito» saranno semplici, ma basilari. E verranno poi confrontati con quelli fatti prima della partenza dall'Italia, durante la spedizione e al ritorno. Al Colle Sud scienziati e alpinisti staranno due giorni, quindi gli scalatori tenteranno la salita al Lhotse senza ossigeno. Lo faranno per una via nuova, dal Colle appunto, lungo una cresta di ghiaccio e roccia che mai nessuno ha finora affrontato, sia per la pericolosità (enormi calotte pensili sul versante cinese), sia per la lunghezza. Il capo spedizione è Agostino Da Polenza, ma ci saranno anche due guide valdostane, Abele Blanc, un veterano dei progetti Cnr in Himalaya, Clavel Arnaud, e un gruppo dei Ragni di Lecco. Al Colle Sud per due giorni si sottoporranno ai test dei fisiologi: continui mini-prelievi del sangue dal lobo dell'orecchio sia in condizione di riposo sia di sforzo. I fisiologi cercano risposte dal funzionamento del cuore, dalle capacità respiratorie e dal metabolismo. Il mistero dell'energia nascosta riguarda la mancanza di ossigeno, l'ipossia cronica, dovuta appunto a una lunga permanenza a quote molto elevate. Ipossia cronica che origina anche un paradosso scientifico, conosciuto come «lactate paradox»: in quella situazione si registra una diminuzione di glicolisi anaerobica, quindi di lattato nel sangue che non dovrebbe invece verificarsi. Il lattato, cioè l'energia di cui potrebbe disporre l'alpinista, diminuisce proprio in assenza di ossigeno, tanto che in cima all'Everest il consumo di ossigeno è ridotto del 75 per cento rispetto al livello del mare. In queste condizioni come può l'uomo vivere e soprattutto faticare? L'interrogativo qualche anno fa non si poneva neppure: sopravvivenza e fatica erano considerate impossibili sull'Everest. L'impresa di Messner che nel 1975 arrivò in vetta senza ossigeno non venne creduta in un primo tempo, poi, dopo le prove inequivocabili, cominciò la ricerca. Molti test sono già stati fatti, ma a partire dal 1990 gli esperimenti sono cominciati ad alta quota. Proprio nella vallata del kumbu, quella chiusa dai massicci di Everest e Lhotse. A 5050 metri il Cnr ha costruito la piramide-laboratorio, un gioiello di tecnica medica e autosufficienza energetica. Anche in questa spedizione sarà la piramide il centro scientifico di coordinamento. Le tende del Colle Sud saranno in costante contatto. Il campo-base della spedizione è quello solito dell'Everest, a 5400 metri, accanto alla «Ice Fall», la cascata di ghiaccio come è stata battezzata l'enorme seraccata del ghiacciaio Kumbu. I test di fisiologia, oltre a tentare di svelare il mistero dell'«energia invisibile», serviranno anche per programmi alpinistici futuri. L'alpinismo ai massimi livelli dopo aver conquistato le più alte vette del mondo, adesso vuole tentare anche, a oltre 8000 metri, le concatenazioni, imprese cioè che hanno come obiettivo la salita di più vette. Proprio a maggio la «porta dell'infinito» sarà testimone di una singolare concentrazione di spedizioni. Con gli alpinisti del progetto «E.A.S. T.» ci saranno anche tre climber che si sfideranno nella traversata tra Everest e Lhotse, un'arrampicata che si svolge per almeno una giornata oltre gli 8000: Reinhard Patsheider, Simone Moro e Anatolj Bukreev. Enrico Martinet


SCIENZE FISICHE. MILANO-BRESCIA Sessanta chilometri di autostrada sottoterra? In molti Paesi del mondo sono già numerosi i concreti esempi di infrastrutture ipogee
Autore: RAVIZZA VITTORIO

ARGOMENTI: TECNOLOGIA, TRASPORTI
NOMI: DE SIMONE FERNANDO
ORGANIZZAZIONI: NOCOM, STUDIO EKO, AUTOSTRADA MILANO BRESCIA
LUOGHI: ITALIA

C'E' un progetto che a prima vista appare fantascientifico: costruire il raddoppio dell'autostrada Milano-Brescia (ormai sovraffollata) tutto sottoterra, in una galleria di 60 chilometri. In realtà si tratta di un'idea ormai molto concreta, da tempo all'esame dei tecnici e degli enti pubblici locali. Negli ultini anni la tecniche di scavo e di costruzione nel sottosuolo hanno fatto passi giganteschi divenendo economicamente convenienti per un ventaglio sempre più ampio di applicazioni. Gli esempi vengono in prevalenza dalla Norvegia, paese che ha accumulato una vasta esperienza in questo campo da quando, nel 1912, è cominciato lo scavo per la metropolitana di Oslo. Il più noto è rappresentato dalla «caverna» di Lillehammer dove per le Olimpiadi invernali del '94 è stato allestito un palazzo del ghiaccio lungo 91 metri, largo 61 e alto 25 da 6000 spettatori. Ma altre opere notevoli sono ormai sparse in tutto il paese, cone il doppio tunnel stradale di 1800 metri e sei corsie che percorre sottoterra e sott'acqua l'intero fronte a mare della capitale, o come le gallerie di Aalesund e Vigra che collegano tre isole norvegesi con una strada a 140 metri sotto il mare. Con i loro otto chilometri complessivi sono i più lunghi tunnel del genere mai costruiti al mondo, ma saranno surclassati quando sarà completato il tunnel autostradale fra Auerland e Laerdal, 24,5 chilometri, che sta per iniziare. Sono tutte opere realizzate dal gruppo industriale Nocom, che ha ormai accumulato in questo campo un ampio know-how. Oslo ha ben 10 chilometri di strade sotterranee che collegano la città alla periferia; il vantaggio è quello di eliminare dal centro le auto e il relativo inquinamento; ma la Norvegia ha ormai imparato a mettere sottoterra molte altre cose: per esempio gli inceneritori che in superficie incontrano l'opposizione delle comunità locali, gli impianti di depurazione delle acque reflue, quelli di trattamento delle acque potabili, magazzini alimentari, parcheggi, cinema, supermercati. Costruzioni sotterranee o sottomarine esistono in molti paesi europei, in Usa, in Canada. In Svizzera è allo studio una rete ferroviaria che dovrebbe correre interamente nel sottosuolo. A proporre la Milano-Brescia in sotterranea è il gruppo Nocom attraverso lo studio Eko di Padova dell'architetto Fernando De Simone. I vantaggi della soluzione in galleria, secondo i proponenti, sono molteplici: non ci sono problemi di esproprio perché il sottosuolo è libero da vincoli di proprietà, il tracciato può essere disegnato senza preoccuparsi di costruzioni preesistenti, viene eliminato alla radice il problema nebbia che nella zona è molto grave; d'altra parte la tecnologia messa a punto dalla Nocom consente l'eliminazione dei gas di scarico delle auto con una combinazione di filtri elettrostatici, camini di ventilazione e brevi tratti a cielo aperto intercalati ai più lunghi tratti in galleria. Secondo i tecnici della Nocom in Italia la tecnologia delle costruzioni sotterranee potrebbe contribuire a risolvere un gran numero di problemi: la città di Como, per esempio, sta costruendo in caverna la nuova centrale di potabilizzazione dell'acquedotto; in Liguria, regione poverissima di spazi pianeggianti, sono in corso studi per collocare in caverna, depuratori, inceneritori e grandi serbatoi di acqua prelevata durante la stagione delle piogge per utilizzarla in estate. Chi visita Genova non può non recriminare per l'oscena sopraelevata che ammazza la parte più suggestiva della città e la taglia fuori dal suo porto, cosa tanto più irritante oggi che l'antico bacino sta ridiventando un punto di attrazione formidabile con l'Acquario, le frequenti mostre ai restaurati «Magazzini del cotone» e tante altre iniziative. La città, ovviamente non potrebbe fare a meno di una strada di scorrimento veloce. Perché, dunque, non pensare seriamente a un tunnel sotto il porto? Vittorio Ravizza


SCIENZE DELLA VITA. TROPPI RUMORI IN MARE Baccani sottomarini Possibili disturbi alle specie pelagiche
Autore: LATTES COIFMANN ISABELLA

ARGOMENTI: ZOOLOGIA, MARE
NOMI: CLARK CRISTOPHER
LUOGHI: ITALIA

L'INQUINAMENTO acustico è un male dei nostri tempi. Quando si entra in una discoteca oppure si mette piede in una sala o in una piazza dove una folla di scalmanati urla a squarciagola le note emesse dagli altoparlanti a tutto volume, le persone tranquille disabituate a questo tipo di aggressione canora vengono prese da un senso di disagio. E se il rumore si mantiene a lungo al di sopra della nostra soglia uditiva, hanno dapprima una sensazione di dolore, poi rischiano addirittura la sordità. Molto meglio assistere allo stesso concerto stando comodamente seduti in poltrona davanti alla televisione in casa propria, dove si può regolare il volume della voce col telecomando] Probabilmente non ci siamo mai posti il problema. Ma, allo stesso modo come in terraferma, l'inquinamento acustico va aumentando dovunque. Anche nel mare. L'immenso dominio acquatico che abbiamo sempre considerato come un mondo a sè, capace di assorbire per le sue fantastiche dimensioni anche le scorie della nostra civiltà, è sottoposto ad un bombardamento di rumori sempre crescente. L'aumentato traffico commerciale di navi di tutti i tipi, le esplosioni per la ricerca delle fonti petrolifere sottomarine, gli impianti di trivellazione, sono tutti elementi di disturbo, di cui non siamo in grado di valutare la portata, per gli organismi che vivono nel mare. Come se non bastasse, ci si mettono anche gli scienziati con il progettato «termometro acustico dei climi oceanici» che dovrebbe monitorare le temperature oceaniche registrando il tempo che impiegherebbe un forte suono appositamente prodotto per attraversare il Pacifico. Non è affatto escluso che tutti questi rumori possano interferire nella ricerca del cibo, nella crescita o nella migrazione di molti animali marini. Quel che sappiamo di certo è che gli animali acquatici della stessa specie, per lontani che siano, dialogano tra loro. Si scambiano messaggi per mantenere i contatti tra i vari membri del branco. E' finita da un pezzo l'epoca in cui il mare veniva chiamato il mondo del silenzio. Quando gli studiosi immersero per la prima volta un idrofono nelle acque azzurrine dell'oceano, questo apparecchio capace di captare i suoni subacquei, registrò un'incredibile varietà di voci, mugghii, ronzii, grugniti e canti. Parlano molti pesci, ma i più loquaci di tutti sono senza dubbio i cetacei. Cristopher W. Clark, uno dei maggiori esperti di comunicazione acustica dei cetacei, ha studiato in particolare la voce della balena boreale (Balaena mysticetus), la più ciarliera della famiglia dopo le megattere, e ha scoperto che questo gigante del mare, lungo quasi venti metri, possiede un repertorio musicale straordinariamente complesso. La sua voce abbraccia nientemeno che sette ottave. E' ben misera cosa al confronto la nostra che si estende solo per un'ottava o poco più. Le balene boreali trascorrono i mesi più rigidi dell'anno nel Mare di Bering. Sul finire dell'inverno, si spostano lungo la costa orientale del Mare dei Ciukchi, passano attraverso i ghiacci al largo della Punta Barrow, in Alaska e raggiungono il mare di Beaufort, a circa milleottocento miglia dal punto di partenza. Ma questa migrazione si svolge in un mondo di ghiacci dove la visibilità è ridotta al minimo, soprattutto durante la lunghissima notte artica. Ed è naturale che in un ambiente simile l'unico mezzo per mantenersi a contatto sia la voce. I suoni si propagano nell'acqua cinque volte più rapidamente che nell'aria. Ed è questo il motivo per cui i richiami delle balene si diffondono in un tempo record a centinaia di chilometri di distanza. Tutto questo succede da milioni di anni. Ed è probabile che i canti delle balene si siano evoluti nel tempo proprio perché potevano diffondersi in spazi immensi ancora incontaminati. Anche quando la specie umana compare sulla terra, le cose rimangono più o meno invariate. Ma è negli ultimi anni, con lo sviluppo frenetico della tecnologia che la situazione cambia di colpo. Cosa succede infatti, da qualche tempo, nelle zone dell'oceano attraversate da un continuo flusso di navi commerciali? Il forte rumore delle petroliere e delle pesanti navi portacontainer, compreso dai trenta ai duecento hertz, è un rombo a bassa frequenza paragonabile a quello che si estende dalla nota più bassa del pianoforte al medio registro di un violoncello. E' soprattutto nell'emisfero settentrionale che il traffico è aumentato portando il livello del rumore dai 75 agli 85 decibel. Quale effetto può produrre nei cetacei questa accresciuta rumorosità del loro habitat? Probabimente ne risentono meno gli odontoceti, cioè i cetacei provvisti di denti come i delfini o le orche. Ma la maggior parte delle altre balene (misticeti) è probabile sia più sensibile alle basse frequenze e quindi ai rumori di disturbo prodotti dall'uomo. C'è da domandarsi se con l'interferenza di questi forti rumori le balene riescano ancora a recepire i messaggi che i loro compagni lanciano da lontano. E nella stagione riproduttiva si tratta di segnali della massima importanza per la riproduzione della specie. Si tratta infatti di richiami sessuali che servono a facilitare l'incontro tra i partner. Sta di fatto che mentre la popolazione della balena franca australe aumenta ogni anno dal cinque al sette per cento, quella della balena franca boreale aumenta soltanto dell'un per cento. A queste preoccupazioni se ne aggiunge ora una molto più grave. La Marina statunitense ha in programma un nuovissimo sistema sonar capace di individuare i sottomarini nemici. Un sistema terrificante che sottoporrebbe i cetacei ad un inquinamento acustico miliardi di volte (sic) superiore a quello attuale. Naturalmente un ordigno del genere danneggerebbe in modo imprevedibile anche moltissime altre specie marine. Per fortuna il progetto è stato per ora bloccato e la parola decisiva sulla sua attuazione spetterà agli ambientalisti. Isabella Lattes Coifmann


SCIENZE DELLA VITA. ANCORA SUL GENE DELL'OBESITA' I ciccioni e la termogenesi Se cala il calore corporeo aumenta il grasso
Autore: COHEN ESTER

ARGOMENTI: GENETICA, RICERCA SCIENTIFICA
NOMI: RICQUIER DANIEL, WARDEN CRAIG
LUOGHI: ITALIA

IINGRASSARE o dimagrire pare non sia più tanto una faccenda di diete. Già un paio d'anni fa la scoperta del «gene dell'obesità», aveva sollevato molti, se non dai chili in eccesso, almeno dai sensi di colpa, addossando le responsabilità al bagaglio genetico ereditato. Adesso una equipe di ricercatori francesi e americani ha scovato un altro gene che produce una proteina in grado di «bruciare» i grassi. Questo spiegherebbe perché ci sono persone che possono mangiare a sazietà restando invidiabilmente snelle e altre che aumentano le rotondità pur tirando avanti a insalate scondite. «Da tempo conoscevamo l'esistenza dell'Upc1 - dice Daniel Ricquier dell'Istituto di Endocrinologia Molecolare del Centro nazionale delle ricerche scientifiche di Parigi che ha condotto la ricerca in collaborazione con Craig H. Warden della Davis University in California -, un gene che nei mitocondri, cioè negli organi cellulari preposti agli scambi energetici, gioca un importante ruolo nel metabolismo degli zuccheri e nella regolazione della temperatura corporea: in pratica del consumo di calorie. Ma curiosamente l'Upc1 si trova soltanto nel grasso bruno, un tipo di tessuto adiposo praticamente assente nell'uomo adulto». Nel corpo umano vi sono infatti tre tipi di grasso: quello «strutturale» che fa parte integrante di membrane e organi cellulari, quello bianco, riserva energetica che nelle persone di peso normale dovrebbe costituire circa il dieci per cento del peso corporeo, e quello bruno, capace di bruciare velocemente trasformandosi in calore che però si trova soltanto nel neonato, intorno alle scapole, per difenderlo dal freddo, e negli animali che vanno in letargo e che se ne servono al risveglio dopo un inverno di digiuno. «Il mio laboratorio - racconta Ricquier - studiava da anni il grasso bruno. Come mai, ci siamo domandati, se l'adulto ne è privo, alcuni di noi "bruciano" di più mentre altri ingrassano anche se sono a dieta? Ci doveva pur essere qualcosa di simile all'Upc1 del grasso bruno ma questa volta presente in tutti i tessuti». Anche per gli organismi viventi vale la prima legge della termodinamica secondo la quale non viene creata nè distrutta energia nei vari passaggi del metabolismo. Ciò che mangiamo viene scomposto e assorbito nell'apparato digerente. Entrato in circolo raggiunge le cellule dove viene in parte usato subito e trasformato in calore e in parte viene immagazzinato come grasso. Nel corpo umano dunque, la produzione di calore proviene dall'alimentazione, dalla contrazione muscolare, quella che ci fa sentire caldo durante uno sforzo fisico, e dagli ormoni: uno spavento ci fa sudare perché abbiamo una scarica di adrenalina che è appunto un ormone surrenale. C'è poi una regolazione «superiore» del cervello, a livello ipotalamico, che modula il tutto, per esempio attraverso i centri della fame e della sazietà. Si perde invece calore con la traspirazione, attraverso le vie respiratorie e persino con le feci e l'urina. E' questo «bilancio termico» a far sì che abbiamo una temperatura corporea costante. E solo grazie a questa, frutto di un raffinatissimo processo acquisito dagli animali a sangue caldo e dall'uomo durante l'evoluzione, che possono avere luogo tutti gli scambi biochimici alla base della vita. Già nel 1783 Lavoisier e Laplace avevano capito che la bilancia energetica dipendeva dal rapporto fra assunzione di cibo e spesa energetica, e avevano collegato il fatto che ci fossero persone più grasse di altre a una sua alterazione. Dal secolo dei Lumi alla scoperta del Dna, che ha permesso un approccio ereditario al problema, sono state formulate diverse ipotesi: che sia la temperatura interna a regolare il peso corporeo e l'accumulo dei grassi; che sia invece la quantità di zuccheri assunti, ovvero la glicemia; che sia, infine, il cervello stesso a dirigere il traffico, in base a segnali ricevuti dal tessuto adiposo. Nel 1995 il laboratorio del dottor Jeffrey Friedman della Rockefeller University di New York ha individuato sul ratto il gene OB che porta le istruzioni per una proteina, la leptina, una sorta di ormone implicato nella formazione delle cellule adipose. Il livello di attività di questo gene era molto più alto nei ratti obesi. Un gene OB è stato isolato anche negli umani ma resta ancora da dimostrare che sia presente in tutti i membri di famiglie con obesità ricorrente e che sia assente in chi non è obeso. Anche se si riuscisse a provarlo non è ancora detto che sia un solo gene a provocare la malattia e non piuttosto, come si è già visto per altre patologie, un pool di geni in collaborazione. In questa direzione andrebbe la scoperta dell'Upc2, testato sia nei ratti obesi sia in quelli resistenti alle diete ricche di grassi, dove ha mostrato una notevole influenza nella regolazione del peso corporeo. «L'Upc2 - continua Ricquier - è per il 59 per cento identico all'Upc1 del grasso bruno ma si trova in gran parte dei tessuti umani dell'adulto compresi quelli del sistema immunitario: siccome nei processi infettivi e infiammatori si ha rialzo termico, non è escluso che i nostri studi possano dare un nuovo indirizzo anche in questo senso. Abbiamo localizzato il gene sul cromosoma 7 del topo e nell'uomo sull'11, cromosomi già peraltro collegati a obesità e diabete. Noi riteniamo che l'Upc2 agisca regolando la termogenesi e quindi la quantità di grasso bruciato». «E' stato provato che quando la produzione di calore viene diminuita gradualmente, anche soltanto dell'uno per cento nel corso di un anno, il soggetto ingrassa, a parità di dieta, di tre chili. Intorno alla possibilità di regolare la termogenesi, dunque, modulando l'attività dell'Upc2 - conclude Ricquier - noi pensiamo si aprano nuove prospettive. Non solo nella lotta all'obesità, al diabete e alle malattie infiammatorie ma più in generale per tutti i problemi di inestetico e poco salubre sovrappeso: per questo siamo già subissati da richieste delle maggiori multinazionali farmaceutiche». Ester Cohen


SCIENZE A SCUOLA. FISICA Inedite trasmissioni termiche
Autore: CARTELLI FEDERICO

ARGOMENTI: FISICA
NOMI: REGGIANI LINO
ORGANIZZAZIONI: UNIVERSITA' DI LECCE
LUOGHI: ITALIA, EUROPA, ITALIA, LECCE (LE)

NEL campo della struttura della materia, importante scoperta di un gruppo di ricercatori della facoltà di ingegneria dell'Università di Lecce: esiste un materiale che possiede proprietà di conduzione del calore non dipendenti dalla natura del materiale stesso nè alla sua forma, ma dipendenti solo dalla temperatura. La ricerca rientra nello studio del comportamento delle particelle più piccole (gas di elettroni) all'interno della materia. La tendenza a miniaturizzare i dispositivi elettronici, sino a raggiungere dimensioni di milionesimi di millimetro è ormai una costante della ricerca scientifica e tecnologica attuale: si pensi alla commercializzazione di calcolatori sempre più veloci e potenti e di strumenti di telecomunicazione rapidi e sofisticati. La scoperta dei ricercatori dell'Università di Lecce, guidati da Lino Reggiani, docente di Struttura della materia, e membro dell'Istituto nazionale di fisica della materia, consiste nella determinazione di una unità fondamentale di conduttanza termica di un gas di elettroni. La conduttanza termica rappresenta la proprietà di un sistema a condurre calore quando viene sottoposto ad una certa gradazione di temperatura. La quale, come per quella elettrica, assume un'importanza primaria per caratterizzare le proprietà di un materiale. Ad una certa temperatura infatti, in condizioni macroscopiche, la proprietà di conduzione di calore dipende sia dal tipo di materiale sia dalla sua forma geometrica. Questo, sappiamo ora, non è più vero in condizioni sub-microscopiche: la conduttanza termica diventa indipendente dal materiale e anche dalla sua forma. La definizione di una unità fondamentale di conduttanza termica, oltre alle implicazioni scientifiche di base, apre interessanti prospettive nel campo della metrologia (disciplina che riguarda la scienza della misura). Se ne è già avuto un riscontro sperimentale in alcune misure effettuate nei laboratori della Philips, la multinazionale olandese di Eindhoven. L'importanza della scoperta è paragonabile a quella del fisico polacco Klaus Von Klitzing. Viene infatti confermata ed estesa alla termodinamica, la validità di ciò che fu ottenuto nel 1980 da Von Klitzing per la conduttanza elettrica, sempre in condizioni sub-microscopiche. Il fisico polacco (premiato con il Nobel) era stato l'artefice della scoperta del cosiddetto effetto Hall quantistico, associato alla variazione della conducibilità elettrica in presenza di un campo magnetico. E' nella fisica dei quanti che i comportamenti degli elettroni si rivelano spesso del tutto diversi da quelli che si manifestano in condizioni normali. Federico Cartelli


SCIENZE A SCUOLA. COME NUTRIRSI BENE L'amido? Molto meglio dello zucchero Un carboidrato complesso associato a fibre, proteine, sali
Autore: CARDANO CARLA

ARGOMENTI: ALIMENTAZIONE
LUOGHI: ITALIA

OGGI leggiamo sui prodotti alimentari tabelle nutrizionali sempre più particolareggiate, che sono andate affermandosi di pari passo con la comparsa sul mercato di molti cibi «nuovi». Può sembrare un'impresa faticosa acquistare qualcosa non alla cieca, considerando ormai doverosa la lettura delle quasi onnipresenti tabelle e la molteplicità delle offerte. Per orientarsi fra i tanti prodotti in vendita è utile pensare allora come prima cosa (faremo in seguito un'analisi più dettagliata) all'ingrediente comune di cui sono fatti: così la pasta e il pane derivano dalla farina e questa dal grano, e ciò vale anche per moltissimi altri cibi che oggi si presentano sotto mille forme diverse. Uno sguardo a partire dal lontano passato fino ai nostri giorni ci indica poi nel grano e nei cereali in genere la più diffusa ed economica fonte di prodotti alimentari a ruolo energetico, per le loro caratteristiche di adattamento ambientale in climi diversi, facile conservazione dei semi ecc. Frumento, riso, mais sono stati e sono infatti alla base dell'alimentazione di quasi tutti i popoli. Ma esistono in natura numerose altre strutture vegetali di cui è evidente la funzione di riserva: così, oltre ai semi dei cereali, abbiamo i piselli, i fagioli e gli altri legumi, poi le castagne, le banane e i fusti sotterranei come i tuberi di varie piante, prima fra tutte la patata. Tutti questi prodotti contengono lo stesso principio nutritivo in quantità molto abbondante: si tratta di un carboidrato complesso chiamato amido. L'amido è una molecola di grandi dimensioni tipicamente sintetizzata dagli organismi vegetali a partire da molecole di glucosio (zucchero semplice), che vengono unite insieme un po' come le perle di una collana; ci si può domandare quale vantaggio esso presenti per la pianta, rispetto al glucosio, come sostanza di riserva, essendo di gran lunga più diffuso: esso è, per così dire, una sostanza «disidratata», visto che per ogni unità di glucosio aggiunta alla «collana» viene eliminata una molecola d'acqua. Ciò comporta una minore massa rispetto alle unità di glucosio libere, cosa di notevole importanza per la vita della pianta in certe circostanze; si pensi ad esempio ai semi che devono essere trasportati lontano. Quale ruolo ha invece l'amido nella nostra alimentazione? Come già detto, esso è una sostanza che fornisce energia; ma questo si può dire anche degli zuccheri semplici. Perché allora non lasciare che i più golosi sostituiscano tranquillamente il pane con lo zucchero filato o la pasta con i pasticcini? Si ritiene per varie ragioni che i cibi ricchi di amido siano quasi sempre da preferire a quelli ricchi di zuccheri. In primo luogo la digestione dell'amido, molto più lenta, oltre a mantenere a lungo il senso di sazietà, permette un controllo più facile sulla concentrazione di glucosio nel sangue (glicemia) da parte dell'organismo. Per di più l'amido è associato già in natura ad altri principi nutritivi come fibre, proteine, vitamine e sali minerali, circostanza, questa, che si verifica molto di rado per gli zuccheri semplici. Infine l'azione di questi ultimi sui denti sembra davvero essere più deleteria. Pare infatti che i batteri coinvolti nell'origine della carie si mostrino molto più propensi a entrare in azione quando c'è dello zucchero disponibile. E allora, che cosa aspettiamo? Bando alle caramelle e gustiamoci un bel piatto di pasta, o, perché no, una pizza al pomodoro] Carla Cardano


SCIENZE A SCUOLA LE PAROLE DELL'INFORMATICA «A»
Autore: MEO ANGELO RAFFAELE, PEIRETTI FEDERICO

ARGOMENTI: INFORMATICA
LUOGHI: ITALIA

Assembler. L'assembler è un linguaggio di programmazione molto simile, come struttura, al linguaggio di macchina, ossia a quel linguaggio composto da due soli simboli, 0 e 1, che i calcolatori sono in grado di interpretare ed eseguire. I programmatori dei calcolatori delle prime generazioni, nella seconda metà degli Anni 40 e nella prima metà degli Anni 50 scrivevano i loro programmi esattamente nel linguaggio di macchina, con un'istruzione per ogni operazione elementare che si voleva eseguire, adottando esattamente il codice binario specifico della macchina per la quale lavoravano. Ma si comprese ben presto che occorrevano strumenti opportuni per ridurre la noia e il tasso di errore, e soprattutto per accrescere la produttività dei programmatori. Il linguaggio di assemblaggio o assembler fu il primo di questi strumenti. Adottando l'assembler, il programmatore deve ancora scrivere tante istruzioni quante sono le operazioni elementari che il calcolatore deve eseguire, nell'ordine in cui dovranno essere eseguite. Vi è quindi una corrispondenza esatta, «uno a uno», fra le istruzioni del programma assembler e le istruzioni del programma di macchina. Ma il programmatore non è più costretto a ricordare i codici di tutte le istruzioni, e può utilizzare codici-alfabetico- mnemonici, scrivendo, ad esempio, ADD anziché 0101, o SUB anziché 0111, e così via. Analogamente, per indicare una delle unità di memoria fondamentali, il «registro», può scrivere Regc, come «registro C», anziché il codice binario del registro stesso. In secondo lungo, il programmatore non è più costretto a ricordare in quali celle della memoria centrale sono allocate le singole variabili, ma può utilizzare, per le stesse variabili, nomi simbolici da lui stesso definiti. Poiché il calcolatore può interpretare soltanto il inguaggio di macchina, il programma scritto in assembler deve essere tradotto nello stesso linguaggio di macchina da un opportuno programma traduttore, chiamato anch'esso assembler o «assemblatore». Così la stessa parola indica sia il linguaggio che lo strumento per la traduzione del linguaggio. Il limite dell'assembler, che richiede la scrittura di una istruzione per ogni operazione elementare, venne superato con l'avvento dei lin guaggi ad alto livello come il Basic, il Pascal, l'Algol o il Fortran. Benché la programmazione in assembler sia più difficile e onerosa della programmazione nei linguaggi ad alto livello, questo linguaggio si utilizza ancora oggi per realizzare piccoli moduli software, in virtù del fatto che il programma generato da un assemblatore è più piccolo e veloce di quello prodotto con un linguaggio ad alto livello.


SCIENZE A SCUOLA. IL VOLO A PROPULSIONE UMANA Pedalando tra le nuvole Il sogno di Icaro realizzato grazie a materiali ultraleggeri
LUOGHI: ITALIA
TABELLE: D. Struttura e funzionamento dell'aereo «Dedalus»

Nel 1988 questo aereo, chiamato 'Dedalus', volò per 118 chilometri da Creta a Santorino, nel Mar Egeo, ad una velocità media di 29,6 chilometri l'ora. La sola fonte di energia era fornita dal pilota stesso, che fece girare l'elica pedalando senza mai smettere per quattro ore. In tal modo è stato stabilito il record di distanza per il volo a propulsione umana fino ad ora imbattuto. La difficoltà del volo a propulsione umana è data dalla impossibilità di disporre di sufficiente energia per lungo tempo. Infatti il corpo umano può fornire al massimo un apporto di energia di 225 watt. (Nel 1903 il motore a scoppio usato dai fratelli Wright per il primo volo della storia forniva 10 mila watt e non pesava più di un corpo umano). Il volo a propulsione umana è stato reso possibile dai nuovi materiali ultraleggeri, tuttavia resta ancora molto lontano dall'essere comunemente praticabile. Un'ala molto allungata consente di decollare ad una velocità molto bassa (circa 6,4 chilometri l'ora) ma inevitabilmente un velivolo di questo genere sarà sballottato anche dal più lieve soffio di vento. Un'ala di dimensioni minori sarebbe più robusta ma richiederebbe maggiore potenza. Per il volo del record il team che ha costruito il 'Dedalus' fu costretto a restare a Creta per un mese in attesa che il tempo fosse sufficientemente stabile da consentire il tentativo. Le ali sono costruite in schiuma di stirene e legno di balsa ricoperti da una pellicola di mylar intorno a un longherone principale di fibra di carbonio. Anche il timone è fatto di fibra di carbonio per mantenere basso il peso. Il pilota (un ciclista di livello mondiale) ha entrambi i piedi assicurati ai pedali e giace quasi sdraiato all'interno di una cabina progettata per offrire la minima reistenza all'aria. A disposizione ha gli strumenti che gli indicano la velocità e la quota di volo. Il passo dell'elica può essere variato in modo da mantenere in ogni istante il migliore ritmo di pedalata. Anche un 'motorè unano produce calore; per questo motivo un'apertura al disotto dell'ala aspira aria fresca. A bordo è collocata una riserva di sei litri di soluzione salina-zuccherina per evitare che il pedalatore si disidrati durante l'intensa e lunga fatica. 1. Cloche posta lateralmente: serve a manovrare il timone e gli impennaggi 2. Puleggia del timone 3. Puleggia degli impennaggi 4. Leva per variare il passo dell'elica 5. All'elica 6. Indicatore della velocità e della quota 7. Pedali in tubolare fissati mediante una fibbia a forma di C alle scarpe del pilota 8. Due contenitori posti su ambedue i lati della cabina per sei bottiglie da un litro di soluzione salina-zuccherina 9. Peso totale a vuoto del velivolo: 32 chilogrammi 10. Indicatore della velocità 11. Elichetta di balsa 12. Longherone della fusoliera 13. Cavo collegante gli strumenti di controllo in cabina 14. Pilone in balsa 15. Magneti 16. Ad ogni giro dell'elichetta i magneti emettono impulsi elettrici mediante i quali viene misurata la velocità 17. Diametro dell'elica: 3,44 metri; velocità di rotazione: 108 giri/minuto 18. Presa d'aria per dare al pilota una temperatura confortevole 19. Ciclista professionista: energia espressa 200 watt 20. Superficie delle ali 31 metri quadrati; apertura alare 34 metri


SCIENZE DELLA VITA. BIOLOGIA MOLECOLARE Nuove cure dell'angiogenesi Cuore: le ricerche sulla circolazione collaterale
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, BIOLOGIA
NOMI: LEVI MONTALCINI RITA
LUOGHI: ITALIA

IN caso di grave diminuzione dell'afflusso di sangue in un organo, per esempio nel miocardio (la parte muscolare del cuore), esiste la possibilità che per reazione nasca una circolazione collaterale, ossia una nuova rete di vasi sanguigni, compensante almeno in parte il deficit. A proposito dello sviluppo di questo tipo di circolazione si parla di «angiogenesi», generazione di vasi (dal greco angeion, vaso). L'angiogenesi ha inizio dall'endotelio, la membrana sottile che riveste internamente i vasi sanguigni: le cellule endoteliali migrano dai vasi esistenti verso la zona priva di sangue e vanno a formare nuovi vasi sanguigni. Oggi sappiamo che l'angiogenesi dipende da fattori di crescita, Growth Factors, il primo dei quali, Nerve Growth Factor (fattore di crescita nervosa), fu scoperto nel 1952 da Rita Levi Montalcini, premiata col Nobel. Attualmente si conoscono oltre una cinquantina di fattori di crescita, proteine aventi la proprietà di stimolare la moltiplicazione e la differenziazione di determinate cellule. Per ogni tipo di cellula esistono uno o più fattori di crescita. Nel caso dei vasi sanguigni i principali sono indicati con le sigle bFGF e VEGF. Le tecniche di biologia molecolare hanno reso possibile la produzione di fattori di crescita in laboratorio. Per esempio il gene che codifica VEGF, una volta clonato, può essere inserito nel genoma d'un batterio, Esterichia coli, il quale si metterà a produrre VEGF in grande quantità. A questo punto il fattore di crescita diviene potenzialmente utilizzabile come agente terapeutico. Vi è ormai un'abbondante bibliografia sulla somministrazione dei fattori di crescita dell'angiogenesi. In parecchie specie animali quali topi, conigli, cani, suini, si è osservato con tale somministrazione un aumento del numero dei vasi sanguigni supplenti. In alternativa, essendo molto breve la vita dei fattori di crescita somministrati per via endovenosa, si può ricorrere alla somministrazione dei geni che li codificano, realizzando così una terapia genica. Ma ormai si ha già qualcosa di più delle esperienze animali. Uno studio clinico sullo sviluppo della circolazione collaterale mediante trasferimento del gene di VEGF nella parete delle arterie ha avuto inizio negli Usa nel dicembre del 1994, e i risultati nei primi pazienti sono stati riferiti da J. M. Isner, A. Pieczek, R. Schainfeld e altri su Lancet, 1996. Questo tipo di ricerche è in via di sviluppo. Il punto essenziale sarà la messa a punto di trattamenti selettivi favorenti lo sviluppo della circolazione là dove è indicato (miocardio, arti inferiori). Infine, accanto allo sviluppo della circolazione collaterale, potrebbero sorgere altre applicazioni di questa «angiogenesi terapeutica», per esempio nel decorso post-operatorio di interventi sulle arterie. I fattori di crescita dei vasi sanguigni stanno dunque per debuttare nell'uomo e dovrebbero avere un avvenire di importanti applicazioni. Ulrico di Aichelburg




La Stampa Sommario Registrazioni Tornén Maldobrìe I3LGP Scrivi Inizio