TUTTOSCIENZE 24 gennaio 96


SGUARDO AL FUTURO REMOTO Il computer cosmico Ecco l'estrema frontiera informatica
AUTORE: CHIESA GIULIETTO
ARGOMENTI: INFORMATICA, ELETTRONICA, MATEMATICA, TECNOLOGIA
PERSONE: AKIMOV ANATOLIJ
NOMI: SHIPOV GHENNADIJ, AKIMOV ANATOLIJ
LUOGHI: ITALIA

RIVOLUZIONE informatica, autostrade elettroniche, computer sempre più potenti, chip sempre più complessi, Internet. Gli ultimi anni hanno cambiato il panorama della nostra vita, dalla produzione all'intrattenimento fino alla struttura della società. E siamo solo all'inizio di sconvolgenti mutazioni, destinate a travolgere tutte le nostre abitudini. Avverranno nei prossimi venticinque anni, e alcune sono facilmente prevedibili o addirittura già in corso. Sparirà la carta, sostituita da impalpabili bit, i giornali li leggeremo sugli schermi e li comporremo noi a nostro piacimento, attingeremo alle banche dati di ogni angolo del mondo. Avremo tutte le informazioni in tempo reale, il villaggio globale sarà un fatto compiuto. Lasciamo da parte le conseguenze, i problemi che ciò indurrà e sta già inducendo. La questione più grossa è un'altra. Ci abitueremo a ritmi di crescita esponenziali? E cosa accadrebbe se, a un certo punto, tutto ciò si fermasse? Già, perché questo progresso ha un limite superiore, invalicabile. Le prime macchine di calcolo elettroniche, una trentina di anni fa, avevano valvole di dimensioni dell'ordine di 10 centimetri e un tempo di commutazione di 10 elevato alla -8 secondi. E poiché la potenza di un computer (misurabile come la quantità di possibili commutazioni nell'unità di tempo) è inversamente proporzionale al tempo di commutazione e al cubo della dimensione del commutatore, essa era dell'ordine di grandezza M = 10 alla 5. Poi sono arrivati i transistor, i circuiti integrati e i processi fotografici per stampare i circuiti. Le dimensioni dei commutatori si sono ridotte vertiginosamente. Oggi lo spazio di un centimetro cubo può contenere milioni e milioni di funzioni. E la potenza degli attuali computer è salita a 10 alla 20 (cento miliardi di miliardi) commutazioni al secondo. Il balzo in avanti della nostra civiltà sta tutto in questa cifra. Una accelerazione pazzesca, che l'umanità fatica ancora a percepire. Per ora ne stiamo usando una minima parte e ci vorrà ancora qualche tempo perché la cascata di conseguenze su tutte le tecnologie, nessuna esclusa, si riversi su di noi, con effetti benefici e/o tragici, vedremo. Ma la vera questione è ancora un'altra. Ed è che davanti a noi si erge un muro invalicabile. Le tecniche di miniaturizzazione ci hanno portato al confine dell'elettrodinamica quantistica. Possiamo pensare di scendere ancora di un fattore 10. 000 nell'infinitesimamente piccolo e immaginare che la potenza dei nostri futuri computer salga ancora fino a 10 alla 25. Ma come andare oltre? Con le nostre conoscenze attuali non si può, perché siamo ormai a dimensioni atomiche e subatomiche. Le quali sono caratterizzate dalla massa e dalla carica dell'elettrone. A queste dimensioni i comportamenti delle particelle non sono più descrivibili in termini di elettrodinamica classica. Qui l'elettrone si presenta sotto nuova veste, come particella quantistica. E anche il tempo dei suoi movimenti è regolato dalle equazioni dell'elettrodinamica quantistica. L'elettronica molecolare si ferma qui: teoricamente la massima potenza di un computer, per questa via, non può superare M = 10 alla 28. Si può scandagliare un altro possibile percorso: per giungere a un mezzo di calcolo basato sui processi fotonici (fibre ottiche). Il fotone è una particella senza massa che viaggia alla velocità della luce. A prima vista un commutatore fotonico dovrebbe consentire un enorme accrescimento della potenza di calcolo. Ma le stesse leggi quantistiche che ostacolano lo sviluppo della elettronica molecolare si ripresentano anche in questo caso. Infatti la dimensione minima dell'elemento fotone è data dalla sua lunghezza d'onda (nella banda visibile L = 0,5x10 alla -4 centimetri). Il tempo d'azione è L/c (dove c rappresenta la velocità della luce). Un calcolo semplice dice che, anche per questa via, la potenza massima teorica del computer fotonico si fermerebbe a M = 10 alla 28. Lo stesso numero magico. In realtà pensare a una potenza di calcolo di questo ordine di grandezza è cosa priva di senso fisico anche nell'ambito della teoria quantistica, poiché è noto che ogni osservazione su un oggetto quantistico provoca inevitabilmente una modificazione dello stato che si vuole determinare, e questa modificazione è tanto più cospicua quanto più ci si avvicina al limite quantistico. Dunque la nostra civiltà (e tecnologia) avrebbe un tetto superiore, oltre il quale non potrà spingersi? Forse. Ma affacciarsi oltre fa venire le vertigini. Ne parlo con Anatolij Akimov, uno dei fisici matematici del Centro di Tecnologie non convenzionali di Mosca, collaboratore autorevole del fisico teorico Ghennadij Shipov. «Certo, nell'ambito dei paradigmi teorici di cui disponiamo non possiamo andare oltre - dice Akimov - ma la teoria quantistica è ancora largamente imperfetta. I suoi postulati sono ancora quelli su cui disputarono Bohr e Einstein». Ma Akimov e Shipov avanzano un'ipotesi, nata dallo sviluppo, da essi tentato, delle equazioni del vuoto di Einstein, dalla geometrodinamica di Wheeler e dalle intuizioni del matematico britannico Roger Penrose. «Esistono oggi le premesse per una teoria unificata del campo (TUC) - continua Akimov - che permetterebbe di individuare una base comune all'origine delle quattro forme d'interazione fisica oggi note: elettromagnetica, gravitazionale, nucleare forte e nucleare debole. Secondo le equazioni di Shipov la dimensione fondamentale caratteristica della TUC è la lunghezza di Planck: L=1,6x10 alla -33 centimetri. La corrispondente potenza di calcolo del computer teorico sarebbe assolutamente fantastica, da altra civiltà, cioè M=L/c=10 alla 142. Valutare il significato di questa potenza è difficile, poiché ai limiti della lunghezza di Planck perdono di significato sia il concetto di tempo che quello di spazio. Non ci sono nell'intero universo tante particelle elementari quante ne raffigura questa cifra e dalla nascita dell'universo (il big-bang) non sono ancora trascorsi tanti microsecondi». Sì, davvero vengono le vertigini, ma anche le domande si affollano. Siamo nella fantascienza pura, nell'aldilà da venire e che forse non verrà mai, nell'inconcepibile? «Meno di quanto sembri, anche se la risposta giusta è proprio questa: inconcepibile. Ma l'ipotesi è tutt'altro che campata in aria. Dalle equazioni di Shipov emerge un nuovo campo, il campo di torsione. E uno spazio non più quadridimensionale (tre dimensioni euclidee più il tempo) ma a dieci dimensioni, cioè con l'aggiunta di sei coordinate angolari per determinare l'orientamento dei punti dello spazio-tempo...». Bene, ma che rapporto c'è tra questo e il supercomputer della lunghezza di Planck? Akimov sorride con aria misteriosa. «Abbiamo già un cospicuo apparato sperimentale che dimostra un rapporto (di natura ancora da chiarire) tra torsione e attività biologica. Il centro del ragionamento è lo spin, il momento angolare delle particelle elementari. La sorgente del campo di torsione è la rotazione dei sistemi di particelle, cioè l'insieme dei momenti angolari che variano. Ciò riguarda tutte le particelle elementari, ivi incluse, ovviamente, quelle che compongono le molecole delle nostre cellule. Pensiamo ora alle cellule del nostro cervello, in particolare i neuroni e le loro sterminate reti. Mutamenti nel campo di torsione indurrebbero modificazioni fisiche nello stato dei gradi di libertà degli spin delle molecole, che si tradurrebbero in determinate configurazioni (pensieri, sensazioni) della coscienza...» . I campi di torsione sarebbero dunque il sostrato materiale della coscienza? «Press'a poco, ma non soltanto. C'è anche un viceversa. I processi biochimici connessi con la coscienza, o attività intellettuale (e emotiva) in senso lato, creerebbero a loro volta determinate configurazioni delle strutture di spin, le quali indurrebbero variazioni di stato nella struttura del campo di torsione esterno. In altri termini l'individuo (la sostanza vivente) sarebbe intimamente connesso con il resto dell'universo, soggetto alle sue influenze globali ma anche in grado di modificarlo mentalmente. Tra l'altro c'è più d'un motivo per ritenere che la velocità di diffusione del campo di torsione sia di molti ordini di grandezza superiore alla velocità della luce. Cioè la connessione sarebbe, per così dire, istantanea, a prescindere dalla distanza». Vuol dire che un computer torsionale sarebbe qualcosa di connettibile con la coscienza dell'uomo? «Più o meno, ma è così. Certo dovremmo disporre di una tecnologia della torsione, nella quale stiamo muovendo solo i primi passi. Gli attuali computer hanno come base i chip, semiconduttori; quello torsionale sarebbe composto di campi. I problemi da risolvere sarebbero due: quello di strutturare e dominare un determinato volume di spazio, controllandone le situazioni metastabili di polarizzazione. E quello di realizzare un dialogo tra l'operatore e una tale struttura di calcolo. Ma sarebbe la coscienza dell'operatore a consentire l'accesso al processore, senza alcuna periferica di collegamento. Il primo dei due problemi è in linea di principio risolvibile. Il secondo richiede un individuo molto diverso da quello attuale». Ci fermiamo qui, affacciati sull'abisso dell'ordine di grandezza 10 alla 142. L'uomo del terzo millennio non è ancora pronto ad affrontare tutte le conseguenze di questa ipotesi. Giulietto Chiesa


RIABILITATO L'OVIRAPTOR Tenera mamma dinosauro Covava le sue uova in un mega-nido
Autore: BOZZI MARIA LUISA

ARGOMENTI: PALEONTOLOGIA, RITROVAMENTO
NOMI: BAKKER ROBERT
ORGANIZZAZIONI: NATURE
LUOGHI: ITALIA

AVEVA una brutta fama, Oviraptor, fra i dinosauri, come razziatore di uova in nidi momentaneamente incustoditi di pacifici erbivori. Finché il deserto di Gobi, lo scrigno dal quale fossili inverosimili emergono come gemme preziose, non ci ha fornito la prova che ne ha ribaltato l'immagine. Oviraptor non mangiava le uova, le covava! Eccolo infatti inequivocabilmente seduto sul nido nella classica posa della cova che hanno gli uccelli, le zampe piegate e parallele sotto l'addome, le uova disposte tutte attorno e gli arti anteriori rivolti all'indietro a circondarle. Forse la femmina è stata sorpresa da una forte tempesta che l'ha seppellita sotto la sabbia mentre deponeva le uova; oppure la deposizione era ormai avvenuta (le uova, di cui 15 visibili, erano forse 22) e un genitore (il padre o la madre? in molti uccelli maschio e femmina si alternano sul nido) è rimasto nella posizione di cova perdendo la vita nel tentativo di proteggere la futura prole. Il fossile, che è stato trovato nel 1993 a Ukhaa Tolgod da una missione congiunta di scienziati degli Stati Uniti e della Mongolia e descritto sull'ultimo numero di Nature dello scorso dicembre, risale al Cretaceo Superiore (quasi alla fine quindi del Regno dei Dinosauri, che scomparvero 65 milioni di anni fa). Per non alterare la disposizione delle ossa e delle uova è stato raccolto in un unico blocco di roccia. La testa, la coda e le vertebre non si sono fossilizzate, ma certi particolari delle dita artigliate rivelano in modo inequivocabile la sua identità permettendo di ricostruire l'immagine di un dinosauro familiare agli studiosi. Con i suoi due metri di lunghezza, Oviraptor era così particolare con quella testa sormontata da una cresta ossea, quell'unico dente piantato nel mezzo del palato, mentre il becco sdentato gli conferiva un orrendo profilo sul collo serpentiforme, che si sollevava dal corpo agile di corridore dalle lunghe zampe posteriori e dagli arti anteriori provvisti di artigli. Spesso accanto al fossile si trovavano resti di uova o di nidi, per cui che ci faceva Oviraptor in quei paraggi se non per incursioni rapide in nidi altrui, da cui afferrava veloce e di soppiatto un uovo per poi romperlo con quell'unico dente e inghiottirlo? Questo fossile che ora gli restituisce giustizia ha un'importanza straordinaria. E' l'unico finora rinvenuto di un dinosauro in cova su un nido. Di uova e di nidi i dinosauri ne hanno lasciati in tutto il mondo, dall'Asia all'Europa all'America. Nel Montana (Usa) le uova, gli scheletri degli adulti e dei giovani e i nidi sovrapposti in più strati di Maiasaura hanno fatto avanzare l'ipotesi che questi dinosauri erbivori di 7 metri migrassero ogni anno nello stesso luogo per nidificare in gruppo a scopo antipredatorio, come fanno ancora oggi molti uccelli, e che avessero cura della prole finché questa non era in grado di lasciare il nido. Ma la prova inequivocabile che i dinosauri covassero le uova non c'era, tant'è che si pensava piuttosto che essi accumulassero materiale marcescente sul nido, che fermentando producesse calore, come oggi fanno sia i coccodrilli sia certi uccelli (i Megapodidi) della regione australiana. A questo punto è chiaro che il comportamento del covare le uova si è evoluto nei dinosauri ben prima della comparsa degli uccelli, in quanto Oviraptor era un teropode, cioè dello stesso gruppo di dinosauri bipedi carnivori di Tirannosauro. Perché i dinosauri covavano le uova? Per garantire all'embrione in via di sviluppo un'incubazione a temperatura elevata e costante? L'ipotesi che alcuni dinosauri, fra cui alcuni teropodi, fossero animali a «sangue caldo», e quindi endotermi come noi mammiferi e gli uccelli, è stata avanzata da più parti con prove controverse e mai definitive. Anche questo ritrovamento non è conclusivo. Alcuni rettili attuali, come i pitoni, notoriamente a «sangue freddo» (ectotermi), in casi eccezionali covano le uova per mantenerle a una temperatura costante. Invece, nei dinosauri degli ambienti desertici il comportamento della cova potrebbe essersi evoluto per difendere le uova dal calore eccessivo del sole. O ancora, come misura antipredatoria, per proteggere le uova dai razziatori di nidi. Però, una volta apparso, il comportamento della cova si è mantenuto nella linea evolutiva che dai dinosauri ha portato agli uccelli, dove è correlato all'endotermia. Con il ritrovamento di questo fossile la parentela fra dinosauri e uccelli è sempre più evidente e Ovira ptor entra di diritto nella galleria degli antenati degli uccelli moderni, strettamente imparentato ad Archeopteryx. Perciò chi, come il paleontologo Robert Bakker, sostiene che i dinosauri non sono scomparsi, trova ancora una volta una conferma: eccoli qui intorno a noi i loro discendenti, sotto forma di passeri e galline. Maria Luisa Bozzi


ETOLOGIA Egoisti o altruisti? Nei meccanismi evolutivi
Autore: ZULLINI ALDO

ARGOMENTI: ETOLOGIA, ZOOLOGIA, ANIMALI, BIOLOGIA
NOMI: DAWKINS RICHARD
LUOGHI: ITALIA

DUE gazzelle corrono lungo le rive di un fiume inseguite da un ghepardo. A poco a poco la distanza dal predatore diminuisce pericolosamente, tanto che una gazzella sospira: «Non possiamo farcela, lui è più veloce di noi». L'altra, guardandola appena, replica: «A me basta essere un po' più veloce di te». La natura è così: tutti i meccanismi evolutivi, i rapporti tra prede e predatori nonché la competizione tra individui, seguono la cieca logica del vantaggio più o meno immediato. Questa stessa logica vale anche nei casi di cooperazione tra specie diverse (come tra ape e fiore) o tra individui della stessa specie (tra madre e figlio o tra le api di uno stesso alveare). In natura, infatti, anche l'altruismo è una forma mascherata di egoismo. A questo punto occorre chiarire che cosa si debba intendere per «egoismo». Spesso, nel linguaggio comune, l'egoista viene definito come colui che pensa solo a sè, al proprio utile. Ma che significa «utile»? E, soprattutto, a che cosa va riferita l'utilità? E' utile bere cham pagne, fare figli, ascoltare una canzone? L'utilità consiste nello spendere, nel guadagnare o nel risparmiare? Se per utile intendiamo ciò che è necessario per vivere, allora è chiaro che si vive per il superfluo (la semplice sopravvivenza non è un ideale per nessuno). Ma così facendo si relativizza l'assunto iniziale. Il vino, per esempio, è considerato utile da chi lo beve, cosa superflua dall'astemio. Nel linguaggio biologico i concetti di utilità e di egoismo hanno una connotazione precisa: ogni organismo (pianta o animale) cerca sempre di massimizzare la propria fitness. Per fitness, si intende il contributo (genetico) relativo che ogni individuo dà alle generazioni successive. Si dice allora che un individuo possiede una fitness più elevata di un altro se trasmette i propri geni in misura superiore all'altro. In pratica: se ha più figli capaci, a loro volta, di trasmettere alle generazioni future le proprie caratteristiche genetiche. Questo, e non altro, è ciò che viene chiamato «egoismo» in biologia. Il biologo inglese Richard Dawkins, considerando il fatto che «l'interesse» delle unità genetiche (i geni) è quello di persistere nel corso delle generazioni, ha attribuito loro la qualifica di «egoisti». Il singolo individuo, visto in quest'ottica, è solo un temporaneo vassoio atto a trasportare (e a trasmettere) i geni, cioè le unità ereditarie che lo definiscono. L'individuo è mortale, ma si muove, mangia, cresce, si accoppia, cura la prole e, in una parola, agisce, molto più per garantire una sorta di immortalità ai propri geni che per un qualche indefinibile «interesse» o «utilità» personale. Prova ne sia che molti animali muoiono subito dopo l'accoppiamento (se maschi) o dopo la deposizione delle uova (se femmine), ma non per questo cercano di vivere più a lungo evitando o procrastinando il momento riproduttivo. Tutto ciò è certamente vero, ma non è tutta la verità. Mettiamoci infatti nei panni di un gene o, meglio, di tutti i geni del Dna di un organismo di tipo primitivo, per esempio un batterio, un protozoo o un altro microscopico essere unicellulare. Quando la cellula diventa abbastanza grande, si divide in due dando origine a due cellule «figlie». In questo modo la cellula originaria perde la propria identità, ma i geni, duplicandosi, mantengono la loro. Se è vero che lo «scopo» dei geni è la propria conservazione nel tempo, il loro «destino» viene così realizzato. Seguiamo ora la sorte del materiale genetico di un insetto (gli insetti sono tra gli animali di maggior successo biologico). Un uovo di farfalla, per esempio, contiene molte migliaia di geni che non aspettano che di riprodursi e durare nel tempo. La cosa più semplice sarebbe che la cellula uovo si dividesse in due, e poi ancora in due, e così all'infinito, come fanno i batteri. E invece no. La cellula uovo della farfalla aspetta di essere fecondata per poi dare origine a qualcosa di molto diverso da sè: un piccolo embrione. L'embrione, naturalmente, contiene anche molte copie dei geni che erano presenti nell'uovo, ma non è questo il punto. Il fatto è che tutto questo lavorio, per essere coronato da successo (genetico), deve continuare. Se tutto va bene, infatti, l'embrione si trasforma in una larva, cioè in un piccolo bruco affamato che cerca una foglia fresca della pianta giusta. Se nessun uccello o insetto predatore lo divora, il bruco si accresce di giorno in giorno cambiando pelle un certo numero di volte. Finalmente smette di nutrirsi e si fabbrica un bozzolo entro il quale riposa allo stato di crisalide. Dire che si riposa non è corretto, dato che la crisalide è sede di profondi rimaneggiamenti strutturali: tra le altre cose si formano ali, zampe allungate e strutture riproduttive. Se vicende climatiche, predatori o altri accidenti non ostacolano tutto ciò, ne esce alla fine una farfalla. Questa, una volta formata, deve ancora darsi da fare, bere, nutrirsi e cercare un partner. Soltanto così potrà sperare di trasmettere i propri geni nei figli. O, detto altrimenti, soltanto così potrà avere una fitness. E' solo grazie al successo riproduttivo che i geni possono dirigere la storia evolutiva. Chi non possiede una fit ness sufficientemente elevata esce dal palcoscenico della storia. La complessa vicenda dello sviluppo delle farfalle (e di tanti altri organismi) dimostra che l'evoluzione non si accontenta di seguire la logica del «gene egoista» percorrendo la via più semplice e breve. Spesso, infatti, la natura non esita a seguire anche le vie più contorte e, a prima vista, assurde. Ciò che conta davvero non è la razionalità o l'economia della strada da percorrere, ma l'aumento della fitness. A qualunque prezzo, anche a costo di dover fabbricare le strutture più stravaganti: bruchi, farfalle adulte, ma anche giraffe, balene, struzzi, stelle di mare, meduse, sequoie, margherite e porcini. Aldo Zullini Università di Milano


IN BREVE Due pianeti per la vita?
ARGOMENTI: ASTRONOMIA, CONGRESSO, MONDIALE
LUOGHI: ITALIA

La scoperta di due pianeti simili alla Terra intorno alle stelle 47 dell'Orsa Maggiore e 70 della Vergine ha fatto rumore al convegno annuale degli astronomi americani. La loro temperatura consentirebbe infatti l'esistenza di acqua allo stato liquido, e quindi forse anche la comparsa della vita. Entrambe le stelle sono abbastanza vicine (35 anni luce). Le conclusioni degli scopritori vengono però ritenute affrettate dalla maggioranza degli astronomi.


IN BREVE Fisica: a Trieste arriva l'Unesco
ARGOMENTI: FISICA, FINANZIAMENTO, RICERCA SCIENTIFICA
NOMI: BLIX HANS, MAYOR ZARAGOZA FEDERICO, VIRASORO MIGUEL ANGEL
ORGANIZZAZIONI: IAEA, UNESCO
LUOGHI: ITALIA

Il Centro di fisica teorica di Trieste dall'amministrazione della Iaea a quella dell'Unesco: il passaggio delle consegne tra Hans Blix e Federico Mayor Zaragoza è coinciso con l'annuncio che l'Unesco aumenterà in tre anni il proprio contributo dagli attuali 400 mila dollari a un milione di dollari. Il budget totale è di 30 miliardi all'anno, 25 dei quali provengono dal governo italiano. Diretto per molti anni da Abdus Salam (premio Nobel per la fisica), il Centro di Trieste è ora sotto la guida di Miguel Angel Virasoro.


IN BREVE Trapianti e droghe due videocassette
ARGOMENTI: DIDATTICA, MEDICINA E FISIOLOGIA
LUOGHI: ITALIA

«Morte cerebrale e donazione di organi» e «Gli affetti delle droghe sul cervello» sono due videocassette tradotte in italiano per essere usate come strumento didattico nella formazione sanitaria. Verranno presentate a Roma il 10 febbraio. Informazioni: 06-808.5944.


IN BREVE Metropolitana virtuale
ARGOMENTI: ELETTRONICA, PROGETTO, TRASPORTI
ORGANIZZAZIONI: HITESYS, ENEA
LUOGHI: ITALIA

Il 26 gennaio la società Hitesys del gruppo Enea presenterà a Roma un progetto di sistema semaforico intelligente che consente di creare una «metropolitana virtuale di superficie». Informazioni: 06-928.1734.


IN BREVE Ascesa e caduta della melatonina
ARGOMENTI: MEDICINA E FISIOLOGIA, BIOLOGIA
NOMI: IPPOLITO FELICE, BELLONE ENRICO
ORGANIZZAZIONI: LE SCIENZE
LUOGHI: ITALIA

Con questo titolo l'ultimo numero de «Le Scienze» riferisce l'inversione di rotta dei ricercatori americani riguardo ai farmaci che grazie a questo ormone promettono lunga vita e persino la guarigione dal cancro. Su questo commercio di illusioni «Tuttoscienze» aveva già messo in guardia il 1o novembre scorso. A «Le Scienze» Felice Ippolito ha lasciato la direzione a Enrico Bellone: a Ippolito grazie per il prezioso lavoro di trent'anni, a Bellone molti cordiali auguri di successo.


PNEUMOPATIE L'aria che respiriamo In aumento i trapianti di polmoni
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, CONGRESSO, SANITA', INQUINAMENTO, ATMOSFERA
LUOGHI: ITALIA, EUROPA, ITALIA, TORINO (TO)
TABELLE: D. Bronchi e polmoni

ARRABBIATI i fumatori perché aumentano i locali nei quali è vietato fumare, arrabbiati gli automobilisti perché si prevedono più frequenti sospensioni del traffico. Eppure... Recentemente si è svolto a Torino un congresso internazionale sulla bronco-pneumopatia cronica ostruttiva (Bpco), presidenti Dalmasso e Donner. Il tabacco e l'inquinamento atmosferico sono le due cause predominanti. La bronco-pneumopatia cronica ostruttiva non è una nuova malattia, è una nuova classificazione di patologia respiratoria. Si è convenuto di raggruppare in essa le affezioni accompagnantesi con una cronica riduzione del passaggio dell'aria dei bronchi per un'ostruzione delle vie respiratorie, dai più ampi ai più fini canali bronchiali secondo i casi. Queste affezioni sono l'asma bronchiale, la bronchite cronica e l'enfisema polmonare, le tre più frequenti malattie respiratorie. Si presume che in Italia gli asmatici siano tre milioni e press'a poco altrettanti i bronchitici cronici, incerta è la valutazione del numero dei casi di enfisema ma certamente è elevato. La Bpco è uno dei grandi capitoli della patologia umana. Gli elementi fondamentali causa dei disturbi respiratori sono un aumento delle secrezioni bronchiali e della loro viscosità e un edema infiammatorio, donde ostruzione delle vie aeree, dapprima di quelle superficiali poi anche delle più profonde, immerse nel tessuto polmonare. Quando buona parte di queste è colpita compare la sintomatologia ostruttiva. Il fumo di tabacco contiene elementi gassosi quali l'acroleina irritante la mucosa bronchiale, e diversi acidi e aldeidi e ossidi d'azoto, aventi proprietà inibitrici sulle più fini funzioni broncopolmonari; contiene inoltre particelle, irritanti sia come tali sia in quanto contenenti fenoli e acidi organici. La nicotina stessa è causa di restringimento dei bronchi, pure la combustione della carta ha importanza. Insomma il fumo di tabacco è un «aerocontaminante» al quale possiamo attribuire la qualifica di «completo». A sua volta la contaminazione ambientale concorre col tabagismo a fare della Bpco una vera «malattia della civilizzazione». L'inquinamento atmosferico, industriale e domestico è il prezzo che paghiamo per la produzione dell'energia indispensabile al nostro sviluppo economico. Le fonti d'energia maggiormente impiegate ai giorni nostri sono le più inquinanti, con sviluppo di anidride solforosa, ossido di azoto, anidride carbonica, idrocarburi volatili, polveri. L'inquinamento urbano è responsabile d'un raddoppio del numero dei bronchitici. A parte quella industriale, la contaminazione domestica è responsabile del 70 per cento dell'inquinamento urbano, attraverso gli impianti di riscaldamento e le cucine a gas (ossido d'azoto). Si aggiunge la contaminazione da gas di scappamento delle auto (ossido di carbonio, ossido di azoto, idrocarburi, anidride solforosa). Tutte queste sostanze restringono i bronchi, danneggiano il tessuto polmonare, probabilmente rendono più sensibili alle infezioni da virus. Nessuno fumi, tutti vivano in campagna, questa sarebbe l'unica soluzione. Dobbiamo invece accontentarci dei provvedimenti anti-tabacco, dato che anche il fumo passivo è pericoloso, e di quelli per ridurre l'inquinamento ambientale. Non è nostro compito parlare qui di terapia (antibiotici, broncodilatatori, corticoidi, fisioterapia), vogliamo però dire che l'unico trattamento radicale di questo tipo di insufficienza respiratoria cronica è il trapianto polmonare, naturalmente quando ve ne sia l'indicazione in base all'età, alla forma morbosa, all'invalidità. Secondo il Registro internazionale dei trapianti polmonari del 1994 circa il 30 per cento dei trapianti di entrambi i polmoni e il 58 per cento dei trapianti d'un solo polmone riguardano casi di enfisema polmonare. Il numero dei trapianti è in costante aumento, i risultati sono molto soddisfacenti. Ulrico di Aichelburg


FARMACI Dimagrire con la proteina ob Ricerche sui ratti per combattere l'obesità
Autore: VAGLIO GIAN ANGELO

ARGOMENTI: GENETICA, MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA
NOMI: HUGHES HOWARD
ORGANIZZAZIONI: NATIONAL INSTITUTE OF HEALTH, ROCKFELLER UNIVERSITY, AMGEN INC.
LUOGHI: ITALIA

PERDERE peso negli Stati Uniti è quasi un obbligo. Le statistiche del National Institute of Health informano che circa un terzo della popolazione statunitense è ossessionato da questo problema, e che la spesa per ridurre (o tentare di ridurre) il sovrappeso supera i trenta miliardi di dollari l'anno. In Gran Bretagna addirittura il 56 per cento degli uomini e il 46 per cento delle donne tra i 16 e i 64 anni soffrono di eccesso di peso e sopportano ogni genere di sacrifici per ridurlo. Inoltre le diminuzioni di peso sovente non durano nel tempo e i chili persi vengono presto recuperati. Non si tratta, comunque, di un problema solo estetico, perché l'obesità è responsabile di gravi danni alla salute, che vanno dal diabete ai disturbi cardiovascolari. Oltre agli studi sull'olio che non fa ingrassare, descritti sui quotidiani negli ultimi giorni, recenti ricerche in questo settore stanno fornendo nuove possibilità di soluzione al problema attraverso la preparazione di un farmaco antiobesità. Il gruppo di ricerca dell'Istituto di Medicina Howard Hughes - Università Rockefeller di New York, diretto da J. Friedman, ha scoperto che i ratti obesi hanno un difetto nel gene dell'obesità, che impedisce la sintesi della proteina ob responsabile del controllo del peso corporeo. Quando questa proteina, denominata leptina da Fried-man, è prelevata dai ratti normali ed iniettata nel sangue di ratti obesi, si osservano consistenti perdite del loro peso, che si mantengono nel tempo. Nel caso di trattamenti giornalieri sono state osservate, dopo un mese, riduzioni di peso di circa il quaranta per cento. Gli stessi ricercatori hanno misurato la quantità di cibo giornaliero di due gruppi di ratti con difetto genetico nel gene dell'obesità, ed hanno constatato che dei due gruppi, quello trattato con la proteina ob perdeva, a parità di dieta, il cinquanta per cento di peso in più rispetto ai ratti non trattati. Questo risultato suggerisce in modo inequivocabile che il solo controllo della dieta non spiega la perdita di peso indotta dalla proteina ob. Un altro gruppo di ricerca studia il problema dell'obesità nei laboratori della Amgen Inc. di Thousand Oaks in California. I risultati ottenuti permettono di fornire una spiegazione al comportamento osservato dai ricercatori della Università Rockefeller. E' stato verificato, infatti, che la proteina ob provoca un maggior consumo di energia rendendo più attivi i ratti obesi che di per sè sono pigri ed accelerando il loro lento metabolismo. Queste ricerche sembrano fornire concrete speranze per la preparazione di un farmaco antiobesità, anche se non è detto che i risultati possano essere trasferiti all'uomo in modo diretto ed in tempi brevi. Infatti, sulla base dei primi studi sul gene dell'obesità nell'uomo, effettuati da un terzo gruppo di ricercatori presso i laboratori dell'industria farmaceutica svizzera Hoffman- La Roche, è risultato che l'obesità nell'uomo deriva da più cause e non soltanto da uno specifico difetto genetico. A questo proposito, sono anche state fatte esperienze su tipi di ratti che presentano un comportamento più simile all'uomo, e cioè ratti che acquistano sovrappeso in seguito ad una dieta troppo ricca di grassi. Dopo la fase di ingrassamento, iniezioni della proteina ob provocano negli animali una diminuzione di appetito e una perdita di peso. Una parallela esperienza è stata effettuata su ratti che acquistano sovrappeso con l'età, come capita sovente nell'uomo. Iniezioni della proteina ob portano, anche in questo caso, ad una riduzione consistente di peso, a dimostrazione che la proteina ob agisce anche su animali in cui non sussistano difetti genetici. Secondo Friedman la proteina ob, che ha uno almeno dei suoi recettori nel cervello, agisce attraverso un sistema di controllo che informa l'organismo sulla quantità di grasso presente. In analogia ad un termostato, che legge la temperatura, la proteina ob si comporta come un «lipostato» ed informa l'organismo della necessità di un guadagno di peso, nel caso di basso contenuto di grassi, mentre nel caso opposto manda il messaggio di ridurre la quantità di cibo diminuendo l'appetito, di bruciare più calorie e perdere peso. La ditta Amgen ha acquistato dell'Università Rockefeller il brevetto per lo sviluppo dei prodotti del gene dell'obesità investendo un capitale di 20 milioni di dollari e prevede di iniziare entro un anno le prove sull'uomo, se la fase preliminare sugli effetti secondari della proteina ob avrà dato risultati soddisfacenti. Gian Angelo Vaglio Università di Torino


DIECI ANNI FA Urano si rivela Esplode lo Shuttle
AUTORE: LO CAMPO ANTONIO
ARGOMENTI: AERONAUTICA E ASTRONAUTICA, TECNOLOGIA, ASTRONOMIA
NOMI: HERSCHEL WILLIAM
ORGANIZZAZIONI: SHUTTLE, VOYAGER 2, NASA
LUOGHI: ITALIA
TABELLE: D.

NEL bene e nel male, il mese di gennaio di dieci anni fa deve essere considerato storico per le imprese spaziali. Il 1986 iniziava con due voli dello shuttle, preludio di un anno che ne prevedeva ben quattordici. Ma prima ancora erano gli appuntamenti interplanetari di una navicella spaziale della Nasa a monopolizzare l'interesse degli scienziati, in attesa del passaggio di alcune sonde vicino alla cometa di Halley. Il 24 gennaio 1986 la sonda «Voyager 2» effettuava il primo rendez-vous di un veicolo spaziale con il pianeta Urano. Le scoperte furono straordinarie. Trovato per caso da William Herschel nel 1781 mentre eseguiva scandagli nel cielo per determinare la forma della Via Lattea, Urano al telescopio è poco più di un dischetto verdastro. Le nozioni su di esso prima del sorvolo del «Voyager 2» si riassumono in poche parole. Il diametro di Urano è di 51.500 chilometri (circa quattro volte la Terra), e il pianeta ruota in 17 ore su un fianco, cioè il suo asse di rotazione giace all'incirca sul piano dell'orbita, caso unico nel Sistema solare. Insomma, è come se Urano «rotolasse» sulla propria orbita, sicché l'equatore viene a trovarsi dove normalmente ci sono i poli. Con «Voyager 2» tutti questi dati furono precisati molto meglio e si scoprirono altre sei lune intorno al pianeta, oltre alle cinque già note grazie ad osservazioni telescopiche. Su una di esse, Miranda, le cui immagini giunsero molto dettagliate, si videro caratteristiche superficiali non più grandi di mezzo chilometro. La sonda effettuò le riprese a 29.000 chilometri di distanza dal satellite alla velocità di 72.000 chilometri orari. Ottime anche le immagini delle altre quattro lune conosciute, Oberon, Titania, Ariel e Umbriel. Anche la meteorologia di Urano si rivelò curiosa. Fu confermato, tra l'altro, che l'atmosfera di Urano si estende oltre la parte visibile al telescopio. Al di sopra delle nubi c'è una tenue atmosfera esterna che consiste principalmente di molecole d'idrogeno. La temperatura nell'atmosfera superiore è di 750 kelvin, e per questa ragione essa fluttua fino a 6000 chilometri al di sopra della sommità delle nubi. Un fenomeno strano: la radiazione solare non può assolutamente spiegare una temperatura così elevata. Ma questo è stato soltanto uno dei molti nuovi interrogativi degli scienziati, dopo le eccezionali risposte fornite da «Voyager 2». Comunque i planetologi di tutto il mondo esultavano: quella sonda automatica partita nel 1977 con un razzo «Titan 3», sfruttando il campo gravitazionale di Urano si dirigeva verso Nettuno, che raggiungerà nell'89, per poi superare le «Colonne d'Ercole» del Sistema solare. L'impresa Voyager-Urano fece passare ancor più in secondo piano la missione della navetta «Challenger»: il 28 gennaio, dopo 5 rinvii, avveniva il decollo dalla rampa 39-B con i piloti Scobe e Smith, gli «specialisti» Onizuka, Mc Nair e Judy Resnik, il tecnico Jarvis e il primo cittadino privato a partire per lo spazio, l'insegnante di scuola media Christa Mc Auliffe. A 73 secondi dal distacco, il «Challenger» esplose. Ovviamente non ci furono superstiti. Reagan nominò una Commissione d'inchiesta presieduta dall'ex segretario di Stato di Nixon, William Rogers, formata da celebrità quali il Nobel per la fisica Richard Feynman, gli astronauti Neil Armstrong e Sally Ride, e il primo uomo che infranse la barriera del suono, Chuck Yeager. Non rimasero dubbi: il «Challenger» esplose per l'usura cui furono sottoposti gli anelli in gomma speciale, della struttura di giunzione dei razzi laterali. Fu dimostrato che quando la temperatura scende sotto lo zero la gomma tende a irrigidirsi e a rompersi. Lo Shuttle in quelle condizioni non doveva partire, e il tecnico Mc Donald, della Thiokol, ditta costruttrice dei booster, aveva ripetutamente avvisato la Nasa. In quel periodo l'ente spaziale americano era piuttosto male organizzato, e coinvolto in scandali e problemi interni. E il «Challenger» fu fatto partire lo stesso. Antonio Lo Campo


STRIZZACERVELLO Acrobazie con tre cifre
LUOGHI: ITALIA

Qual è il numero più grande che si può scrivere con tre cifre? E quante sono le cifre di questo numero? La soluzione domani accanto alle previsioni del tempo.


La trasformata di Fourier Una formula dell'800 usata anche dalla Nasa
AUTORE: SCAPOLLA TERENZIO
ARGOMENTI: STORIA DELLA SCIENZA, MATEMATICA, INFORMATICA
PERSONE: FOURIER JOSEPH
NOMI: COOLEY JAMES, TUKEY JOHN, FOURIER JOSEPH
ORGANIZZAZIONI: IBM, BELL LAB
LUOGHI: ITALIA

TRA i molti meriti acquisiti dai computer c'è quello di aver reso possibile il calcolo di un numero molto elevato di operazioni elementari, ad esempio moltiplicazioni, in un tempo limitato. Ma un calcolatore, per quanto potente, deve essere accompagnato da algoritmi efficaci: spesso formulazioni matematiche ineccepibili dal punto di vista teorico non risultano traducibili in algoritmi idonei al trattamento numerico. La trasformata di Fourier è una tecnica che proprio nelle applicazioni, dalla fisica dei plasmi alla sismografia, dalla Tac alla oceanografia, alla ricostruzione di immagini basate su dati forniti da telescopi, ha trovato la sua legittimazione come strumento principale per la risoluzione effettiva di problemi concreti. La sottolineatura non è di poco conto: molti modelli matematici di fenomeni fisici hanno soluzione, ma il calcolo relativo si rivela impossibile, sia per la mancanza di algoritmi idonei, sia perché il tempo richiesto è troppo elevato. La trasformata di Fourier fu ideata da Joseph Fourier (1768- 1830), geniale fisico-matematico francese che formulò, tra l'altro, la legge sulla diffusione del calore in un corpo. La tecnica di Fourier è, nella sua sostanza, una trasformazione integrale che consente, una volta attuata, di semplificare operazioni altrimenti quasi proibitive. Prima dell'evento degli elaboratori il calcolo numerico di una trasformata richiedeva una buona dose di pazienza. Il numero di operazioni dipendeva dal numero di punti usati per la rappresentazione: per l'analisi di una funzione individuale da mille punti a intervalli regolari erano necessarie circa mille addizioni e un milione di moltiplicazioni. Se N è il numero di punti considerati la complessità computazionale è dell'ordine di N al quadrato. Se pensiamo che sono frequenti dati dell'ordine di milioni, ci si accorge facilmente che il calcolo diviene ben presto insostenibile, anche con supercalcolatori. Ma proprio trent'anni fa James Cooley (Ibm) e John Tukey (Bell Lab) svilupparono un'idea che avrebbe cambiato le regole del gioco. In un articolo di poche pagine - e la brevità sembra essere uno dei requisiti delle idee davvero creative - introducono la Fast Fourier Transform, o Fft, come si dice comunemente. La tecnica consente di ridurre il numero di operazioni necessarie: l'ordine di complessità si abbassa da N al quadrato a N moltiplicato per il logaritmo di N. Per dare un'idea del guadagno effettivo ricordiamo che la Nasa, nell'ambito del Progetto Ciclope per la ricerca delle intelligenze extraterrestri, ha operato la trasformazione di Fourier su un insieme di un miliardo di dati; ciò ha richiesto circa 9 ore di tempo con la Fft, contro gli oltre 36.000 anni necessari con l'algoritmo normale. Più semplicemente, con 1024 punti il rapporto tra i tempi è pari a circa 150. La Fft ha reso possibili calcoli prima solo pensabili e ha stimolato la sua applicazione a settori sempre più vasti. Trent'anni sono passati la la Fft rimane lo strumento principale nel calcolo e nelle applicazioni numeriche. Da allora la tecnica è stata affinata e perfezionata, ma l'idea chiave rimane sempre quella elaborata da Cooley e Tukey. I calcolatori hanno eseguito il loro compito, sempre più rapidamente con la crescita delle prestazioni. I risultati hanno consentito di interpretare fenomeni nuovi, proprio quello che desiderava Fourier quando sulla base delle sue esperienze si accingeva a introdurre la teoria matematica del calore, con l'ostracismo di numerosi colleghi che lo ritenevano (il fuoco, non Fourier), un evento fisico privo di qualunque regolarità. Terenzio Scapolla Università di Pavia


COME FUNZIONA L'ENDOSCOPIO Una sottile sonda multiuso Invece del bisturi fibre ottiche e microstrumenti
LUOGHI: ITALIA
TABELLE: D. Come è fatto e come si usa l'endoscopio

Invece di praticare una grande incisione come si faceva un tempo, il chirurgo può, in certi casi, utilizzare strumenti chirurgici in miniatura inserendoli nel corpo del paziente attraverso un piccolo foro; gli strumenti sono fissati in cima ad un tubo flessibile che sfrutta la tecnologia delle fibre ottiche. L'endoscopio è lo strumento che consente di osservare punti del corpo normalmente inaccessibili e di eseguire interventi chirurgici senza dover praticare grandi incisioni. Normalmente viene usato insieme con altri strumenti, come videocamere e monitor. Benché il principale impiego avvenga in medicina, può risultare utile anche agli ingegneri per raggiungere punti difficilmente accessibili di parti meccaniche e in molti campi della ricerca scientifica. Esistono due tipi principali di endoscopi ad uso medico: l'endoscopio rigido, un semplice tubo impiegato per scrutare organi quali reni, fegato, milza all'interno dell'addome, e l'endoscopio flessibile, a fibre ottiche, usato per esaminare, ad esempio polmoni o intestito. Grazie all'endoscopio il medico è in grado di fare una diagnosi immediata potendo giungere a diretto contatto con la parte che si sospetta ammalata, o di prendere campioni di tessuti da analizzare in un secondo momento; se poi ad esso si applicano gli opportuni strumenti (bisturi, pinze), l'endoscopio consente vere e proprie piccole operazioni.




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio