TUTTOSCIENZE 1 maggio 96


STRIZZACERVELLO I piroscafi di Peano
LUOGHI: ITALIA

Il problema che segue è stato proposto da Giuseppe Peano nel suo celebre libro: «Giochi di aritmetica e problemi interessanti». Due piroscafi A e B, partono insieme per un viaggio di 6 mila miglia all'andata e altrettante al ritorno. Il piroscafo A mantiene una velocità di 8 miglia all'ora all'andata e 12 al ritorno. Il piroscafo B mantiene una velocità costante di 10 miglia all'ora. Arriveranno insieme al luogo di partenza? La risposta domani nella pagina delle previsioni del tempo.


PROGETTO FERMILAB-UNESCO Messaggi dall'universo nei raggi cosmici Per decifrarli, due colossali osservatori negli emisferi Nord e Sud
Autore: ROTA ORNELLA

ARGOMENTI: ASTRONOMIA, FISICA
NOMI: HESS VICTOR, AUGER PIERRE, BORATAV MURAT, CRONIN JAMES
ORGANIZZAZIONI: FERMI NATIONAL LABORATORY
LUOGHI: ITALIA

UN gigantesco progetto per riuscire finalmente a capire i raggi cosmici: un gruppo internazionale di astrofisici vi sta lavorando, le «unità» da impiantare sono due (una al Nord e l'altra al Sud del mondo), una grossa fetta di finanziamenti proviene dal Fermi National Laboratory (che, a pochi chilometri da Chicago, ospita il collisore di protoni più potente del mondo), centomila dollari sono arrivati dall'Unesco, altri fondi giungeranno da enti pubblici e privati. L'Osservatorio porterà il nome del fisico francese Pierre Auger, il quale, già vicedirettore generale del Fermilab, ebbe parte determinante nella creazione dell'Organizzazione europea per la ricerca nucleare (Cern) di Ginevra. Dopo le intuizioni e le scoperte di Victor Hess che risalgono al 1912, seguite dagli studi di Anderson, Bethe e Heitler, Street e Stevenson, fu Auger, nel 1938, a proporre, sistematizzata su basi scientifiche, l'ipotesi dell'esistenza di raggi cosmici a energia molto alta. Quest'energia risulta maggiore non solamente di quanta ne abbiano le particelle prodotte dai più potenti acceleratori già costruiti, ma anche di quelle che verranno generate negli acceleratori attualmente in progetto; per quanto riguarda poi la sua valutazione globale, essa viene in genere stimata pari a quasi il doppio dell'energia luminosa emanata da tutte le stelle dell'universo. E' dall'inizio del nostro secolo che il mistero dei raggi cosmici affascina gli astrofisici di tutto il mondo. Murat Boratav, del laboratorio di fisica nucleare e delle alte energie dell'Università di Parigi Vl, ricorre a questa metafora: «Immaginiamo che piovano sassi dal soffitto. Potreste resistere alla curiosità di capire cosa sta succedendo? Se poi sostituite le pietre con i raggi cosmici, e il soffitto con il cielo, la voglia di capire diventa irrefrenabile». Lo statunitense James Cronin, Nobel per la fisica e padre del progetto dell'Osservatorio, paragona i raggi cosmici a «sorte di noccioli atomici che provengono dallo spazio, bombardano la Terra e sono in grado di raccontarci cosa succede nel cuore delle più lontane galassie. L'Osservatorio dovrebbe consentire di individuare il loro luogo di origine, la loro natura e i fenomeni che li producono, fenomeni finora sconosciuti e di fatto inimmaginabili». Gli strumenti di cui la scienza dispone attualmente, prosegue Murat Boratav, «ci permettono di osservare soltanto una decina di raggi cosmici ad altissima energia in trent'anni. Ma, per avere qualche obiettiva speranza di capirne di più, bisognerebbe riuscire ad analizzarne almeno un centinaio ogni anno, continuando studi e ricerche per almeno un decennio». La sede australe del futuro Osservatorio sarà in Argentina; per la sede dell'emisfero Nord si deciderà entro l'estate. Il progetto prevede 1500 rivelatori di particelle su 3000 chilometri quadrati. I lavori dovrebbero essere compiuti entro il 2000; costeranno complessivamente 100 milioni di dollari. Ma il gioco vale la candela, anche se queste ricerche non hanno applicazioni pratiche. «Le scoperte sono sempre delle sorprese - commenta Cronin -, anche coloro che individuarono il come produrre l'elettricità non sapevano cosa stessero esattamente cercando». Ornella Rota


Il futuro è digitale Trucchi per comprimere le immagini
Autore: A_VI

ARGOMENTI: INFORMATICA, ELETTRONICA, TECNOLOGIA
ORGANIZZAZIONI: PHILIPS, CEBIT
LUOGHI: ESTERO, EUROPA, GERMANIA, HANNOVER
NOTE: Dvd (Digital video disc)

SEBBENE la tecnologia digitale per la riproduzione di immagini e suoni sia più che valida e affidabile, la stragrande maggioranza di film e video viene ora generata e distribuita al pubblico con formati analogici (come il Vhs, per intenderci, che si affida a un nastro magnetico). Gli standard digitali (laser disc, Cd-rom, CdI... ) stentano ad affermarsi sia per motivi di mercato, sia perché è costoso e complicato codificare in digitale immagini confezionate all'origine in analogico. E quand'anche questo avvenisse, le informazioni digitali per definire una serie di immagini in rapida successione sono molto ingombranti e sono necessari computer discretamente potenti e costosi per fare lo stesso lavoro che sbriga un qualsiasi videoregistratore alla portata di tutte le tasche. Più in generale, se da un lato l'informatica mette a disposizione sistemi di immagazzinamento di dati sempre più potenti, affidabili e versatili, sorge il problema di come muovere in maniera agile e in «tempo reale» tale mole di informazioni. E' la «cruna dell'ago» della multimedialità e della telematica. Possiamo fabbricare le auto più belle del mondo, ma se le strade sono intasate di traffico non riusciamo nemmeno a farle uscire dai garage. Un modo per risolvere il problema è quello di comprimere le informazioni digitali riducendole alla quantità minima necessaria senza svilirne la qualità. Nel caso del Digital video disc (in sigla Dvd), lo standard di compressione-decompressione adottato si chiama Mpeg (Motion pictures experts group), un sistema studiato a livello internazionale da tutti i principali centri di ricerca pubblici e privati che si occupano di telecomunicazioni (il contributo italiano è stato assicurato dallo Cselt, il centro di ricerca della Stet). Il compito dell'Mpeg, che ho visto all'opera al Cebit di Hannover ospite dello stand Philips, è proprio quello di semplificare la gestione digitale delle immagini. Con una specifica serie di algoritmi l'Mpeg codifica tutti i dati che contribuiscono a definire un'immagine, li stiva in un video compact disc e, quando questo viene inserito nel lettore del computer o del televisore, un'altra scheda Mpeg è in grado di leggere e decodificare tutti i dati riproducendo sullo schermo dell'utente le immagini archiviate. Con la qualità di definizione di un lettore digitale e con le potenzialità d'uso di un ipertesto interattivo. Un secondo di televisione richiede la rappresentazione di 25 schermate, ciascuna composta da 576 righe con 720 punti elementari (pixel) per ogni riga. Per ogni pixel occorre definire il colore, la brillantezza e la luminosità, vale a dire non meno di 16 bit di informazioni. In totale un singolo secondo di trasmissione digitale ha bisogno di 167, 5 milioni di bit, sonoro compreso. Ipotizzando di trasmettere via cavo un film digitale di media durata (90 minuti), con i più potenti modem a disposizione oggi a livello domestico (28 mila bit al secondo) servirebbero non meno di 8970 ore di trasmissione (cioè 373 giorni). Immaginiamo ora che i 25 quadri di un secondo di immagini siano 25 fotografie che abbiamo sul tavolo una accanto all'altra. Riusciamo a notare la differenza tra la prima e la seconda foto? E tra la seconda e la terza? Probabilmente no. E' invece più facile cogliere le variazioni tra la prima foto e la venticinquesima, perché se la scena propone un'auto in corsa, in un secondo di tempo l'auto ne ha fatta di strada. Lo standard Mpeg II trasmette per intero il primo quadro (6-7 milioni di bit), poi solo le differenze che intervengono tra il primo e il secondo, tra il secondo e il terzo e così via (generalmente non più di 800 mila bit). A lungo andare le differenze tra il primo e il 25o o 40o quadro diventano troppe e l'immagine perde di qualità (o magari è addirittura cambiata la scena). Mediamente si è visto che ogni 12 quadri occorre trasmettere la totalità delle informazioni. Ma è comunque un enorme passo avanti perché anziché 25 intere foto al secondo se ne trasmettono solo 2. Il video disco è tecnicamente pronto e sarà lanciato sul mercato entro l'anno (il Dvd della Philips dovrebbe essere a disposizione da ottobre-novembre), ma già i tecnici stanno studiando il passo successivo. Anziché le differenze tra un quadro e l'altro, all'inizio di ogni scena il primo computer (la fonte) darà al secondo computer (il destinatario) tutte le informazioni del caso: nel bosco un uomo e una donna fanno un picnic. Poi lo avvertirà di cosa succederà in quella scena: il terzo albero a sinistra cade e la donna aiuta l'uomo a scansarsi. Quindi il secondo computer immaginerà la scena e la ricostruirà elettronicamente sul video, facendo schiantare il terzo albero da sinistra e facendo muovere una donna alta 1 metro e 75 con uno svolazzante gonnellino a fiori proprio come se avesse in memoria la scena girata dalla cinepresa. Quello che oggi possiamo vedere al cinema in «Toys story» è solo l'inizio.(a. vi.)


ANTICIPAZIONI AD HANNOVER Ecco il salotto multimediale Il televisore-computer cambierà la nostra vita
Autore: VICO ANDREA

ARGOMENTI: INFORMATICA, ELETTRONICA, TECNOLOGIA
ORGANIZZAZIONI: CEBIT
LUOGHI: ESTERO, EUROPA, GERMANIA, HANNOVER

E' facile perdersi al Cebit, la più grande fiera «generalista» di informatica e tecnologia elettronica del mondo, che si svolge ad Hannover ogni primavera. Oltre 6 mila espositori rintracciabili in un catalogo-guida di 500 pagine che pesa quasi tre chilogrammi. Una superficie espositiva pari a 250 campi di calcio suddivisi in 20 padiglioni invasi ogni giorno da non meno di centomila visitatori. Ma perdersi è divertente. Perché è come perdersi nel futuro. Ogni stand, alcuni delle vere e proprie palazzine, racconta come l'elettronica cambierà la nostra vita nei prossimi 3-4 anni. Telefonia, audiovisivi, computer da tavolo, da automobile, da tasca (i cosiddetti «wallet», portafoglio, su cui scrivere a mano con una penna ottica). Calcolatori per progettare un palazzo o un aeroplano senza mai prendere in mano una matita, per discutere faccia a faccia con il socio in Australia e con quello a New York contemporaneamente e senza muoversi dalla scrivania. O per esplorare il mondo sulle strade di Internet. Il senso di smarrimento non viene dalla vastità dei padiglioni, quanto dall'infinità di proposte e soluzioni offerte. Alcune ai confini dell'inutile, come la borraccia-frigo da cintola alimentata da due piccoli pannelli solari sistemati su un cappello da baseball. Ce la faremo a star dietro a tutto o perderemo la giornata sui computer dando loro istruzioni su come programmarci l'esistenza? Domanda superflua: ci penseranno i computer. Uno dei punti cardine dell'informatica del prossimo futuro è la condivisione degli standard. I computer si parleranno fra loro (anche quando ci sembreranno spenti), a noi basterà inserire tutte le informazioni su uno di essi, il calcolatore che eleggeremo come nostro segretario e maggiordomo, e questo smisterà le informazioni a tutti i suoi subordinati. Invierà un promemoria in ufficio per la prenotazione dell'aereo. Si collegherà con le segreterie telefoniche dei nostri invitati ricordando di essere puntuali per cena. Raccomanderà al forno a microonde che le lasagne devono esser pronte per le 19,30 e alla tv di collegarsi alla banca dati per ricevere una copia di «Un mercoledì da leoni». Se finora i diversi tipi di segnale analogico ostacolavano la comunicazione tra gli apparecchi, il segnale digitale sarà il linguaggio universale. Al Cebit è emerso chiaramente: la digitalizzazione è la chiave di volta dell'era multimediale. Nella casa cablata, tramite flussi infiniti di 0 e di 1, il calcolatore centrale terrà sotto controllo tutto, dal telefonino al televisore, dal cercapersone di nostro figlio al sistema di riscaldamento. Dialogherà con il terminale della banca, dell'ufficio, della scuola (niente più pagelle da presentare in casa all'ultimo minuto...) o dell'auto che ci segnalerà che è ora di cambiare l'olio. Per gestire una tale massa di informazioni sono già pronti computer superveloci, ma non la spunterà chi riuscirà a costruire l'elaboratore più potente, bensì chi troverà scorciatoie per ridurre e compattare i dati. Gli standard di compressione e decompressione sono infatti il campo di battaglia su cui ci si gioca la clientela (ne parliamo nel pezzo qui accanto). Accanto a multimedialità e unificazione degli standard, l'altra parola chiave dell'elettronica di domani è personalizzazione. Tutti i progressi compiuti, in particolare in quei settori dove l'elettronica si mette a disposizione dei mass media (satelliti, radiodiffusione, gestione dei cavi in fibra ottica, tivù digitale ad alta definizione, moltiplicazione dei canali audio-video...), permettono all'industria dell'informazione e dell'intrattenimento di diversificare l'offerta. La parola d'ordine nel mondo dei nuovi media è quella di individuare tutte le possibili nicchie di utenti. Ogni nicchia è un piccolo mercato da coprire con un prodotto unico ed esclusivo. In campo televisivo già oggi, grazie alla diffusione delle trasmissioni via satellite e delle parabole dai prezzi abbordabili, dalla tivù generalista stiamo passando alla tivù tematica (canali specializzati per genere, per target, canali che combinano più specializzazioni a seconda della fascia oraria). Con la diffusione del cavo si arriverà alla tivù «on demand». Ciascuno di noi ordinerà al suo computer di trasmettere in salotto (il televisore a cui siamo oggi abituati verrà sostituito da un semplice schermo a cristalli liquidi, un quadro da appendere in casa) il programma scelto tra una miriade di trasmissioni. Anzi, impostati i nostri gusti («Desidero vedere solo le trasmissioni e i notiziari che parlano di scienza»), sarà il computer stesso a consultare la guida-tv andando a scegliere, tra mille e più canali, solo i programmi che ci garbano. E' la tivù su misura. Con il rischio di facilitare il diffondersi di un individualismo esasperato. Una nota negativa all'impeccabile organizzazione tedesca del Cebit: non sono riuscito a trovare uno spazio dedicato all'elettronica per disabili. Se l'elettronica può semplificare la vita a chi è in grado di far da sè, a maggior ragione dovrebbe mettersi al servizio di chi non è pienamente autonomo. Andrea Vico


NEL 2000 Il biologo consulente assicurativo
AUTORE: ALBERTI GIUSEPPE
ARGOMENTI: MEDICINA E FISIOLOGIA, ASSICURAZIONI
LUOGHI: ITALIA
NOTE: MALATTIE GENETICHE E POLIZZE ASSICURATIVE TEMA: MALATTIE GENETICHE E POLIZZE ASSICURATIVE

LA scienza non è ancora in grado di stabilire con precisione quali potrebbero essere i nuovi rischi futuri per la salute dell'uomo. Quindi anche gli assicuratori, che basano i prezzi delle loro polizze su elementi statistici, trovano difficoltà nel programmare, per esempio, una polizza sanitaria che sia valida per la vita intera dell'assicurato. Se queste difficoltà diventassero superabili, in certi casi si potrebbe arrivare a polizze così costose da non essere accessibili alla maggior parte dei cittadini. Il ramo malattie, quindi, è una specie di campo minato, almeno per il futuro. Ad esempio, vent'anni fa chi poteva immaginare l'esplosione dei casi di Aids? Non esiste un'equipe di futurologi al servizio degli assicuratori: questi possono solo avvalersi dei dati provenienti da università e laboratori sparsi nel mondo. In pratica, sia i costi delle polizze sia le varie prestazioni assicurative si basano quasi sempre sulle esperienze passate e attuali. Nel nostro Paese le polizze sanitarie sono attorno alle 800 mila e le persone assicurate circa 5 milioni. Se si prevedesse l'arrivo tra cinque anni di un nuovo micidiale virus certamente i cittadini che ricorrono alle polizze malattia si moltiplicherebbero di molto ma, in pari tempo, le società tirerebbero i remi in barca, almeno per quanto riguarda le richieste di nuove polizze. Neppure gli assicuratori infatti, troverebbero chi li assicura contro le incognite future. Nei prossimi anni l'assicuratore guarderà sempre più attentamente agli studi della biologia applicata al fattore rischio. Siamo già in grado di stabilire con maggior precisione quali potranno essere i potenziali pericoli derivanti da fattori genetici. Di conseguenza il domani dell'assicuratore sarà quello di esaminare i soggetti tenendo conto di quanto apparirà nella documentazione sanitaria, arricchita, appunto, dei nuovi elementi clinici. In altre parole, chi è più sotto rischio dovrà pagare un «premio» più alto, magari con l'introduzione di particolari clausole limitative per chi contrae la polizza. Nel «pool» manageriale di tecnici la società assicurativa del futuro dovrà includere anche la figura del biologo al fine di trovare soluzioni competitive nel rapporto della gestione «premi-sinistri»: in sostanza, le indicazioni sul precedente e presente stato di salute di chi propone la polizza, dovranno anche essere valutate a seconda dei responsi del genoma umano. Giuseppe Alberti Assicuratore


MEDICINA & ASSICURAZIONI Il rischio nel Dna Quali polizze per le malattie genetiche?
AUTORE: MARCHISIO PIER CARLO
ARGOMENTI: GENETICA, MEDICINA E FISIOLOGIA, ASSICURAZIONI
NOMI: DULBECCO RENATO
ORGANIZZAZIONI: PROGETTO GENOMA
LUOGHI: ITALIA
TABELLE: T. TAB. LE CIFRE DEL PROGETTO «GENOMA UMANO» ================================================================ - Lunghezza della molecola del Dna: 1 metro - Numero di nucleotidi (le «lettere» dello alfabeto genetico che formano il patrimonio ereditario): 3 miliardi - Numero dei geni: 100.000 - Numero dei nucleotidi per ogni gene: 10.000 - Geni conosciuti: 4.000 - Geni individuati in media in un anno: qualche centinaio - Quantità di DNA non incluso nel geni: 97 % - Malattie genetiche conosciute: 5.000 - Inizio del Progetto Genoma: 1987 - Ricercatori italiani coinvolti (CNR): circa 500 - Coordinatore del Progetto Genoma: Renato Dulbecco - DNA mappato finora: circa 75% ================================================================ T. TAB. D. COME SI PRENDONO LE IMPRONTE GENETICHE ================================================================ Campione di sangue - IL DNA viene estratto dalle cellule ematiche - Il DNA viene tagliato in frammenti per mezzo degli enzimi di restrizione - I frammenti di DNA vengono sepratai in bande durante elettroforesi in gel agorosio - Le tracce delle bande di DNA sono trasferite su una membrana di nylon per mezzo di una tecnica nota come Southern Blotting - Viene preparata la sonda radioattiva di DNA - La sonda di DNA si lega a specifiche sequenza di DNA sulla membrana - Viene lavato via ciò che avanza della sonda di DNA - In questa fase la sonda reattiva è legata alle tracce di DNA sulla membrana - Una pellicola a raggi X è posta vicino alla membrana per rilevare la traccia radioattiva - La pellicola a raggi X è sviluppata per rendere visibili le tracce delle bande note come impronte digitali genetiche ================================================================ D. La struttura della cellula; D. Come è fatto il Dna
NOTE: MALATTIE GENETICHE E POLIZZE ASSICURATIVE TEMA: MALATTIE GENETICHE E POLIZZE ASSICURATIVE

IL genoma umano, cioè il nostro patrimonio genetico, il «progetto» sulla cui base è costruito il nostro organismo, è ormai decifrato per il 75 per cento ed è certo che alla fine di questo millennio si avranno cognizioni tali che tutte le circa cinquemila malattie genetiche conosciute saranno identificabili facilmente con test di laboratorio relativamente semplici. Parola di Renato Dulbecco, premio Nobel per la Medicina e coordinatore del Progetto Genoma Umano. Come sempre avviene, l'avanzamento della conoscenza implica un riaggiustamento dei codici di comportamento e impone problemi etici di non facile soluzione. Uno, il più difficile, è la liceità dell'interruzione di una gravidanza a rischio qualora un test riveli che il feto è portatore di una devastante malattia genetica. Questa drammatica decisione spetta unicamente ai genitori, senza l'interferenza di alcuna autorità se non quella delle loro convinzioni morali. Esiste tuttavia un altro problema che, lungi dall'essere un fatto individuale, investe tutta la società. Questo è il problema assicurativo. Che rapporto c'è tra assicurazioni e problemi genetici? Vediamolo insieme dal punto di vista del biologo e cerchiamo di osservarlo anche dal punto di vista dell'assicuratore. Alla luce delle conoscenze genetiche che vanno aumentando con passo rapidissimo, è già possibile predire, anche prima della nascita, la disposizione a ammalarsi di alcune malattie gravi che compaiono tardi nella vita degli individui portatori di un gene aberrante. Alcune sono malattie neurologiche fortunatamente rarissime come la co rea di Huntington, i cui sintomi compaiono intorno ai quarant'anni. Altre purtroppo sono molto più diffuse, come la poliposi familiare del colon che predispone al cancro del colon- retto o la forma familiare di cancro della mammella. I geni corrispondenti, chiamati APC per la poliposi e Brca1 e 2 per il tumore mammario sono facilmente identificabili. Quali sono i vantaggi e i difetti di queste nuove opportunità diagnostiche e delle altre che sempre più rapidamente si renderanno disponibili? Da una parte sapere di portare un gene pericoloso metterà gli individui in stato di allerta migliorando quell'attività di prevenzione che di per sè rappresenta metà delle vittorie sul cancro. Dall'altra la conoscenza di un rischio aumentato farà aumentare lo stato d'ansia in persone psichicamente più labili. In ambedue i casi toccherà ai medici bravi e competenti il gestire la salute fisica e psichica dei propri pazienti. Qualcosa sfugge tuttavia alla competenza dei medici: il problema dei rischi assicurativi sulla salute e sulla vita. Il punto è chiarissimo: hanno o no gli assicuratori diritto di accesso alle informazioni riservate sul profilo genetico di un potenziale assicurato? In altre parole, la ricerca di geni potenzialmente rischiosi per la salute o la vita dell'assicurato può in qualche modo interferire con il calcolo del premio assicurativo? La situazione non è così chiara. Già ora gli assicuratori richiedono una visita medico-legale prima di stipulare una polizza ma si limitano a un accertamento dello stato di salute momentaneo dell'individuo, che consente tuttavia di valutare il rischio con una certa probabilità. Ha l'assicurato il diritto di mantenere un po' di riservatezza sulle sue condizioni di salute? Tradizionalmente il giuramento di Ippocrate vincola tutti i medici al segreto professionale e quindi a non diffondere notizie sanitarie che potrebbero essere pericolose per qualsiasi attività i propri pazienti vogliano intraprendere. Ma i medici legali sono per definizione chiamati a violare il segreto e a trasferire notizie mediche alla compagnia che chiede loro consulenza. Ci si chiede che cosa capiterà quando lo sviluppo delle indagini genetiche metterà presto i medici legali in grado di svelare, con dovizia di numeri statistici, il rischio di ciascun assicurando. Il risultato sarà che a qualche individuo verrà negata l'assicurazione, ad altri si applicherà un aumento del premio proporzionale al rischio. In epoca di sempre maggiore tendenza a integrare il ruolo assicurativo pubblico sulle malattie e sulla vita con forme assicurative e pensionistiche private questo è tutt'altro che un problema banale. Qual è il punto di vista degli assicuratori? E' ovvio che molti di loro sostengono con vigore la necessità di avere accesso a tutta la possibile informazione medica ed essere perciò messi in grado di calcolare premi equi. Lavorano per la loro compagnia ed è chiaro che desiderano difendere i loro interessi economici. Qualche assicuratore tuttavia ha un atteggiamento molto più morbido su questo problema. Sono le «colombe» del fronte assicurativo rispetto ai «falchi» visti prima. Le colombe dicono che non c'è da preoccuparsi, che le malattie genetiche attualmente diagnosticabili sono ben al di sotto del 5 per cento delle cause di morte e qualunque compagnia è in grado di correre il rischio. Il vero problema sono le malattie che rappresentano il 95 per cento delle cause di morte, come quelle cardiovascolari e il cancro, dovute a un complesso di geni alterati e non a uno solo. Quindi, non ha senso preoccuparsi. Il problema è ulteriormente complicato dagli assicuratori metà falchi e metà colombe. Il loro punto di vista si riassume così: accesso totale all'informazione genetica allo scopo di costruire polizze su misura per gli individui a rischio e garantire riduzioni dei premi sugli altri. Ma c'è un ulteriore problema che rende questo atteggiamento un po' ipocrita e molto rischioso per gli assicurati. E' solo questione di tempo e si identificheranno sempre più facilmente i geni-spia delle malattie diffuse. Il diabete tardivo e l'ipertensione sono i primi in lizza ma altri relativi al cancro saranno tra qualche anno facilmente dimostrabili. Il rischio grave è che molti di noi o non saranno assicurabili con questi criteri, o il premio assicurativo ci verrà cucito addosso secondo i nostri geni rischiosi. I biologi fanno il loro mestiere, e cioè quello di scoprire geni e migliorare la prevenzione delle malattie. Che atteggiamento prenderanno gli assicuratori su questi problemi che sono destinati a cambiare il loro modo di lavorare? Pier Carlo Marchisio Dibit, San Raffaele, Milano


POLEMICA A GINEVRA Radioattività al Cern? «I controlli sono rigorosi»
NOMI: WENNINGER HORST, HOEFERT MANFRED
ORGANIZZAZIONI: CERN
LUOGHI: ESTERO, EUROPA, SVIZZERA, GINEVRA

UN rapporto di una ditta francese di radiometria (misura della radiazione) indicherebbe alcuni casi di contaminazione dentro e fuori i siti del Cern, il laboratorio europeo per la ricerca nucleare alla periferia di Ginevra. Sarebbero stati trovati due rifiuti metallici leggermente radioattivi e dosi anomale in campioni di terreno e nelle acque di scarico all'interno del centro e nelle sue vicinanze, durante controlli fatti senza informare l'organizzazione. Horst Wenninger, direttore di ricerca, e Manfred Hoefert, responsabile del gruppo di radioprotezione del Cern, hanno preso posizione sulla vicenda. «Perché agire di nascosto? - dice Wenninger -. Il Cern non ha segreti, nessuno dentro o fuori è in pericolo. I campioni sono stati prelevati a nostra insaputa, verosimilmente da una delle aree recintate e controllate, e hanno superato almeno tre fasi di controllo in uscita, probabilmente perché posti accortamente in contenitori di piombo». I rifiuti metallici sono stati asportati prima dei controlli fatti ogni notte sui cassoni; le analisi dell'acqua sembrano non corrispondere a quelle eseguite ogni due mesi per conto del Cern. Hoefert ha spiegato che tutti i dati relativi alla radioprotezione e alla dosimetria siano pubblicati nei rapporti annuali, e che la normativa Cern è estremamente severa: la massima dose annuale consentita è di 15 mSv (milliSievert), mentre le normative francese e svizzera ne prevedono rispettivamente 50 e 20. Tutti i dipendenti del Cern, circa diecimila, hanno un dosimetro personale rinnovato mensilmente; ogni irregolarità verrebbe scoperta e le cause rintracciate. I fatti in questione saranno verificati dalle autorità competenti dell'organizzazione e da consulenti esterni.


LA CASA INTELLIGENTE L'elettronica anti-handicap
Autore: BONZO MARIALUISA

ARGOMENTI: ELETTRONICA
LUOGHI: ITALIA

UN minimo tocco con la mano, un cenno con il capo o con gli occhi, talvolta un richiamo vocale, e le porte della propria casa si aprono, le serrande si abbassano, si accende la luce, si avvia il riscaldamento, si mettono in funzione gli elettrodomestici, entra in funzione il congegno che aiuta un portatore di handicap ad alzarsi dal letto. Si chiama «casa intelligente». E' un prototipo studiato e realizzato dal settore telecomunicazioni per il sociale di Telecom Italia. La sperimentazione sul campo di questa tecnologia inizierà probabilmente alla fine di quest'anno. Stiamo parlando di un sistema di controllo studiato per venire incontro alle speciali esigenze di portatori di handicap gravi all'interno del proprio spazio abitativo. Si può facilmente applicare alle abitazioni di chi nonostante la disabilità non vuole assolutamente rinunciare a vivere in modo il più autosufficiente possibile. Un «cuore» elettronico controlla e dirige le normali attività che l'handicappato non è in grado di svolgere in modo indipendente. Il computer, anima della casa, può essere predisposto per sopperire alle esigenze differenti per tipo e gravità di handicap. Il gestore viene programmato in modo da poter essere comandato dall'utente con una metodologia semplice, compatibile con la propria disabilità, sia essa motoria o sensoriale. Il computer ha anche una funzione di controllo e di monitoraggio sull'intero spazio abitativo: sofisticati sensori sempre all'erta sono in grado di percepire un pericolo incombente e di intervenire tempestivamente di conseguenza. Infatti il sistema è dotato di un'interfaccia con l'ambiente che gli consente di controllare e gestire le informazioni che riceve dai raffinati rilevatori e in caso di necessità di attivarsi. Una fuga di gas, una perdita d'acqua, un'anomalia nell'impianto elettrico viene rapidamente individuata dal gestore che, mentre ne avverte l'utente, si adopera per eliminare ogni possibile rischio. La sicurezza in casa viene garantita anche dal collegamento costante con i servizi e i centri per l'assistenza medica a distanza. E' lo stesso gestore del servizio telefonico a interviene e ad avverte il telesoccorso e la teleassistenza nel caso venga individuata e accertata una situazione di pericolo. Una casa intelligente, studiata con elevati parametri di sicurezza, non solo è più funzionale e confortevole per i portatori di gravi handicap. Il sistema gestionale elettronico può rendere più dignitosa e comoda la vita di una persona anziana permettendole di abitare anche da sola più tranquillamente. Non va dimenticato, infine, che la ricerca a favore dei disabili porta spesso a soluzioni tecniche che possono tornare utili e offrire dei vantaggi a tutti. Per esempio, standard di sicurezza più elevati nella propria casa possono ridurre i rischi di incidenti domestici, purtroppo così comuni e pericolosi. Marialuisa Bonzo


IL SOTTOMARINO TASCABILE Turismo, soccorsi, esplorazioni Il primo scafo sommergibile inventato nel 1620 da un olandese
NOMI: VAN DREBBEL CORNELIUS, PICCARD JACQUES, WALS DOM
LUOGHI: ITALIA
TABELLE: D. Sommergibile per compiti specifici

L'uomo si è avventurato sott'acqua in tempi relativemnte recenti. Il primo sottomarino funzionante fu costruito da un eclettico scienziato olandese, Cornelius Van Drebbel; trasferitosi in Inghilterra nel 1620 realizzò un rudimentale batiscafo con il quale si immerse nel Tamigi navigando sott'ascua dal centro di Londra a Greenwich e raggiungendo una profondità di circa 4 metri. Ma i progressi nell'immersione sottomarina sono stati rapidi e fantastici; senza considerare le attività militari (i sottomarini atomici sono in grado di restare immersi per mesi e di percorrere migliaia di chilometri senza dover risalire in superficie) in campo scientifico l'impresa più clamorosa è quella compiuta con il batiscafo «Trieste» di concezione italiana, dallo svizzero Jacques Piccard accompagnato dall'americano Dom Wals: il 23 gennaio 1960 i due raggiungerso i 10.916 metri della Fossa delle Marianne, nel Pacifico, la più profonda depressione del Pianeta. Negli ultimi anni sono stati progettati e costruiti in Europa, in America e in Giappone numerosi sommergibili con caratteristiche e compiti specifici: esplorazione scientifica, recupero di relitti (per esempio i rottami del DC9 precipitato nei pressi di Ustica), salvataggio di persone. A differenza dei sopttomarini militari, che sono in grado di muoversi liberamente e di rigenerare l'aria al loro interno, questi sommergibili hanno in genere un'autonomia limitata e dipendono da una nave appoggio per il rifornimento di carburante e aria. Quello raffigurato nel disegno può raggiungere la profondità di 450 metri.


CAVENDISH NEL 1798 La Terra pesata in laboratorio Calcolando la massa e la forza gravitazionale fra due corpi
Autore: BO GIAN CARLO

ARGOMENTI: STORIA DELLA SCIENZA
NOMI: CAVENDISH HENRY
LUOGHI: ITALIA

SE Archimede non poté sollevare la Terra, ci fu chi la pesò. Stava cominciando il XIX secolo quando Henry Cavendish, britannico quasi isolato dal mondo, ricco, geniale e nevrotico, nel 1798 ideò un marchingegno per misurare la forza gravitazionale che agisce tra due corpi. L'idea della Terra sferica era ormai accettata fin dai tempi di Pitagora (525 a.C. o giù di lì). Circa un paio di secoli dopo Aristotele elencò una serie di fatti per dimostrare che la Terra è rotonda e non piatta. Dante nella Commedia la suppose sferica. Più difficile da digerire era la Terra in rotazione e dovette essere un bel problema se bisognò attendere fino al 1851 perché Jean-Bernard Leon Foucault lo dimostrasse con il suo enorme pendolo appeso alla cupola di una chiesa parigina. Ancora nel 1632 Galileo era condannato all'abiura dall'Inquisizione che soltanto 32 anni prima aveva immolato Giordano Bruno sul rogo dell'ignoranza. L'apparecchiatura del Cavendish è semplice nella sua genialità, ma quella di Eraclide da Pomo (350 a.C., greco e filosofo, naturalmente) dovette essere, considerando i tempi, ancora più snella e funzionale, limitandosi a un certo quantitativo di fresche anfore di vino resinoso: attrezzatura che gli permise di sostenere essere molto più facile che la Terra ruotasse sul proprio asse che tutti i cieli attorno alla Terra. Altro che nevrosi dello scienziato] Se si conoscono esattamente forma e dimensioni della Terra è facile calcolarne il volume (1083 miliardi di chilometri cubi, circa) ma il calcolo della massa è più complesso. Sottoponendo le leggi di Keplero a una meravigliosa analisi matematica, riferendosi alle scoperte di Galileo nel campo della meccanica e di Huygens riguardanti la forza centripeta, Newton fu in grado di enunciare la legge di gravitazione universale: questa permise il calcolo della massa. E' semplice: «Tutti i corpi costituenti l'universo si attraggono con una forza direttamente proporzionale alle loro masse e inversamente proporzionale al quadrato delle loro distanze». Nella formula compare G, la costante gravitazionale che New ton non era in grado di valutare perché bisognava misurare la forza gravitazionale agente tra due corpi di massa nota che si trovino a una distanza nota. Tale forza è debolissima e misurare la forza d'attrazione tra due masse che siamo in grado di maneggiare risultava impossibile. Il Cavendish ebbe un colpo di genio e confezionò una specie di microscopico universo nel suo laboratorio. Costruì una specie di bilancia, con due sfere di massa nota collocate alle estremità dei bracci. Poi sistemò due sfere più grandi, sempre di massa nota, fisse in prossimità delle altre due. Risultò che l'attrazione gravitazionale tra le sfere grandi fisse e quelle mobili fece ruotare il braccio della bilancia, torcendo il filo di sospensione. Cavendish misurò tale forza di torsione: le masse già le conosceva e anche la distanza tra loro, così calcolò G con la formula di Newton. Poi, dato che è facile misurare la forza gravitazionale esercitata dalla Terra su un corpo qualsiasi conosciuto, poté calcolarne la massa e, di conseguenza, voilà, la pesò. Gian Carlo Bo


LA NATURA ALL'ELBA Tra asparagi e calendule ematiti, opali, calcite
LUOGHI: ITALIA

TRE giorni di erbe e minerali all'Isola d'Elba, dal 30 maggio al 2 giugno, per la manifestazione «I fiori della terra», che si terrà a Rio Marina e Rio nell'Elba. Una festa, una mostra mercato, e incontri scientifici in una delle più belle isole del Tirreno, celebre già al tempo dei Romani per le sue miniere. Saranno in mostra i più tipici minerali elbani come calcite, ematite, magnetite, malachite, opale, e le erbe «storiche», come asparago, borragine, calendula, biancospino, molte delle quali coltivate nell'Orto Botanico del Perone e nell'Orto dei Semplici Elbani, nei pressi dell'Eremo di Santa Caterina. Da venerdì a domenica, inoltre, (Rio nell'Elba, Chiesina della Pietà), sono in programma incontri scientifici con docenti universitari su temi come «L'ambiente botanico», «L'ambiente geomineralogico e la storia mineraria», «La vegetazione sommersa», «La metallurgia del ferro nei periodi classici e mediovali», «Il granito e i minerali pegmatitici del monte Capanne». Da ricordare che l'Unesco ha classificato come veri e propri monumenti geologici le zone di Rio e Calamita, «Straordinario esempio di rilevanti fenomeni geologici e mineralogici con un'attività mineraria sviluppatasi nel corso di tremila anni... Un esempio unico di interazione fra l'uomo e un insieme di processi naturali inseriti in un paesaggio pieno di fascino». La mostra mercato delle erbe sarà allestita a Rio nell'Elba presso il centro Il Barcocaio; a Rio Marina - nei locali dell'antica Officina San Jacopo - mostra di archeologia industriale sulle tante miniere, oggi abbandonate, e una mostra fotografica sulla vita e la genesi dei minerali. Informazioni Consorzio Elba Promotion Portoferraio, 0565/91.76.32.


UN PINNIPEDE DA TRE TONNELLATE L'elefante subacqueo Può restare in immersione fino a 40 minuti
Autore: LATTES COIFMANN ISABELLA

ARGOMENTI: ZOOLOGIA
NOMI: STEWART BRENT, LE BOEUF BURNEY
LUOGHI: ESTERO, AMERICA, USA, CALIFORNIA

NON ci sono dubbi: il campione di immersione subacquea è lui, l'elefante marino del Nord (Mirounga angustirostris). Lo conferma il ricercatore dell'Università di California a Berkeley, Brent S. Stewart, che dal l989 studia insieme con la sua equipe la biologia di questo interessante mammifero. Così chiamato per la corta proboscide del maschio, formata da un prolungamento del naso che di solito pende molle e inerte al di sopra della bocca. Solo quando il pinnipede è in collera, la proboscide si inturgidisce e si solleva minacciosa. Qualche volta è sufficiente questo atteggiamento intimidatorio per mettere in fuga il rivale. E' un bestione di tutto rispetto, l'elefante di mare. Può raggiungere nel maschio adulto il peso di tre tonnellate. Un ammasso di carne che si trascina faticosamente sulla terraferma, ma diventa miracolosamente agile in acqua. Pesa sette volte più della femmina che, al suo confronto, è un peso piuma. L'elefante marino è indubbiamente il più acquatico di tutti i pinnipedi, quello cioè che trascorre in acqua la maggior parte della sua esistenza, dagli otto ai dieci mesi all'anno. Viene a terra soltanto per riprodursi e per la muta della pelliccia. Non è difficile seguirne la vicende quando si trova in terraferma. Molti biologi se ne sono occupati. L'americano Burney Le Boeuf ha studiato la popolazione di Mirounga angustirostris che va regolarmente a riprodursi nell'isola Ano Nuevo, al largo delle coste californiane. Stewart e la sua equipe studiano invece gli elefanti di mare che vengono a riprodursi a migliaia sulle spiagge sabbiose di San Miguel, una delle isole prospicienti la California meridionale. A dicembre arrivano alla spicciolata dal mare i maschi e incominciano ad azzuffarsi per contendersi i territori migliori. Sono lotte furibonde, accompagnate da muggiti selvaggi che risuonano in tutta l'isola. La conclusione è che i più forti riescono a impossessarsi delle postazioni più vantaggiose, mentre i più deboli vengono spinti in periferia o addirittura non riescono nemmeno a procurarsi un territorio di scarto. Il che significa che sono condannati al celibato. O almeno lo sarebbero se non escogitassero ingegnose scappatoie per riuscire ad agganciare qualche partner. Poco dopo arrivano le femmine e, come prima cosa, danno alla luce il figlioletto che hanno concepito l'anno precedente. Tre settimane dopo sono pronte a un nuovo accoppiamento. Nel tardo gennaio non solo le spiagge di San Miguel, ma anche quelle delle isole vicine pullulano di elefanti di mare. Stewart calcola ce ne siano circa trentacinquemila fra adulti e neonati. Ai primi di marzo improvvisamente la scena cambia. Spariscono prima le femmine, che abbandonano i loro piccoli, poi i maschi adulti. Un mese dopo anche i neonati, ormai cresciuti, prendono il mare e la spiaggia ridiventa deserta. Fra primavera ed estate però gli elefanti di mare ritornano, questa volta per la muta annuale. Cambiano pelle, anzi pelliccia. E dopo un mese se ne vanno di nuovo, lasciando brandelli di pelo qua e là a ricordo della loro ultima visita. Ma nei lunghi mesi in cui non si vedono a terra, dove vanno e cosa fanno gli elefanti di mare? E' questo il mistero che Stewart e la sua equipe si prefiggono di svelare. E per farlo mettono a punto strumenti sofisticati che consentono non solo di seguire i pinnipedi nei loro spostamenti, ma anche di misurare la pressione dell'acqua e quindi la profondità raggiunta, nonché altri dati fondamentali per poter stabilire il percorso seguito dagli animali. Munendo di questi dispositivi un centinaio di elefanti adulti, scoprono che questi pinnipedi compiono non una sola ma due migrazioni a lungo raggio all'anno. Nessun altro vertebrato è in grado di compiere una simile doppia migrazione annuale. La prima migrazione ha inizio quando termina la stagione degli amori. Le femmine partono nella prima metà di febbraio e migrano fino al Pacifico settentrionale, prima di ritornare alla base per la muta. Un viaggio circolare lungo seimila chilometri che dura in media settantatrè giorni. La rotta migratoria maschile (i maschi si mettono in viaggio tra gli ultimi di febbraio e i primi di marzo) li porta 2500 chilometri più a Nord delle femmine. Quando tornano a San Miguel per la muta, hanno percorso più di undicimila chilometri in l20 giorni. Dopo essersi fermati un mesetto sulla spiaggia per la muta senza toccare cibo, gli elefanti marini partono per la seconda migrazione. Questa volta le femmine si trattengono in mare per 234 giorni percorrendo oltre undicimila chilometri, prima di far ritorno a San Miguel per partorire e riprodursi. I maschi invece percorrono un tragitto leggermente più breve, di nove-diecimila chilometri in circa l26 giorni. Ma emerge dalle ricerche degli studiosi un altro dato estremamente interessante. Che cioè gli elefanti di mare si immergono regolarmente a profondità anche superiori ai 750 metri. Un maschio raggiunse addirittura la profondità di oltre millecinquecento metri. Gli animali si immergono continuamente. Rimangono immersi ogni volta dai venti ai quaranta minuti, venendo alla superficie a respirare per non più di tre minuti. Nell'arco di quattro mesi, ciascun elefante si è immerso settemila volte, rimanendo sott'acqua per il novanta per cento del suo tempo. Campione di immersione dunque a pieno titolo. Ma anche campione di migrazione a largo raggio, almeno tra i mammiferi. E' vero che le balene grigie nuotano per oltre quindicimila chilometri durante la loro migrazione annuale dalle lagune californiane in cui si riproducono al Mare di Bering dove vanno a rimpinzarsi di cibo. Ma le distanze totali che gli elefanti marini ricoprono nella loro doppia migrazione li pone in cima all'elenco dei mammiferi migratori. A differenza di altri loro colleghi pinnipedi, gli elefanti marini non corrono pericolo di estinzione, forse proprio grazie a queste doti eccezionali. Isabella Lattes Coifmann


MICROONDE L'arrosto cotto dal fuoco freddo
Autore: CAGNOTTI MARCO

ARGOMENTI: TECNOLOGIA, ALIMENTAZIONE
LUOGHI: ITALIA

PRENDIAMO un pezzo di arrosto, posiamolo su un piatto e mettiamolo in un forno a microonde. Quando è ben cotto, apriamo il forno, afferriamo il piatto, e serviamo in tavola. Ma... un momento: il piatto non scotta] Infatti l'abbiamo preso senza alcun guanto di stoffa. Come mai il forno a mi croonde riscalda i cibi al punto di cuocerli, ma lascia freddi i piatti? Al pari della luce visibile e delle onde radio, le microonde sono un tipo particolare di oscillazioni del campo elettromagnetico. La loro frequenza è compresa fra 0,3 GHz e 300 GHz (che corrispondono rispettivamente a 300 milioni e a 300 miliardi di oscillazioni in ogni secondo). Le molecole di acqua (H2O), pur essendo globalmente neutre, hanno la carica elettrica distribuita in maniera non uniforme: l'atomo di ossigeno acquisisce un eccesso di carica negativa perché attrae due elettroni, mentre i due atomi di idrogeno, cedendo un elettrone ciascuno all'ossigeno, assumono una carica positiva. La struttura polare fa sì che l'orientamento molecolare sia modificato da un campo elettrico esterno. Se il campo è oscillante con una frequenza caratteristica (è il caso delle microonde) le molecole possono cominciare a vibrare e a ruotare, aumentando la propria energia. Ne consegue un aumento della temperatura che porta alla cottura degli alimenti. Anche alcuni lipidi e zuccheri hanno una struttura polare come quella dell'acqua, ma la rapidità della cottura e il maggiore peso molecolare determinano una minore azione delle micro onde. Siccome non c'è acqua fra le sostanze che compongono piatti e stoviglie, è ovvio che questi non si scaldano e possiamo afferrarli senza precauzioni. La cottura in un forno a mi croonde è molto diversa da quella in un tradizionale forno elettrico o a gas. Mentre questi ultimi trasmettono il calore sotto forma di radiazione infrarossa e riscaldano l'aria che circonda il cibo, il forno a microonde immerge quest'ultimo in un vero e proprio «bagno» di radiazione, che viene assorbita dall'acqua presente negli strati superficiali dei tessuti organici. Quanto minore è la frequenza, tanto più in profondità arriverà l'assorbimento. Gli apparecchi di uso comune nelle nostre cucine si servono di radiazione a 2,45 GHz che, nel caso della carne, riscalda per azione diretta solo i primi due centimetri di tessuto organico. Il calore, provenendo da tutte le direzioni, si propaga poi per conduzione verso l'interno e raggiunge il centro. In nessun punto la temperatura può superare 100 oC, e quindi i liquidi dell'alimento non evaporano. La cottura è più uniforme che in un forno tradizionale, nel quale il calore porta gli strati esterni fino a 150 oC, facendone evaporare l'acqua e cuocendoli per primi. Un'importante raccomandazione delle ditte produttrici di forni a microonde sconsiglia di porre all'interno dell'apparecchio degli oggetti di metallo, pena il danneggiamento del forno stesso. In effetti il «bagno» di radiazione porta a un accumulo di cariche elettriche sulle punte metalliche (come potrebbero essere le pieghe dei fogli di alluminio per alimenti) che, per quanto brevissimo (dell'ordine di un miliardesimo di secondo), può generare un campo elettrico molto intenso. Così intenso che neanche l'aria circostante riesce a fare da isolante, e si genera un microscopico lampo fra la punta e la parete del forno. L'umanità ha cominciato a mangiare cibi crudi, e poi ha scoperto che erano molto più buoni e digeribili se cotti esponendoli a una fonte di calore. Si è cominciato con il fuoco, per passare poi al gas e, nell'ultimo secolo, alle resistenze elettriche. Oggi abbiamo fatto un salto di qualità: niente più calore proveniente da una sorgente esterna, ma aumento dell'energia molecolare, e quindi della temperatura dei cibi, con l'esposizione a una radiazione elettromagnetica di frequenza opportuna. Domani, chissà... Marco Cagnotti


PREVENZIONE Al seno e al colon, tumori di famiglia Chi si ammala può anche essere portatore di un'anomalia ereditaria
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA

NEGLI ultimi tempi le ricerche sui tumori hanno tratto vantaggio dagli sviluppi della biologia molecolare. Negli Anni 70, mediante lo studio dei virus generatori di tumori negli animali si aprì una prima porta, la scoperta degli oncogeni; negli Anni 80 l'ematologia, l'immunologia, la citogenetica e la biologia molecolare contribuirono a precisare i meccanismi di attivazione di questi geni e lo squilibrio biologico che ne derivava; oggi assistiamo all'esplosione della genetica applicata ai tumori. Ricordiamo sommariamente: particolari geni, normali regolatori del metabolismo e della riproduzione delle cellule, possono mutare trasformandosi in oncogeni (onkos, in greco, significa «tumefazione»), e allora le cellule si moltiplicano patologicamente, libere da freni, dando origine al tumore. La scoperta degli oncogeni, oltre alla comprensione dei meccanismi generali dell'oncogenesi, ha portato allo sviluppo dell'oncogenetica. Sia però ben chiaro: i tumori, salvo qualche eccezione, non sono legati all'ereditarietà nel senso delle tradizionali malattie ereditarie con trasmissione di tipo mendeliano. Troppe sono le circostanze che devono concorrere tutte insieme all'origine d'un tumore, per poter parlare di ereditarietà nel senso classico del termine. Il tumore risulta da un accumulo di numerose mutazioni genetiche successive, e per questo la sua frequenza aumenta con l'età. Le mutazioni sono provocate in genere dall'esposizione ad agenti mutageni esterni, fisici o chimici, presenti nel nostro ambiente, naturale (raggi solari, alimentazione) o artificiali (esposizioni professionali, tabacco). Tuttavia se una mutazione è presente costituzionalmente fino dal concepimento, o se il soggetto soffre d'una instabilità cromosomica o d'un difetto di riparazione del Dna, il rischio d'un tumore aumenterà, e se questa caratteristica è condivisa con altri membri della famiglia si osserverà una consonanza famigliare del tumore. E talvolta si può valutare il rischio cancerogeno dei membri d'una famiglia predisposta ad un tumore. Il sospetto di una predisposizione genetica a un tumore può derivare appunto dal trovarsi di fronte a una frequenza anomala di casi in una famiglia, non dimenticando però che ciò può dipendere anche dall'esposizione comune a un ambiente nocivo, o semplicemente dal caso (il tumore è una malattia molto frequente). A parte la consonanza famigliare, l'indicazione che un soggetto sia geneticamente predisposto potrà venire dal fatto che egli sia portatore di qualche anomalia genetica costituzionale. Si stima che il 5-10 per cento dei tumori compaia in persone predisposte geneticamente, e ciò riguarderebbe soprattutto i tumori della mammella e del colon, mentre è per il momento difficile implicare l'eredità per quelli del polmone, dello stomaco, dell'utero. Coloro che sono considerati predisposti si sottoporranno a frequenti controlli e riceveranno tutte le indicazioni opportune. Certo la situazione non è semplice, non esistono mezzi specifici di prevenzione, nondimeno è giustificata la creazione di consultori di genetica oncologica nei centri di diagnosi e terapia dei tumori. Ormai si conoscono numerosi oncogeni, è nota la loro localizzazione cromosomica, e la genetica prende un posto sempre più importante nella cancerologia. L'oncogenetica del futuro si avvarrà di animali transgenici, il cui patrimonio genetico è stato modificato in laboratorio. Utilizzando questi modelli animali potranno essere chiariti i temi essenziali dell'origine dei tumori, e messe a punto nuove strategie di prevenzione e cura. In proposito, dal 27 al 30 aprile, a Baveno Stresa, si è svolto il quinto incontro europeo su genetica dei tumori umani e predisposizione familiare. Ulrico di Aichelburg


Mali prevedibili ma non curabili, che fare? Il premio Nobel Dulbecco: «Sapere è sempre meglio che non sapere»
AUTORE: BIANUCCI PIERO
ARGOMENTI: GENETICA, MEDICINA E FISIOLOGIA, ASSICURAZIONI
PERSONE: DULBECCO RENATO
NOMI: DULBECCO RENATO
ORGANIZZAZIONI: SCIENCE, PROGETTO GENOMA
LUOGHI: ITALIA
NOTE: MALATTIE GENETICHE E POLIZZE ASSICURATIVE TEMA: MALATTIE GENETICHE E POLIZZE ASSICURATIVE

TRE miliardi di lettere, equivalenti a una biblioteca di cinquemila libri. Tante sono le informazioni contenute nella molecola di Dna alla quale è affidato il nostro patrimonio genetico. Quando dieci anni fa la rivista americana «Science» lanciò il Progetto Genoma, cioè l'idea di una collaborazione internazionale per decifrare integralmente le «istruzioni» in base alle quali è costruito l'organismo umano, si pensava che la sua realizzazione avrebbe richiesto molti anni e che un tempo ben più lungo sarebbe stato necessario per giungere ad applicare le conoscenze che ne sarebbero scaturite. Ma in dieci anni le tecniche di lettura del Dna e di identificazione dei geni hanno fatto enormi progressi, i tempi si sono incredibilmente abbreviati, e così ci troviamo di fronte a problemi bioetici che fino a ieri la comunità scientifica immaginava ancora lontanissimi. Ne parliamo con Renato Dulbecco, premio Nobel per la medicina e coordinatore del Progetto Genoma. La decifrazione del Dna ci permette di diagnosticare in anticipo alcune malattie genetiche, senza però che ci sia la possibilità, almeno per adesso, di intervenire per porvi rimedio. E' opportuno, dal punto di vista morale, fare queste diagnosi, e comunicarle all'interessato? «Io penso che sia sempre meglio sapere che non sapere. Una persona che abbia la vita segnata da un errore genetico che sappiamo si manifesterà, per esempio, a quarant'anni, deve sapere che cosa gli succederà, se non altro per organizzare la sua esistenza. Inoltre, essendo le probabilità di malattia al 50 per cento, può anche darsi che si realizzi la probabilità favorevole: e certamente in questo caso sarebbe peggio vivere nell'incertezza e nel dubbio». Si discute se la scoperta di geni umani sia brevettabile... «Il problema si è posto quando l'Istituto nazionale per la salute americano ha isolato per primo frammenti di materiale genetico messaggero. Il brevetto è stato rifiutato. Ci sono regole precise per la brevettabilità: il metodo usato per fare la scoperta deve essere originale e ci deve essere un impiego pratico della scoperta. Nel caso dei frammenti messaggeri queste circostanze non esistevano. Ma se io isolo un gene, lo modifico, lo metto in un vettore e gli faccio fare una proteina, e questa proteina ha una funzione utile, allora il discorso cambia. In questo caso la brevettabilità ha un ruolo positivo». I brevetti in campo biomedico devono essere riconosciuti anche per incoraggiare il finanziamento alla ricerca da parte delle case farmaceutiche? «Sì, lo vedo anche nella mia esperienza quotidiana al Salk Institute, in California, dove si sono fatte scoperte che ora sono brevettate. Se una tecnologia è in possesso di varie aziende, quelle magari la mettono in un cassetto e non la utilizzano. Se invece una sola ha il brevetto, allora c'è lo stimolo a sfruttralo nel modo migliore. La ricerca costa somme enormi, milioni di dollari. Non dimentichiamolo». L'Organizzazione Mondiale della Sanità può avere un ruolo nel regolamentare l'uso della ricerca genetica? «Ogni Paese ha le sue leggi ma si va verso principi comuni. Una volta le norme europee erano molto diverse da quelle americane. Oggi non è più così. Non vorrei che l'intervento di un organismo internazionale portasse a complicazioni burocratiche: intralcerebbero soltanto la ricerca». Piero Bianucci


INTERNET Nella rete democrazia imperfetta
AUTORE: MERCAI SILVIO
ARGOMENTI: ELETTRONICA, COMUNICAZIONI, INFORMATICA
ORGANIZZAZIONI: INTERNET
LUOGHI: ITALIA

IL tema della democrazia di e su Internet è di nuovo al centro del dibattito, sui giornali e sulla rete stessa. Un primo punto è se ci sia democrazia su Internet. Direi abbastanza serenamente di sì, nel bene e nel male, sia pure con qualche non secondario distinguo. Che la rete non abbia un padrone solo, che sia molto tollerante e varia nelle sue espressioni e che reagisca (come sta succedendo) con grande vitalità ai tentativi di imporvi un filtro censorio sono inconfutabili indizi di una tendenza democratica. Naturalmente, proprio questa tessitura democratica dà conto del fatto che sulla rete si ritrovino - come nella vita reale - siti, ideologie e personaggi di chiaro stampo fascista e illiberale come pure aspetti razzisti, di intolleranza, di autoritarismo, di pornografia. Però... qualche precisazione va aggiunta. Innanzi tutto, è indubbia la presenza di un qualche tipo di imperialismo statunitense (sono soprattutto i francesi, non a caso, a segnalare con particolare veemenza questa situazione, cui stanno tentando di contrapporre una sorta di rete parallela di siti e ambienti francofoni). In secondo luogo, se è vero che non c'è un padrone solo, vero è però che ci sono - e sempre più ci saranno - tanti padroni, in spietata concorrenza: il che da un lato garantisce una certa libertà e polifonia del mercato, ma, dall'altro, spiana la strada a intese che solo la forte legislazione anti-trust americana impedisce che diventino soffocanti cartelli di dominio. Questo vale sia per le compagnie telefoniche sia per le ditte produttrici di software (dalla Microsoft alla Netscape alla Sun) che forniscono gli strumenti indispensabili per la navigazione. Un terzo aspetto importante è rappresentato, infine, dalla crescente commercializzazione della rete, con l'inevitabile ricaduta della sua colonizzazione da parte della pubblicità. Il secondo punto è quello della democrazia di Internet, se cioè la rete sia o possa essere usata come strumento di democrazia. Perché ciò avvenga, essa dovrebbe innanzi tutto essere alla portata di tutti, cioè non prestarsi a fungere da discrimine di classe: e la questione dei costi è il primo punto. E' vero che com puter e modem costano ormai abbastanza poco e che un'ora di Internet costa complessivamente come un cinema. Ma è vero anche che i costi aumentano se il provider non è locale o se si fa la connessione nelle ore diurne, quando è in vigore la famigerata Tut (la tariffa telefonica urbana a tempo), o se si vogliono usare le nuove risorse della rete (filmati e altre amenità multimediali, oggi molto di moda per il loro forte impatto pubblicitario) che richiedono processori e memorie molto potenti. Qui la strada non può che essere politica: creare dei punti di connessione gratuiti per l'utenza universitaria e per gli studiosi in genere (che non siano inefficienti come spesso lo sono state le biblioteche pubbliche nel nostro Paese]), aprire connessioni a basso costo per le utenze sociali (nei municipi per esempio), predisporre tariffe telefoniche agevolate per l'uso non commmerciale della rete. Negli Stati Uniti questo sta già accadendo: possiamo sperare anche noi che si muova qualcosa non in modo isolato e sperimentale? Ma questo, di per sè, non basta: occorre anche che si lavori sul piano culturale, per rimuovere, soprattutto nei giovani e nelle classi disagiate, il pregiudizio di incompetenza nei confronti dello strumento informatico. Qui il punto di partenza è la scuola (e, anche qui, negli Stati Uniti sono partiti i primi programmi di internettizzazione di massa). Altrimenti Internet resterà solo uno strumento (come le costose enciclopedie di tanti anni fa) che mette più cose a disposizione di chi già possiede significative risorse culturali a discapito di chi meno ne ha. Silvio A. Merciai




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio