TUTTOSCIENZE 14 dicembre 94


IDEATA IN GERMANIA In arrivo la vernice autopulente Imita il processo di lavaggio delle foglie di loto
Autore: PREDAZZI FRANCESCA

ARGOMENTI: TECNOLOGIA, BOTANICA, CHIMICA
NOMI: BATHLOTT WILHELM
LUOGHI: ESTERO, GERMANIA, BONN

IL sogno di ogni proprietario di casa o di automobile (e l'incubo di ogni impresa di pulizie) ha buone probabilità di avverarsi: la produzione di speciali vernici auto-pulenti, che sono in grado di far ritornare come nuova la macchina o la facciata della casa appena cade la prima pioggia. Basta un po' d'acqua perché la superficie sporca e impolverata si liberi da sola della sporcizia che la copre senza aiuto di stracci e spazzoloni. Quello che a prima vista parrebbe una dote fantascientifica è in realtà un meccanismo di cui in natura si serve l'intero regno vegetale, alcune piante in modo perfetto, come il loto, che non a caso è il simbolo buddista della purezza, altre in modo più approssimativo. In ogni caso tutti gli alberi di ogni forma e dimensione, e tutti i fiori, sono in grado di presentare delle foglie o dei petali lucidi e puliti. Come fanno? «La superficie della foglia di loto», spiega il professor Wilhelm Barthlott, direttore dell'Istituto di Botanica dell'Università di Bonn, «è formata da minuscole papille ricoperte da un sottilissimo strato di cera per difendersi dai funghi o dai batteri». La polvere o la sporcizia che si depositano sulla foglia, in questo modo restano sospese sopra queste papille e quando una goccia d'acqua bagna il loto, le particelle di sporcizia vengono automaticamente costrette a scivolare via insieme all'acqua. «Proprio questo è stato l'errore dell'industria che da tempo aspira a superfici auto-pulitrici», dice Barthlott. Si cercava di produrre una superficie più liscia possibile, mentre sono proprio le minuscole papille che nelle piante impediscono allo sporco di attaccarsi. Gli esperimenti per illustrare «l'effetto loto» sono semplici: le foglie vengono ricoperte di una polvere rossa estremamente adesiva, poi un'innaffiatina ed ecco che l'acqua raccoglie lo sporco e scivola dalla foglia che rimane pulita anche all'esame microscopico. Adesso il professor Barthlott è riuscito a ottenere superfici artificiali con le stesse caratteristiche. Tra uno o due anni, stima questo ricercatore di Bonn, la vernice auto-pulente, alla quale si sono già interessati alcuni produttori tedeschi, potrà essere pronta per la produzione. A quel punto, se corrisponderà alle aspettative, le applicazioni potranno essere quasi infinite: tram che non si lasciano insozzare dai graffitomani, serre che lasciano sempre passare la luce del sole, case, automobili. Francesca Predazzi


UN TRIBUNALE VIRTUALE? Il computer con la toga Giustizia informatica, possibile solo in teoria
Autore: CASSOTTA VALERIO

ARGOMENTI: INFORMATICA, ELETTRONICA, LAVORO, GIUSTIZIA, MAGISTRATI
NOMI: DI PIETRO ANTONIO, LOEVINGER LEE
LUOGHI: ITALIA

ANTONIO Di Pietro resterà nella storia della giustizia italiana non solo per il processo «Mani Pulite» che ha liquidato gran parte dei protagonisti della Prima Repubblica ma anche per le tecnologie informatiche e multimediali che ha applicato nelle sue indagini e nelle sue spettacolari requisitorie. Certo, i computer possono fare molto per aiutare la magistratura a tenere sotto controllo un gran numero di dati e per stabilire connessioni che potrebbero sfuggire anche alla mente più attenta. D'altra parte, ora che Di Pietro ha lasciato la toga, ci si può domandare, con inquietudine, che cosa può fare l'informatica non assistita da un uomo come lui. E, al limite, ci si può anche domandare se sia ipotizzabile il giudizio totalmente asettico del solo computer. L'idea e più che una provocazione: la sua prima applicazione pratica di essa risale al 1949. In quell'anno Lee Loevinger - il manager americano che coniò anche il termine jurime trics, giurimetria, misurazione della giurisprudenza - propose di utilizzare un computer nella lotta allora in atto contro i monopoli fiscali. Poiché all'epoca gli elaboratori erano usati per lo più per calcolare le traiettorie dei missili balistici, la proposta suscitò clamore e dibattiti scientifici. Anche il diritto è una scienza. In particolare questo si fonda su principi logici e matematici che sono comparabili a quelli con cui funziona un elaboratore. Già nel tardo Medioevo il filosofo Lullo (1235-1315) aveva ideato una tabula in strumentalis in grado di accertare se una proposizione giuridica era vera svolgendo un calcolo combinatorio che escludeva le affermazioni false. La proposta di Loevering era esclusivamente pratica, ma da essa si arrivò a teorizzare le concrete possibilità di un tribunale virtuale, interamente informatizzato, anche nel delicato momento della valutazione delle tesi di accusa e difesa. Il sistema giuridico americano è tale che, a una prima analisi, sembra davvero possibile usare il computer al posto di un giudice. Esiste infatti un principio, detto dello stare decisis, secondo cui il giudice è vincolato nella sua decisione dalle decisioni precedenti sue e degli altri giudici. La legge non sembra derivare, come è invece nel nostro continente, dai testi di produzione parlamentare, spesso farraginosi e incomprensibili, ma dalla pratica legale, dal lavoro di giudici e avvocati, dalle situazioni concrete che gli scontri in tribunale creano. Si pensava allora che, una volta conosciute tutte le precedenti decisioni di un tribunale ed essendo la sentenza vincolata dalle precedenti, sarebbe stato facile per una macchina anticipare il giudizio umano. E quindi alla fine sostituirsi allo stesso giudice, come se un procedimento civile o penale fosse una partita a scacchi dalle regole ben note. Le teorie americane arrivarono negli Anni 50 anche in Europa; in Italia, in particolare, si sviluppo' la teoria della Giuscibernetica, parola ostile anche a pronunciarla, ma che bene allude al fascino delle nuove tecnologie applicate al diritto. In realtà, sebbene si fosse convenuto che anche nei sistemi europei (detti di civil law, del diritto da Codice Civile, contrapposto al common law, il diritto comune, dei giudici anglossani e americani) poteva essere teorizzabile la creazione di modelli virtuali, cioè informatici, ben presto ci si accorse della inutilità dello sforzo da una parte e dall'altra dell'oceano. Per limiti informatici e giuridici. I limiti informatici derivano dalla immensa quantità di informazioni e dati da memorizzare e dalla lentezza di elaborazione, limiti ora ridimensionati ma non ancora superati dall'incredibile sviluppo tecnologico. Vi è poi la diffidenza dei giuristi verso una macchina che, teoricamente, avrebbe potuto presto sostituirli. Insuperabili però rimangono proprio i limiti giuridici. Un giudice non decide meccanicamente quando emana una sentenza, la sua decisione è motivata certamente dalla legge che governa lo Stato, ma anche da tante piccole componenti che appartengono a lui personalmente. Questo è evidente in Paesi dove esistono le giurie all'americana, più facilmente influenzabili dai discorsi e dagli sguardi di un bravo avvocato rispetto a uno smaliziato collegio giudicante più attento alle leggi che alle chiacchiere e ai colpi di teatro. Un computer sarebbe oggettivamente imparziale. Ma lo sarebbe troppo, mancando del pregio della ragionevolezza e della equità, che derivano dai limiti dell'intelligenza artificiale, la mancanza dell'intuito e della coscienza di sè. Così, abbandonate le teorie giuridiche, si sono sviluppati due filoni di indagine: l'infor matica giudiziaria, ovvero l'uso di un computer come uso delle attività processuali e di indagini (vedi Di Pietro, che usa il computer come una lente di ingrandimento per trovare elementi di indagine), e il dirit to dell'informatica, che è lo studio di tutti i problemi giuridici che l'invenzione del computer ha creato: uno per tutti, la tutela della privacy del cittadino di fronte alle banche dati, che contengono centinaia di informazioni a cui può risultare troppo facile avere accesso. Ma questa è un'altra storia. Valerio Cassotta


L'Esperto della Cassazione Il massimo centro di documentazione
Autore: V_C

ARGOMENTI: INFORMATICA, ELETTRONICA, LAVORO, GIUSTIZIA, MAGISTRATI
ORGANIZZAZIONI: CED DELLA CORTE COSTITUZIONALE (ITALGIURE-FIND)
LUOGHI: ITALIA

IN Italia esiste il più grande e ammirato centro di documentazione giuridica del mondo: il Ced della Corte di Cassazione, noto fra i giuristi come «Italgiure-Find». Il Centro si sviluppo' negli Anni 60 su schede perforate, ma l'insufficienza dei mezzi meccanografici spinse ad adottare un megacomputer al posto delle perforatrici (si scelse un Univac, sostituito poi da un Unisys), ed è ora consultabile in rete Itapac da ognuno dei terminali sparsi in Italia nei Tribunali, nelle Università, negli studi dei professionisti. L'interrogazione del sistema (che si definisce Sistema Esperto: sistemi esperti sono quelle strutture informatiche capaci di fornire consulenze su determinati problemi a un livello paragonabile a quello di un esperto umano) non fornisce risposte preconfezionate. Semplicemente offre un preciso quadro della situazione giuridica consultando le tre fonti del diritto: le leggi (e le disposizioni ad esse analoghe, generali e astratte, classificate per numero, titolo e data); la giurisprudenza (ovvero le pronunce concrete dei giudici su casi analoghi, catalogate in massime, un riassunto della sentenza); la dottrina (ovvero il parere degli studiosi e dei professori). La ricerca negli archivi elettronici avviene per lemmi (singolare del sostantivo, maschile singolare dell'aggettivo, infinito del verbo) e operatori logici del tipo and (questo e quello), or (questo o quello), not (questo ma non quello). Così chi vorrà avere notizie su uno specifico argomento dovrà indirizzarsi all'archivio che lo interessa, svilupperà una sua strategia di ricerca per mezzo di parole chiave e poi toccherà a lui utilizzare nel modo migliore i dati che appariranno sul terminale. Perché il computer aiuta, ma non si sostituisce all'uomo, anche se tentativi in questo senso, anche nel campo del diritto, sono stati fatti. (v. c.)


EDUCAZIONE SCIENTIFICA «L'analfabetismo vi spiazzerà» Dieci Nobel discutono il futuro della società
Autore: VERNA MARINA

ARGOMENTI: DIDATTICA, RICERCA SCIENTIFICA, SCUOLA, BAMBINI, SCIENZA
NOMI: LEVI MONTALCINI RITA, DULBECCO RENATO, POLANYI JOHN, GARDNER HOWARD, LEDERMAN LEON, PORTER GEORGE
ORGANIZZAZIONI: UNESCO
LUOGHI: ITALIA

SIAMO degli analfabeti, scientificamente parlando, e tutti gli sforzi per correggerci sembrano fallire. Anzi: più il mondo è plasmato dalla tecnologia, meno sembriamo interessati a capire quali intuizioni sottendano oggetti quotidiani come il fax, le autostrade informatiche o i farmaci ricombinanti. La mente, frustrata da incomprensioni che risalgono agli anni della scuola e ai primi approcci con le materie scientifiche, sembra chiusa a ogni spiegazione. Gli appelli a svegliarci dal torpore, le strategie per migliorare la comunicazione, i progetti e gli esempi, suscitano applausi forse anche sinceri, ma non cambiano la situazione. E' probabile che accadrà così anche al fiume di parole che si sono ascoltate nei giorni scorsi a Milano, al congresso «10 Nobel per il futuro», dove la crema della ricerca, aureolata di un prestigio che non ha uguali, ha ribadito che l'analfabetismo scientifico è la vergogna - e il disastro - delle società. Ovunque la si misuri, nei Paesi sviluppati come in quelli sottosviluppati, l'ignoranza scientifica è abissale: il 90 per cento della popolazione rifiuta la cultura scientifica, che considera ostica, lontana e pericolosa. Eppure l'approccio dell'infanzia è solare e fiducioso. «Ogni bambino è un appassionato esploratore del mondo - ha ricordato John C. Polanyi dell'Università di Toronto, Nobel per la Chimica 1986 -. Inventa un intero sistema di fenomeni fisici, governato da forme e colori, in un processo che non possiamo razionalizzare perché non risponde a nessuna logica. Il bambino non conosce la differenza tra il gioco e il lavoro, e in questo assomiglia all'artista e allo scienziato occupato nella ricerca di base. Come ogni creativo, non applica le regole esistenti ma ne crea di nuove. E non conosce ancora le resistenze del mondo all'occhio che lo vede in modo fresco e nuovo». Le resistenze le conoscerà comunque presto, appena metterà piede nel mondo codificato dell'educazione. Come ha ben spiegato lo psicologo Howard Gard ner, nei primi anni di vita noi ci costruiamo tutta una serie di idee sul funzionamento del mondo che hanno ben poche probabilità di essere veritiere, dato che per lo più si fondano su evidenze sulle quali non possiamo contare: nonostante quello che ci dicono gli occhi, ad esempio, il Sole non ruota attorno alla Terra. Di qui l'immane fatica di sradicare dalle nostre menti concetti e giudizi che cozzano contro le verità svelate dalla scienza. Leon Lederman, direttore emerito del FermiLab di Batavia, Illinois, e Nobel per la Fisica 1988, ha dedicato gli ultimi cinque anni a pensare una riforma della scuola, arrivando alla conclusione che il pessimismo in proposito è più che giustificato. Perché impegnarsi in una solida educazione scientifica, è l'obiezione che gli è stata rivolta più spesso, se non si ha nessuna intenzione di fare lo scienziato? Lederman, citando un altro Nobel, Sir George Porter, ne elenca tre: perché fa parte della nostra cultura, come l'arte, la letteratura, la musica; perché qualunque lavoro qualificato, oggi, richiede la padronanza della matematica e la comprensione della scienza e della tecnologia; perché saremo sempre più coinvolti nelle decisioni politiche sulla genetica e il nucleare e abbiamo il dovere di essere informati. «L'ignoranza scientifica - ha ricordato - apre un varco alla paura. E la paura mette fine a qualunque discorso razionale». Per la prima volta nella storia del mondo occidentale, i figli non sono meglio qualificati dei padri. E all'interno dello stesso mondo accademico cresce un movimento anti-scienza e si sente parlare di «fine del progresso» o «postmodernismo». Preoccupato da questa tendenza, propiziata anche dai tempi brevissimi in cui affari e politica chiedono risultati concreti, generando una corsa che soffoca le esigenze della ricerca e dell'educazione, Lederman si appella all'Unesco: costituisca un gruppo di lavoro internazionale che si occupi di educazione scientifica nelle scuole medie e del livello di comprensione negli adulti. Anche Renato Dulbecco, Nobel per la Medicina 1975, ha una sua idea in proposito. «Gli studenti studiano non per conoscere, ma per passare gli esami - ha detto -. Non conoscono quell'eccitazione per la scoperta di cose sconosciute che sperimentano invece nell'infanzia. E allora, si introduca fra gli insegnanti anche uno "scienziato residente", che faccia vera ricerca e serva di modello per i ragazzi. L'hanno provato in alcune scuole anglosassoni: funziona!». E' vero che non c'è tempo, mancano i fondi e gli insegnanti non sono preparati a un esperimento del genere: sono cresciuti con tutt'altre idee e non sono stimolati a cambiare. Ma sottovalutare il contributo della scienza alla società è un «vizio di origine» che si pagherà sempre più caro. Marina Verna


ALMANACCHI ASTRONOMICI Il '95 tra le stelle Il cielo notte per notte
Autore: P_B

ARGOMENTI: ASTRONOMIA, LIBRI
PERSONE: DE MEIS SALVO, MEEUS JEAN
NOMI: DE MEIS SALVO, MEEUS JEAN
ORGANIZZAZIONI: HOEPLI, DRIOLI
LUOGHI: ITALIA
TABELLE: T. Avvenimenti e fenomeni astronomici previsti per il 1995
NOTE: «Almanacco astronomico», «Il Cielo 1995»

OGNI notte, a saperlo guardare, il cielo riserva qualche spettacolo suggestivo per chi ama la natura, e anche se talvolta si tratta di «repliche», le interpretazioni che si susseguono sul palcoscenico astronomico sono sempre nuove perché cambiano le circostanze di contorno: l'altezza sull'orizzonte dei corpi celesti osservati, le stelle di sfondo, la trasparenza dell'aria, la stagione. Puntuali, anche per il 1995 arrivano le «locandine» del teatro celeste: il completissimo «Almanacco astronomico» di Salvo De Meis e Jean Meeus edito dalla Hoepli di Milano (152 pagine, 23 mila lire) e, complementare in quanto funziona anche da diario delle osservazioni compiute e da compiere, l'agenda «Il Cielo 1995» edita da Drioli (Maslianico, provincia di Como, tel. 031-34.10.69). Ecco qualche anticipazione sui fenomeni astronomici più curiosi. Incominciando dai pianeti, Mercurio sarà visibile alla sera in gennaio, alla fine di aprile, in agosto e dopo il 10 dicembre; al mattino (ma è un po' scomodo alzarsi prima dell'alba...) in febbraio, giugno e ottobre. Come ben sanno gli astrofili, Mercurio, con qualsiasi telescopio lo si guardi, è piuttosto deludente. Tutto ciò che sappiamo della sua superficie si deve alle sonde spaziali e, più recentemente, a ricerche radioastronomiche che hanno permesso di scoprire l'esistenza di piccole regioni polari ghiacciate, benché la temperatura di Mercurio nella zona illuminata dal Sole sia generalmente vicina ai 500 gradi centigradi. Venere brillerà al mattino fino a luglio e poi alla sera da settembre alla fine dell'anno. E' sempre di notevole suggestione seguire le vistose mutazioni delle fasi venusiane; molto difficile, invece, cogliere qualche particolare dei sistemi nuvolosi nell'atmosfera del pianeta. Marte sarà nella posizione più favorevole intorno al 10 febbraio, ma in questa opposizione non si avvicinerà a meno di 101 milioni di chilometri, contro i 56 delle opposizioni migliori. Quindi sarà molto difficile, anche con un buon telescopio, distinguere formazioni che non siano la famosa Grande Sirte o le calotte polari. Giove brillerà per tutta la notte all'inizio di giugno. Tra i fenomeni curiosi, da segnalare tutti i satelliti galileiani a Est del pianeta il 4 febbraio, tutti a Ovest il 21 marzo e il 9 maggio, tutti a Est il 2 luglio e di nuovo tutti a Ovest il 17 settembre. Il 18 marzo alle 3,51 (tempo universale) il satellite Europa uscirà dal cono dell'ombra di Giove. Saturno dominerà tutte le notti di settembre ma al telescopio sarà poco spettacolare perché gli anelli sono disposti di profilo: la Terra ne attraversa il piano il 21 maggio e l'11 agosto. Urano sarà in opposizione il 21 luglio, nel Sagittario; Nettuno il 17 luglio, pure nel Sagittario. Infine, qualche altra curiosità. Il 4 gennaio alle 11 la Terra si troverà al perielio, cioè nel punto della sua orbita più vicino al Sole, a poco più di 147 milioni di chilometri, e il Sole, di conseguenza, avrà il massimo diametro apparente (circa 32 primi d'arco). Il nostro pianeta raggiungerà invece la massima distanza dal Sole (afelio, 152,1 milioni di chilometri) il 4 luglio alle 2 (sempre in tempo universale: in Italia dobbiamo aggiungere un'ora, due quando è in vigore l'ora legale). Il 12 gennaio la Luna occulta una stella abbastanza luminosa, Epsilon nella costellazione del Toro, di magnitudine 3,5. Un'altra occultazione interessante è quella di Lambda dei Gemelli, magnitudine 3,6 il 9 dicembre. Niente da fare, invece, per le eclissi di Sole e di Luna: nel '95 dall'Italia non se ne vedrà nessuna. La Luna verrà nascosta in parte dall'ombra terrestre il 15 aprile per i giapponesi e gli australiani; un'eclisse anulare di Sole interesserà l'America del Sud il 29 aprile e una totale il 24 ottobre si avrà lungo una striscia dall'Afghanistan al Borneo. Buon divertimento, inquinamento luminoso permettendo. A proposito, continua l'impegno degli appassionati di astronomia per conservare nella Penisola almeno qualche luogo buio, da dove si possano osservare bene deboli galassie e nebulose. Di recente è scesa in campo anche l'Astris, l'associazione degli astrofili delle società di telecomunicazioni Rai-Iri-Stet. Per sfuggire alle luci di Roma, gli aderenti all'Astris hanno dovuto localizzare il loro osservatorio a 70 chilometri dalla capitale, presso Cervara, nel Parco dei Monti Simbruini, a 1200 metri di quota. (p. b.)


PRIMI ESPERIMENTI Rubbia: eccovi l'atomo pulito
Autore: BIANUCCI PIERO

ARGOMENTI: FISICA, ENERGIA, NUCLEARI, RICERCA SCIENTIFICA
NOMI: RUBBIA CARLO
ORGANIZZAZIONI: CERN
LUOGHI: ITALIA

PER adesso è una specie di tozzo bidone alto un metro e largo altrettanto. Ma da quel bidone esce una energia nucleare 30 volte maggiore dell'energia spesa per accendere la reazione e diecimila volte meno inquinante di quella prodotta con le centrali atomiche convenzionali. Era il 24 novembre dell'anno scorso quando il premio Nobel Carlo Rubbia ha presentato alla comunità scientifica l'idea di questa nuova tecnica per sfruttare la fissione dell'atomo: poco più di un anno dopo l'idea è già diventata un esperimento. E la ricerca alla quale inizialmente lavorava un gruppetto di cinque o sei fisici si è trasformata in una vasta collaborazione a livello internazionale. L'esperimento è piccolo e quasi rudimentale, ma sufficiente a verificare le simulazioni al computer fatte preventivamente con il metodo Monte Carlo (così chiamato perché basato su teorie statistiche che si possono applicare anche alla casualità con cui si comporta la roulette dei casinò). Rubbia, con la sua solita carica di aggressivo ottimismo, il 6 dicembre ha tenuto un seminario al Cern (Consiglio europeo ricerca nucleare, Ginevra) per illustrare i primi risultati e gettare uno sguardo sulle prospettive future. «Se son rose fioriranno», aveva detto concludendo il seminario dell'anno scorso. Sembra che stiano sbocciando. Non bisogna però farsi illusioni premature. Di qui al prototipo di una centrale commerciale passeranno molti anni. Davanti al pubblico attento, numerosissimo e ipercritico del Cern, Carlo Rubbia ha descritto l'esperimento per un'ora e 40 minuti sparando dati a raffica. «Sono più i fogli che ho da mostrare con la lavagna luminosa, che le persone qui dentro», ha scherzato dopo uno sguardo circolare all'aula gremita, mentre la polizia bloccava all'esterno i ritardatari senza posto. Insomma, scene da rock star assediata dai fans (ma non sempre benevoli). L'obiettivo, ha esordito Rubbia, è rendere sicura e socialmente accettabile l'energia nucleare in un mondo dove essa rappresenta già il 6 per cento dell'energia totale (e il 15 per cento dell'elettricità prodotta), e tuttavia diventa sempre più impopolare. Si tratta - ha chiarito - di eliminare alla radice gli aspetti negativi: e cioè i rischi residui nel funzionamento dei reattori, la produzione di plutonio che apre problemi di proliferazione delle armi nucleari e la produzione di scorie radioattive a lunga vita e in grandi quantità (in particolare gli elementi della famiglia degli attinidi). Nei reattori nucleari convenzionali, come i 430 attualmente in funzione nel mondo, c'è un «nocciolo» che contiene uranio arricchito con l'isotopo 235. La quantità di uranio 235 è tale che la fissione (rottura) dei suoi nuclei produce un numero crescente di fissioni, liberando energia. Per regolare la reazione a catena esistono varie tecniche, ma in ogni caso i reattori per funzionare devono essere tenuti sull'orlo della «criticità», e quindi può capitare che, per una serie di guasti o per un errore umano, ci scappi una Cernobil. Inoltre anche se tutto va bene, si creano scorie radioattive per migliaia di anni, di non facile gestione. Rubbia, sulla scia di altri ricercatori americani, che hanno anche rivendicato la loro priorità, ha allora pensato di «accendere» la reazione non aumentando la percentuale di uranio 235 ma tramite un fascio di protoni accelerati con tecniche familiari ai fisici delle particelle. Inoltre ha proposto di sostituire all'uranio il torio, che è assai abbondante e crea, come vedremo, meno problemi. La «pentola» di Rubbia, ufficialmente chiamata «amplificatore di energia», è una vasca sottratta all'Università di Madrid, dove serviva per le esercitazioni degli studenti, ciò che ha abbreviato i tempi. Nella vasca Rubbia ha annegato in acqua 3,5 tonnellate di uranio naturale, ma l'idea è poi di passare dall'uranio al torio per evitare la formazione di plutonio e altre scorie sgradite. Come un interruttore, il fascio di protoni accende e spegne a piacere la fissione dei nuclei. Nessun rischio, quindi, che la reazione sfugga al controllo. Il guadagno tra energia spesa e energia ricavata «con una attrezzatura più adatta dovrebbe arrivare a 60 volte, con scorie diecimila volte meno tossiche», dice Rubbia. Ma bisogna anche aggiungere che per ora l'esperimento ha dato soltanto un Watt di potenza mentre in una centrale commerciale bisogna raggiungere una potenza un miliardo di volte maggiore. Il che significa disporre di un acceleratore di protoni della potenza di 10 Megawatt mentre il maggiore oggi disponibile è da mezzo Megawatt. Le difficoltà dunque sono di vario tipo: scientifico, tecnologico, ingegneristico. Ed economico. Il Cern fa ricerca di base, non ricerca applicata. Chi darà a Rubbia i soldi necessari? Piero Bianucci


Curiosità nel calendario Due mesi con doppia Luna nuova
Autore: BARONI SANDRO

ARGOMENTI: ASTRONOMIA
LUOGHI: ITALIA
TABELLE: T. Avvenimenti e fenomeni astronomici previsti per il 1995

MOLTI sono interessati alle curiosità che riguardano la Luna. Chissà cosa si dirà per l'avvenimento poco frequente che capita nei primi tre mesi del 1995! Infatti avremo, nel mese di gennaio, due lune nuove mentre in febbraio non avremo alcuna luna nuova e torneremo ad avere due lune nuove nel mese di marzo. In realtà vi è disaccordo nell'attribuire alla Luna un mese specifico, perché alcuni considerano la Luna nuova e alcuni la Luna piena. Si dice quando «fa la luna»: a me pare chiaro che si debba intendere quando la Luna, giorno dopo giorno, fa capolino dopo il tramonto del Sole. In breve: dalla fase di novilunio in poi; questo è anche confermato da una piccola indagine svolta presso alcuni spettatori del Planetario di Milano. Dobbiamo ricordare che era già noto nell'antichità il fatto che ogni 19 anni si ripetono le fasi lunari nei medesimi giorni, ma non nel medesimo orario; fu l'astronomo ateniese Metone, vissuto nel V secolo avanti Cristo, che ci ha tramandato questo periodo particolare, chiamato appunto Ciclo di Metone. Da una Luna nuova a un'altra passano esattamente 29 giorni 12 ore e 44,3 secondi, ed è chiamato mese sinodico o lunare. Risulta subito evidente che avendo febbraio 28 giorni (o 29 nel bisestile) può anche non avere una Luna nuova, infatti 28 o 29 è minore di 29,531 (mese sinodico in decimali di giorno). Ricapitolando nel mese di gennaio avremo due Noviluni precisamente il primo giorno dell'anno alle ore 11 e 57 minuti di Tempo medio Europa centrale (Tmec), che è l'ora del nostro orologio, e il 30 gennaio alle 23 e 49 minuti di Tmec. Mentre nel mese di febbraio del 1995 non avremo nessuna Luna nuova. Torneremo ad avere due Noviluni nel mese di marzo e precisamente il giorno 1 alle ore 12 e 49 minuti ed il 31 alle ore 3 e 10 minuti (Tmec). Il Ciclo di Metone ha individuato che ogni 19 anni si ripetono le fasi lunari nei medesimi giorni. Diciannove anni corrispondono a 235 lunazioni. Ma allora, questa particolare combinazione è già successa e succederà ancora in futuro? Certo. Infatti anche nel 1976 abbiamo avuto due lune nuove in gennaio e marzo e nessun novilunio in febbraio: 19 anni fa. Ovviamente fra 19 anni, nel 2014, avremo ancora questa singolarità. Ma attenzione! Opportunamente il tempo è stato indicato in tempo medio Europa centrale, quello del nostro orologio, perché se consideriamo il Tempo universale (Tu), quello di Greenwich, la particolarità risale al 1967, infatti il novilunio del 1976 del giorno primo marzo è avvenuto alle ore 0 e 26 minuti di Tmec. Se consideriamo il Tempo universale è avvenuto un'ora prima, e cioè il 29 febbraio 1976 alle 23h 26m di Tu (bisestile). Quindi, addio febbraio senza Luna nuova e marzo con due «lune». Tuttavia per il 2014 tutto è a posto sia in Tmec che in Tu. Ancora una osservaziome: se si considera la Luna piena, questo fatto si avrà nel 1999 e nel 2018, quando avremo due pleniluni in gennaio e in marzo, e di conseguenza i mesi di febbraio senza Luna piena. Sandro Baroni Planetario di Milano


SCIENZA DEI MATERIALI Come farsi diamanti a mille lire al grammo Una tecnica promettente per usi industriali, non per la gioielleria
Autore: VITTONE ETTORE

ARGOMENTI: CHIMICA, TECNOLOGIA, PRODUZIONE
LUOGHI: ITALIA
TABELLE: D. Principio della tecnica di sintesi del diamante a basse pressioni

MOLTI forse si sono chiesto perché i nanetti avessero bisogno di Biancaneve per riordinare la loro umile casetta pur esercitando una professione, quella di collezionisti di diamanti, che avrebbe loro permesso l'assunzione di un esercito di collaboratrici domestiche. Forse volevano risparmiare per assicurarsi una pensione dignitosa, visto il rischio di un prepensionamento per esubero di manodopera. Corrono infatti tempi duri (si fa per dire) per chi estrae diamanti naturali. Tutto iniziò 40 anni fa quando si realizzano i primi diamanti artificiali comprimendo ad alte pressioni (60 mila atmosfere) e alte temperature (2000 C) composti del carbonio che, in queste condizioni infernali, si trasformano in diamante. Ma non fu questa notizia a turbare i sonni dei sette nani, in quanto i cristalli così prodotti richiedono costose apparecchiature e sono di qualità e dimensioni tali da poter essere usati quasi soltanto in paste abrasive per lucidatura meccanica. Ben altro effetto produsse la notizia di una sintesi del diamante poco costosa e di semplice realizzazione riguardante il diretto assemblaggio degli atomi di carbonio dalla fase vapore alla fase adamantina a pressioni inferiori alla pressione atmosferica. Al suo comparire, negli Anni 60, una tale sintesi apparve a molti una velleità alchemica, simile alla trasmutazione del piombo in oro, in quanto era ben noto che, a basse pressioni, gli atomi di carbonio tendono ad aggregarsi in un'altra meno nobile forma cristallina, la grafite, ovvero nel materiale di cui è composta l'anima delle comuni matite. Tuttavia, se gli atomi di carbonio, depositandosi su una superficie, trovano un ambiente opportunamente strutturato, le due forme cristalline, quella stabile (grafite) e quella «metastabile» (diamante), possono coesistere. Questa situazione fu sfruttata per far crescere selettivamente cristalli di diamante eliminando le inevitabili formazioni grafitiche grazie all'azione dell'idrogeno atomico che svolge la duplice funzione di architetto, in quanto forma strutture molecolari che favoriscono l'enucleazione di cristalli di diamante, e di spazzino, in quanto, legandosi con le più reattive fasi grafitiche, ne facilita l'evacuazione. L'apparecchiatura per realizzare la sintesi assomiglia a una lampadina, in cui si introduce idrogeno e metano (le cui molecole hanno un atomo di carbonio e quattro di idrogeno) ad una pressione pari a qualche centesimo della pressione atmosferica. Quando si accende la «lampadina», il calore sprigionato dal filamento rompe le molecole dei gas reagenti, liberando, fra l'altro, atomi di idrogeno e carbonio. Questi ultimi, depositandosi su un substrato posto in prossimità del filamento, trovano un terreno che gli atomi di idrogeno hanno reso adatto alla formazione di cristalli di diamante. Questa tecnica permette di far crescere strati sottili di diamante a un prezzo risibile (meno di 1000 lire al grammo = 5 carati) con una velocità di circa un millimetro al mese! Tale velocità è effettivamente bassa per ottenere diamanti da gioielleria, ma diventa di grande interesse per innumerevoli applicazioni tecnologiche. Il diamante possiede eccezionali proprietà che ben giustificano l'etimologia del nome (dal greco adamas, invincibile) e che lo collocano ai poli estremi delle scale dei materiali. Ha infatti il più alto grado di durezza, la più alta conducibilità termica, la più bassa conducibilità elettrica, la più bassa reattività chimica, è resistente alle radiazioni ionizzanti, totalmente biocompatibile e ha caratteristiche ottiche ed elettroniche superiori a quelle del silicio. Queste proprietà rendono il diamante appetibile per applicazioni quali il ricoprimento di strumenti da taglio per aumentarne la durezza, la fabbricazione, per l'industria aerospaziale, di finestre trasparenti e praticamente insensibili alle condizioni esterne, la realizzazione di protesi o valvole cardiache, di supporti per la dissipazione di calore, oppure di dispositivi elettronici funzionanti in condizioni attualmente proibitive, quali in prossimità di reattori nucleari o motori di aerei. Un consiglio, quindi, ai sette nani per evitare futuri problemi economici: investite, come stanno facendo grandi e piccole industrie di tutto il mondo (Italia esclusa), nella tecnologia per la sintesi del diamante a basse pressioni. Si prevede che presto il diamante renderà obsoleti molti altri materiali, così come, 40 anni fa, il silicio soppiantò, in molti dispositivi, il pionieristico germanio. Ettore Vittone Università di Torino


ETOLOGIA Cani da rieducare Le cause dell'aggressività
Autore: MOLINARO PIER VITTORIO

ARGOMENTI: ETOLOGIA, ZOOLOGIA, ANIMALI
LUOGHI: ITALIA

FINO a che punto è possibile ridurre l'eccessiva o inopportuna aggressività nei cani? Bisogna dire innanzi tutto che la risposta dipende dal tipo di aggressività. Un conto è insegnare a un cane a non aggredire i polli, un altro insegnargli a non aggredire altri cani o le persone. E' vero che gli esemplari di grossa mole a volte si rivolgono a quelli più piccoli come fossero prede, e che ancora più spesso a suscitare simili fraintendimenti, in soggetti per altri versi anche molto mansueti, sono i bambini, i podisti, le biciclette. Ciò non toglie che si tratti di manifestazioni aggressive completamente diverse: diverse negli schemi neurali che le attivano, in quelli motori con cui si realizzano, nelle espressioni mimiche che le accompagnano, e ancora più nella resistenza che oppongono ai tentativi umani di controllarle. Un cane può imparare a rispettare i polli in un pomeriggio e in tempi progressivamente più brevi estendere il concetto ad altri tipi di animali domestici. Con gli animali selvatici, i gatti e tutti gli «oggetti impropri» (bambini, biciclette o altro) su cui ha trasferito le proprie smanie predatorie, il processo può rivelarsi più lungo e più complesso, ma resta comunque alla portata di qualsiasi educatore, anche dilettante. Da millenni la selezione domestica opera attivamente per aumentare la tolleranza dei cani nei confronti degli animali da cortile e si sbizzarrisce nel diversificare e rendere variamente controllabili i comportamenti predatori delle singole razze nei confronti degli animali da pascolo (cani da pastore) e della selvaggina (cani da caccia). E' comprensibile quindi che qualsiasi intervento correttivo in tal senso risulti facilitato. Decisamente più problematici si rivelano invece i tentativi di mettere un freno ai comportamenti aggressivi cosiddetti «di dominanza», con i quali ciascun cane si sforza di affermare o difendere le proprie prerogative su determinate risorse, che possono essere porzioni di spazio o di cibo, ruoli gerarchici, rapporti con partner sociali (esseri umani inclusi) e riproduttivi o anche semplici stati di quiete. Su questi comportamenti la selezione domestica è intervenuta in maniera meno precisa, meno costante, spesso contraddittoria; in alcune razze poi si è compiaciuta di esasperare l'eccitabilità generale degli animali o la loro suscettibilità a particolari tipi di minacce o di contrasti. Tutti gli impulsi reattivi di natura sociale sono regolati dall'assetto ormonale che, oltre a variare con i cicli riproduttivi e di sviluppo, risente dell'influenza di particolari «ormoni sociali» (feromoni) rilasciati nell'ambiente e può facilmente sbilanciarsi in seguito a fenomeni di stress. Per questo la riduzione delle manifestazioni aggressive di dominanza presenta spesso delle difficoltà che non possono essere superate neppure ricorrendo alle più sofisticare tecniche di condizionamento, la cui efficacia nel modificare la reattività degli animali agli stimoli dovrebbe ormai essere fuori discussione. Il fatto di cui non si tiene mai abbastanza conto, purtroppo, e questo anche nei più scrupolosi interventi di terapia comportamentale, è che l'apprendimento (o il disapprendimento) di risposte condizionate ha costi nervosi molto alti: tanto più alti quanto più le nuove risposte sono in contrasto emotivo con le precedenti e quindi con l'indole e le esperienze accumulate dall'animale. E se è vero che alcuni di questi costi nervosi possono essere ridotti con la somministrazione di farmaci, che ovviamente non interferiscano più di tanto con i processi di apprendimento, resta il fatto che i meccanismi di compensazione messi in atto dall'organismo possono generare disturbi più gravi di quelli che si intendeva ridurre. Fortunamente tutta l'aggressività sociale che un cane può esprimere ruota intorno a un cardine di regolazione assoluto, rappresentato dal ruolo ricoperto nella comunità territoriale (umana e canina) che lo ospita e, in particolare, dal rapporto gerarchico con le persone che gli vivono accanto. Solo i cani molto vecchi o neurologicamente debilitati si mostrano incapaci di adeguarsi prontamente ai cambiamenti dell'«ordine sociale» circostante, e spesso finiscono con l'autoisolarsi. In sostanza si può dire che tutto ciò che un cane fa nel suo ambito sociale lo fa perché il rapporto gerarchico con il proprietario glielo consente o addirittura (nella sua logica) glielo impone. Quindi è principalmente modificando questo rapporto (il che può significare anche solo renderlo più intenso, più sostanziale, meno contraddittorio) che si può ottenere tanto una riduzione generale dei comportamenti aggressivi di dominanza, quanto un decisivo aumento della loro discrezionalità, cioè una valutazione più scrupolosa e tendenzialmente «cooperativa» delle circostanze. Se poi alla riformulazione dei rapporti di dominanza con il proprietario si accompagna un generale rivoluzionamento delle abitudini dell'animale, magari in fatto di orari e di spazi utilizzati, allora la sua disponibilità all'apprendimento di nuove risposte aumenta ulteriormente, e di conseguenza diminuiscono i costi nervosi richiesti dagli interventi di condizionamento. Pier Vittorio Molinario


IL NOBEL NASH Sul confine tra il genio e la pazzia
AUTORE: REGGE TULLIO
ARGOMENTI: STORIA DELLA SCIENZA, MATEMATICA
PERSONE: NASH JOHN
NOMI: VON NEUMANN JOHN, MORGENSTERN OSCAR, NASH JOHN
LUOGHI: ITALIA

QUANDO vidi la sua foto in prima pagina sulla «Stampa» rimasi incredulo. Il Nobel '94 per l'economia era andato proprio a lui, John Nash, uno strano personaggio che girava per Jadwin Hall, l'edificio dove lavoravano i matematici di Princeton, scrivendo messaggi cabalistici sulle lavagne che coprivano le pareti dei corridoi. Chiunque lasciasse qualche cifra su queste lavagne aveva la certezza di trovare l'indomani una dotta ma incomprensibile annotazione di Nash. Parlava poco ma era simpatico. Scherzando gli chiesi se era un bravo matematico. Mi rispose sorridendo che lo era stato ma poi aveva avuto dei problemi mentali per cui lo avevano internato in una clinica psichiatrica. Mi disse che tempo prima si era occupato del problema di costruire una superficie in uno spazio avente 37 dimensioni. Questo colloquio risale a metà degli Anni 60, quando Nash aveva poco più di 30 anni. Non mi resi assolutamente conto di avere incontrato un genio sfortunato, e mi dispiace. L'articolo della «Stampa» dava notizia del conferimento del Nobel per l'economia a John Nash per i risultati contenuti nella sua tesi di dottorato in cui si occupava della teoria dei giochi sviluppata da John Von Neumann pochi anni prima. Nella sua formulazione originale, scritta in collaborazione con l'economista Oscar Morgenstern, gli autori si proponevano di analizzare matematicamente la migliore strategia da adottare in un gioco, dove però la parola gioco aveva un significato che andava ben oltre l'aspetto ludico fino ad abbracciare i complessi meccanismi dell'economia e financo la minaccia planetaria di una guerra nucleare. Non sono un esperto del ramo ma, a quanto posso comprendere, il contributo di Nash fu di risolvere il problema molto più difficile in cui esistono giocatori che possono anche allearsi tra di loro e avere interessi in comune invece di competere. A distanza di oltre 30 anni il suo contributo è stato riconosciuto come fondamentale. Nel luglio 1958 la rivista For tune segnalò Nash come astro nascente della matematica americana. Pochi mesi dopo Nash fu colpito da schizofrenia e divenne il «fantasma di Fine Hall», un'ombra silenziosa che scribacchiava formule prive di senso cercando invano di scoprire messaggi segreti nei numeri. I suoi amici cominciarono a ricevere lettere deliranti e la sua vena creativa fu oscurata da un male di cui neppure oggi si conosce veramente la causa. Oggi è guarito e ha cominciato a interessarsi nuovamente di matematica, anche se i suoi 66 anni lo pongono fuori della fascia di età in cui si è più creativi. Va dato merito all'Accademia Reale Svedese per avere considerato nel loro giusto valore i grandi meriti scientifici di Nash senza dare peso al male che lo ha afflitto. Rimane il rincrescimento per tanti anni perduti. Tullio Regge


A PROPOSITO DEL CASO NARDI Sì alle impronte genetiche Stati Uniti, accettato l'esame del Dna
Autore: TURONE FABIO

ARGOMENTI: GENETICA, PERIZIA, GIUSTIZIA
NOMI: LANDER ERIC, BUDOWIE BRUCE
ORGANIZZAZIONI: INSTITUTE OF TECHNOLOGY DI CAMBRIDGE
LUOGHI: ITALIA

LA guerra sulla validità del test del Dna è finita. I tribunali possono accettare i suoi risultati senza timori: il verdetto, pubblicato da Nature, è stato emesso da due fra i principali esperti americani della tecnica di identificazione a partire dalle «impronte genetiche» di un individuo, che fino a ieri rappresentavano i due estremi dello schieramento pro e contro il Dna fingerprinting. Il Dna può dunque dire l'ultima parola sull'identità di Nardi. Negli Stati Uniti la notizia coincide con il processo contro Simpson, campione di football americano accusato dell'omicidio della moglie Nicole e dell'amico Ronald Goldman, che potrebbe essere inchiodato proprio dalle tracce di sangue trovate sul luogo del delitto. Era infatti diffuso nel mondo scientifico il timore che i roventi scontri tra accusa e difesa sulla validità di questo metodo - trasmessi dalle principali televisioni statunitensi - rischiassero di confondere ancora di più le idee alla giuria. E così Eric Lander, il genetista umano del Massachusetts Institute of Technology di Cambridge che cinque anni fa si era opposto all'uso giudiziario del test del Dna ha fatto il punto insieme a Bruce Budowie, del Centro di Ricerche in Scienza Forense dell'Accademia dell'Fbi di Quantico, in Virginia. Lander contestava la leggerezza con cui alcuni esperti snocciolavano alle giurie cifre astronomiche (tipo: «Una probabilità di errore su 738.000 miliardi») ed era indignato all'idea che per la diagnosi di una malattia infettiva un normale laboratorio adottasse criteri più precisi di quelli richiesti per condannare qualcuno alla sedia elettrica. Ma prima che le sue obiezioni fossero prese per quello che erano, nella foga delle arringhe il balletto dei «Vostro Onore, su questo punto la scienza non è concorde» e del «sia pur minimo dubbio, sufficiente a scagionare l'imputato» aveva finito per delegittimare un metodo di identificazione che aveva la sola colpa di essere arrivato troppo giovane, nel 1988, nelle roventi aule di giustizia americane. Rispetto all'analisi delle impronte digitali, introdotta oltre un secolo prima, quella genetica è ovviamente più complessa, e per comprenderla può essere utile pensare al codice genetico come a un lunghissimo libro, una sorta di manuale per il funzionamento dell'organismo, scritto con un alfabeto di quattro lettere (le basi). E' un libro - noioso perché pieno di ripetizioni - che per oltre il 90 per cento delle pagine è uguale per qualsiasi essere umano, e nel restante 10 per cento contiene brani (anch'essi ripetitivi), che variano secondo la libera «fantasia» di ciascuno. La libertà, in realtà, non è molta, perché le differenze principali sono nel numero di ripetizioni che ciascun paragrafo contiene: i biologi molecolari leggono queste frasi, contano le ripetizioni e sanno dire quante probabilità ci sono che la stessa frase ripetuta lo stesso numero di volte compaia nel Dna di altre persone. Fino a non molto tempo fa, però, anche tra gli esperti regnava una grande incertezza un po' su tutto: dalla definizione dell'uguaglianza tra due frammenti (più breve è una «frase» meno è significativa la coincidenza) fino alle norme che trasformano un lavoro artigianale in uno scrupoloso esame scientifico. Alcuni processi avevano dimostrato che i laboratori avevano operato con superficialità, e a rimetterci era stata la credibilità dell'esame. Ora, come si è detto, anche il principale contestatore dell'uso giudiziario di questa tecnica ha finalmente cambiato idea. Insomma, tutto risolto? No, non proprio tutto: resta in sospeso la valutazione dell'ennesimo comitato istituito dal National Research Council, che dovrà dire una parola (definitiva?) sulla probabilità di errore di un'identificazione ottenuta con quattro diverse sequenze, cioè con il confronto di quattro «pagine» del manuale, come prevede la prassi dei tribunali (anche se per O. J. Simpson la pubblica accusa, per stroncare le prevedibili contestazioni, ha richiesto a due laboratori un confronto su dieci frammenti). «In realtà è una discussione accademica» scrivono Lander e Budowle su Nature. «Le diverse posizioni si differenziano tra 1 su un milione e 1 su cento milioni. La distinzione è irrilevante ai fini giudiziari: nella stragrande maggioranza dei casi le giurie si accontentano di sapere che una frequenza è molto rara, e basano la loro decisione anche su prove e indizi diversi». Fabio Turone


UN VIRUS MOLTO INSIDIOSO Test di terza generazione per l'epatite C Intanto procede, anche in Italia, la ricerca di un vaccino
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA
ORGANIZZAZIONI: ASSOCIAZIONE COPEV «BEATRICE VITIELLO»
LUOGHI: ITALIA

OGGI l'interesse è concentrato sulla lettera C. Parliamo dell'epatite virale, i cui virus vanno, almeno per il momento, da A a E. Se ne è trattato a Milano in una conferenza sui nuovi sviluppi della lotta contro l'epatite virale, per iniziativa dell'Associazione italiana Copev per la prevenzione del'epatite virale «Beatrice Vitiello». L'atto di nascita del virus C è del 1989, quando Choo, Kuo e altri, in un articolo su Science, annunciarono di avere identificato in un paziente affetto da epatite una molecola di Rna costituita da almeno 10 mila nucleotidi, appartenente al genoma d'un virus fino allora ignoto, indicabile con la lettera C in quanto successivo ai già conosciuti A e B. In un secondo articolo Kuo, Choo e collaboratori (fra i quali gli italiani Ferruccio Bonino di Torino e Massimo Colombo di Milano) proposero un test specifico per rivelare la presenza del virus nel sangue, basato sul meccanismo della cattura degli anticorpi circolanti da parte d'un polipeptide sintetizzato, con la tecnica del Dna ricombinante, da colonie di lieviti a partire dal genoma del virus. Anticorpi anti-HCV (anti-virus dell'epatite C) risultarono presenti in 6 di 7 sieri umani con cui era stato possibile produrre un'epatite negli scimpanzè. Negli Usa il test, applicato allo studio di 10 trasfusioni di sangue che avevano provocato epatite, permise di identificare i donatori positivi in 9 di questi casi. La presenza di anticorpi anti-HCV fu dimostrata in circa l'80% dei soggetti italiani e giapponesi con epatite post-trasfusionale cronica. Questi e altri dati indicavano che il virus C era una delle principali cause di epatite nel mondo. E infatti è così. Oggi sappiamo che una grossa percentuale di epatiti post-trasfusionali è dovuta al virus C. La trasmissione del virus avviene anche nei tossicodipendenti, a quanto pare è meno frequente con i rapporti sessuali. Si calcola che 300 milioni siano i casi di epatite C nel mondo. Alto è il numero di portatori cronici senza sintomi, in alcuni dei quali può avvenire entro una ventina d'anni un'evoluzione insidiosa verso la cirrosi o il carcinoma epatico. Essenziale per la prevenzione dell'epatite C è l'identificazioe del virus nel sangue. Si sono compiuti grandi progressi nella tecnica degli esami, i quali sono ormai alla terza generazione. In altre parole, dal test del 1989 si è passati a ulteriori perfezionamenti nel 1991 (seconda generazione), fino alla situazione attuale in cui sono disponibili metodi con più alta sensibilità e specificità, e riconoscimento più precoce della positività. Il rischio di contrarre l'epatite per via trasfusionale si è enormemente ridotto. A parte ciò, l'esecuzione dei test nei casi di epatite virale o di epatopatie croniche di vario genere consente di tenere il soggetto sotto controllo per quanto riguarda le condizioni del fegato, e di guidare le terapie opportune. Nella conferenza di Milano si è anche parlato d'una possibile vaccinazione contro l'epatite C. Diciamo subito che le epatiti virali godono già d'una buona situazione per quanto riguarda le vaccinazioni. C'è quella contro l'epatite A, ma specialmente importante è quella contro l'Epatite B, da noi obbligatoria per legge nel primo anno di vita. Quanto al vaccino anti-C, l'inglese Houghton ha comunicato che stanno per avere inizio le prove sull'uomo dopo quelle sugli animali. Studi sul vaccino si fanno anche in Italia, come ha riferito Abrignani, del centro di ricerca della Biocine di Siena. Ulrico di Aichelburg


LA CABINA FOTOGRAFICA Sorridi! Clic! Un ritratto in quattro minuti
ORGANIZZAZIONI: PHOTOMATON
LUOGHI: ITALIA
TABELLE: D. Come funziona la cabina per fotografie rapide

IN Francia, qualunque cabina per fotografie rapide con l'autoscatto viene chiamata semplicemente Photomaton, sebbene questo sia un marchio depositato nel 1924. Il colore è stato introdotto nel 1968. Questo modello, riprodotto nel disegno, sviluppa le foto in quattro minuti e ha un'autonomia di mille clienti. La fotografia è nata grazie all'attenta osservazione di un principio di fisiologia: la retina dell'occhio conserva l'immagine osservata ancora per qualche istante (circa 1/10 di secondo) dopo la sua reale scomparsa. Nel procedimento fotografico normale, basato sulla sensibilità degli alogenuri d'argento alla luce e a tutte le altre radiazioni più corte dello spettro elettromagnetico, l'immagine latente si forma nell'emulsione fotografica mediante l'esposizione e viene resa sensibile con lo sviluppo, il quale consiste nella riduzione chimica dei cristalli degli alogenuri ad argento metallico.


LA STORIA DELLA SCIENZA Trent'anni fa l'Italia in orbita
AUTORE: LO CAMPO ANTONIO
ARGOMENTI: STORIA DELLA SCIENZA, AERONAUTICA E ASTRONAUTICA
NOMI: BROGLIO LUIGI
LUOGHI: ITALIA
NOTE: «Progetto San Marco»

L'ITALIA spaziale compie trent'anni. Il 15 dicembre 1964, in un pomeriggio gelido e ventoso, partiva dalla base americana di Wallops Island, in Virginia, un piccolo razzo «Scout» con il primo satellite italiano «San Marco». Quel giorno l'Italia diventò il terzo Paese dopo Usa e Urss a lanciare con i propri specialisti un satellite. Il «San Marco 1», che è stato anche il primo costruito da un Paese europeo, era una piccola sfera di alluminio al cui interno operava uno strumento denominato «bilancia», che consentì in seguito di registrare attimo per attimo le lievi forze che agiscono sulla superficie di un satellite nello spazio, oltre a fornire informazioni inedite sulla densità dell'altissima atmosfera terrestre. Negli anni successivi furono lanciati altri satelliti scientifici, ma non più da Wallops: dopo lo storico lancio del 1964, gli «Scout» sono partiti dalla piattaforma italiana (anch'essa battezzata «San Marco») ancorata nelle acque a Nord di Malindi, in Kenya, quasi sull'Equatore. Ricavata da una vecchia piattaforma petrolifera e dedicata a San Marco, patrono dei marinai, la base di lancio italiana comprende la più piccola piattaforma «Santa Rita» sulla quale è la sala di controllo, e, a terra, il Villaggio Italia, con gli alloggi dei nostri tecnici. Il padre del Progetto San Marco è Luigi Broglio, dell'Università di Roma, classe 1911, che ha così legato il proprio nome alla storia dello spazio italiano. Già dal gennaio 1961 Broglio effettuava esperimenti di lancio con razzi sonda dal poligono di tiro a Perdasdefogu, in Sardegna, per poi diventare promotore delle prime convenzioni europee Eldo ed Esro, e l'artefice dei primi accordi Italia-Nasa: «Fu proprio il felice esordio tramite quei primi esperimenti - ricorda Broglio - a porre le basi della cooperazione con gli Stati Uniti. Fanfani, allora presidente del Consiglio, si congratulò con il presidente del Cnr Polvani, e così si cominciò a valutare l'opportunità di proseguire lanciando dei satelliti. Poi, dopo aver presentato il progetto alla Nasa, nel settembre del '62 il vicepresidente americano Johnson siglava a Roma l'accordo di collaborazione con gli Usa». Nasceva così il Progetto San Marco. E la storia dell'astronautica italiana. Antonio Lo Campo


E ORA UN RAZZO TURRO ITALIANO? Un satellite vola nel vento del Sole
Autore: QUINTILLI FRANCO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, PROGETTO
ORGANIZZAZIONI: GGS, PBD DIFESA & SPAZIO, NASA
LUOGHI: ITALIA
NOTE: «Programma Vega»

L'ULTIMO satellite «San Marco» è partito sotto la guida di Luigi Broglio dalla base italiana in Kenya nel marzo 1988 ed era destinato allo studio degli effetti del vento solare sull'alta atmosfera terrestre. L'interesse di queste ricerche è confermato dal fatto che nei primi giorni di novembre da Cape Canaveral, Florida, un razzo «Delta II» ha portato in orbita il satellite «Wind», un cilindro del peso di 1225 chilogrammi e del diametro di 2,75 metri per 2,44 metri di altezza: questo satellite è il secondo di tre che fanno parte della missione Ggs (Global geospace science) che, a sua volta, fa parte dell'«International solar terrestrial program». Il satellite ha a bordo otto strumenti: 6 americani, uno francese e uno russo, per la prima volta a bordo di un satellite americano. Posto su un'orbita molto ellittica con apogeo a 450 mila chilometri e perigeo a 185, studierà il «vento» che soffia dal Sole: farà misure sulle proprietà delle particelle e sulle loro interazioni nella regione tra la Terra e il Sole per mezzo di satelliti posti in orbite complementari. Il primo satellite di questa missione Ggs, «Geotail», fu lanciato sempre con un razzo Delta II nel luglio 1992. Geotail permise agli scienziati di prendere a modello e studiare gli effetti dell'attività solare sull'ambiente geomagnetico della Terra. Il terzo satellite Ggs, «Polar», simile a «Wind», sarà lanciato nel tardo 1995. Il suo vettore fa parte del contratto Melvs (Medium expandable launch vehicle services) per sei lanci che l'ente spaziale americano Nasa ha dato alla McDonnell Douglas nell'ambito del programma per conoscere in modo più approfondito la correlazione fra il nostro pianeta e i fenomeni solari. Il Delta II, che ha raggiunto il record di 49 lanci riusciti, verrà utilizzato dalla Nasa anche per mettere in orbita i satelliti Radarsat, XTE, Mars- Pathfinder e Near. In Italia, il mondo scientifico e industriale aerospaziale attende che il programma Vega, della Bpd Difesa & Spazio - che potrebbe rientrare nella classe dei vettori Selv (Small expandable launch vehicle) -, si concreti al più presto per le ovvie ricadute tecnologiche, occupazionali e di immagine che deriverebbero dalla messa in orbita di satelliti medio-piccoli. Franco Quintilli Consiglio nazionale delle ricerche


STRIZZACERVELLO Coppie di numeri
LUOGHI: ITALIA

Esistono alcune coppie di numeri per le quali le cifre del prodotto e della somma sono identiche, ma rovesciate. Una di queste è 24 e 3: 24 più 3 = 27 e 24 x 3 = 72 Ci sono altre due coppie di numeri che hanno la stessa caratteristica, con il prodotto e la somma inferiori a 100. Quali sono? Altre coppie di numeri conservano invece lo stesso prodotto quando le cifre dei due numeri vengono rovesciate. Ad esempio: 12 x 42 = 21 x 24 14 x 82 = 41 x 28 24 x 63 = 42 x 36 46 x 96 = 64 x 69 Trovare qualche altra coppia di numeri dello stesso tipo. La soluzione domani, accanto alle previsioni del tempo.


LA PAROLA AI LETTORI CHI SA RISPONDERE? 1999, 2000, 2001: il XX secolo ha una fine incerta
LUOGHI: ITALIA

L'effetto Doppler sull'autoradio appassiona i lettori. E le risposte che abbiamo pubblicato non soddisfano tutti. Ecco una replica: Mi sembra che siano state scritte alcune inesattezze. Se c'è movimento relativo fra trasmettitore e ricevitore, l'effetto Doppler è sempre presente (nè potrebbe essere altrimenti) e si manifesta con uno spostamento, al ricevitore, della frequenza della portante trasmessa. Tale spostamento è dato dal rapporto tra la velocità del mezzo mobile e la lunghezza d'onda che, per le trasmissioni radio in FM che avvengono intorno ai 100 MHz, è di circa tre metri. Pertanto per un'auto che si muova, ad esempio, a una velocità di 30 metri al secondo (108 Km/h), lo spostamento Doppler è di appena 10 Hz. L'effetto di questo disturbo sulla qualità del segnale ricevuto dipende poi dalla deviazione di frequenza del metodo di modulazione, dato che lo spostamento di frequenza Doppler si sovrappone a quello «voluto» per modulare il segnale. Faccio presente che, oltre certe velocità, l'effetto Doppler causa disturbi notevoli nella ricezione dei telefoni cellulari, dove risulta amplificato dalla frequenza di lavoro più elevata (900 Mh). Simona P., Alessandria Ed ecco ancora una risposta alla tanto discussa domanda sui due ciclisti in discesa: I due ciclisti, attraverso le biciclette, sono a contatto con il suolo e dunque occorre prendere in considerazione anche questo attrito. Il ciclista più pesante sarà anche più premuto al suolo e poiché sulla Terra il peso-forza è pari alla massa del corpo, il ciclista più pesante sarà meno veloce. Chi è più leggero è favorito in discesa, chi è più pesante in pianura o in salita, dove conta la potenza dei muscoli. Davide Polcari Banchette d'Ivrea (TO) Perché, sputando nella maschera subacquea, non si appanna? Lo sputo non è abbastanza freddo per causare l'appannamento della maschera, se questa è asciutta. Se poi questa è di uso recente, la temperatura è troppo bassa per creare divario termico. Classe III A Livorno Ferraris (VC) Perché, a parità di marca, l'ac qua minerale imbottigliata costa di più di quella gassata, che ri chiede una maggiore lavorazio ne? In un litro «nominale» di acqua gassata c'è una minore quantità di prodotto rispetto al litro «nominale» di acqua naturale, perché il rimanente volume è occupato dal gas. Quindi, pur richiedendo una maggiore lavorazione, il costo è minore perché c'è un risparmio sulla quantità di acqua. Federico Arato, Torino Il XX secolo finirà nel 1999 o nel 2000? Il prossimo millennio non avrà inizio nel 1999 e nemmeno nel 2000, ma probabilmente nel 2001. Un gruppo di cento numeri, ad esempio gli anni di un secolo, può essere contato da 0 a 99 o da 1 a 100. Poiché non penso sia mai esistito un anno zero all'origine del nostro calendario, la partenza sarà avvenuta nell'anno 1 del secolo I. Ogni secolo pertanto dovrebbe iniziare dall'anno con l'ultima cifra a destra corrispondente a 1, per terminare con l'anno le cui cifre a destra sono 00, in base appunto al conteggio da 1 a 100. Anni posti all'inizio di un secolo sarebbero ad esempio il 701, il 1201, il 1801 e, nel nostro caso, il 2001. D'altra parte, così come non è mai esistito uno anno zero (e nemmeno esiste la cifra romana), non vi sono mai stati un secolo zero nè un millennio zero. Il primo giorno del terzo millennio sarà forse il 1.1.2001. Gabriele Trabia Valgioie (TO) Il XX secolo finirà nel 1999. Il I secolo è iniziato nell'anno zero, l'anno 1 è stato il secondo anno (d.C.) e così via fino ad arrivare all'anno 99, 100 anno, ovvero anno di conclusione del primo secolo. Il II secolo è iniziato nell'anno 100 e si è concluso nel 199. E così di seguito il XX secolo è iniziato nell'anno 1900 e si concluderà nel 1999. In altre parole il secolo N inizia nell'anno N-1X100 e si conclude nell'anno NX100-1. Sandro Cuzzucoli Terni


CHI SA RISPONDERE?
LUOGHI: ITALIA

Q Per quale motivo l'effetto impresso calciando un pallone leggero (di gomma sottile) segue la legge detta «effetto Magnus» (si sposta cioè dalla parte in cui la pressione è minore) mentre un normale pallone da calcio (più pesante) segue una legge esattamente opposta? Q Qual è la pianta più longeva e quale cresce più velocemente? Q Perché, aggiungendo tappi di sughero all'acqua in cui bollono seppie, calamari e polipi, la loro carne risulta più morbida? _______ Risposte a «La Stampa-Tuttoscienze», via Marenco 32, 10126 Torino o al fax 011-65.68.688




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio