TUTTOSCIENZE 11 marzo 92


MEZZO SECOLO DI CRESCITA Il computer su un' unghia Ogni due anni in un chip raddoppiano le funzioni La parola d' ordine è miniaturizzare: il chip del 2000 potrà contenere cento milioni di transistor
Autore: MEO ANGELO RAFFAELE

ARGOMENTI: ELETTRONICA, INFORMATICA, TECNOLOGIA
LUOGHI: ITALIA
NOTE: 037

IL calcolatore elettronico, bandiera della rivoluzione tecnologica e industriale che in un paio di decenni ha cambiato il mondo, è nato solo mezzo secolo fa. Il lieto evento si verificò in una modesta casa tedesca, anticipando una tradizione di umili origini che è comune ai grandi protagonisti dell' informatica. Ad esempio, il primo elaboratore della Digital vedrà la luce in un vecchio mulino e il primo personal Apple nascerà in un garage. Il primo elaboratore elettronico veniva al mondo senza stelle comete o flash di fotografi, nella povera ma linda e ordinata camera da letto dei coniugi Zuse. No, per sua fortuna non fu la signora Zuse a partorire quell' ammasso informe di valvole e circuiti elettrici. La non più giovane signora Zuse ebbe soltanto il merito, in quella circostanza di acconsentire al proprio figlioletto, che non disponeva di uno studio, di installare il proprio laboratorio di elettronica nella stanza dei genitori. Così, sul tavolo da toilette della mamma, il giovane Zuse costrì il primo calcolatore elettronico. Ancora una volta, l' Europa era arrivata prima. Avrebbe perso rapidamente il suo primato. Era passato esattamente un secolo da quando l' inglese George Babbage aveva concluso il suo primo progetto di calcolatore meccanico programmabile, un secolo da quando un altro inglese, George Boole, aveva proposto «l' algebra dell' intelletto umano», destinata a giocare un ruolo centrale nel progetto e nella programmazione dei calcolatori elettronici. Le basi scientifiche dell' informatica erano state poste da tempo, ma sino all' avvento dell' elettronica era mancata una tecnologia adeguata per la realizzazione delle idee di Babbage e Boole. Il calcolatore di Zuse fu il progenitore dei calcolatori elettronici della «prima generazione», che furono progettati e immessi nel mercato nella seconda metà degli Anni 40 e in tutti gli Anni 50. I componenti fondamentali di questa prima generazione di elaboratori erano i tubi elettronici, le vecchie «valvole» con filamento incandescente che erano utilizzate come amplificatori di segnali nelle radio dei nostri nonni. Le calcolatrici meccaniche, a partire dalla macchina di Babbage, usavano per la rappresentazione dei numeri lo stesso codice decimale che abbiamo imparato nei primi anni di scuola. Una ruota dentata poteva assumere dieci diverse posizioni angolari e ciascuna di queste indicava una diversa cifra decimale, dallo «0» al «9». Il calcolatore elettronico preferisce invece un codice binario, caratterizzato da due sole cifre, generalmente indicate con i simboli «0» e «1». Occorrevano due tubi elettronici per memorizzare un «bit», ossia il valore di un' entità binaria; di conseguenza, poiché una cifra decimale è rappresentata da quattro bit, erano necessari otto tubi per memorizzare una cifra decimale e ottanta tubi per un numero di dieci cifre. Questo spiega gli enormi costi, ingombri e consumi dei calcolatori della prima generazione. Ad esempio, l' Eniac, uno dei più importanti calcolatori della prima generazione, impiegava migliaia di tubi, costava oltre dieci milioni di dollari, assorbiva centinaia di chilowatt e richiedeva una squadra di dieci manutentori. Nella seconda metà degli Anni 50 inizia il passaggio alla «seconda generazione di calcolatori». I tubi elettronici sono sostituiti con i transistori, i piccoli cilindretti con tre piedini già utilizzati nelle radioline giapponesi. Poi, nei primi Anni 60, inizia l' avvincente storia dei circuiti integrati, i principali protagonisti della moderna microelettronica. Un circuito integrato o microcircuito o «chip» contiene diversi transistori. I primi circuiti integrati ne contenevano pochi, ma il numero dei transistori per chip è rapidamente cresciuto dai primi Anni 60 ad oggi. Il processo di generazione di un circuito integrato può essere idealmente suddiviso in due fasi indipendenti. Nella prima fase, di contenuto prevalentemente intellettuale e creativo, viene prodotta «l' anima» del circuito integrato. Un transistore è fatto da tre strati di silicio leggermente diversi tra loro dal punto di vista chimico fisico. In questa prima fase il progettista, dopo aver ideato il microcircuito, produce il disegno che rappresenta i tre strati di silicio di ciascun transistore del chip ed i collegamenti tra i singoli transistori e gli altri componenti elementari del microcircuito. Nella seconda fase, di contenuto prevalentemente tecnologico «duro», viene prodotto il corpo del microcircuito: ossia, con un complesso processo di fotoincisione, interamente automatico, il disegno realizzato nella prima fase viene fotografato e materializzato sul silicio. Una piccola area di alcuni millimetri quadrati o al massimo di pochissimi centimetri quadrati conterrà la parte attiva del microcircuito; questa sarà poi incapsulata in un supporto plastico e sarà dotata di piedini che daranno al circuito l' aspetto di un millepiedi. Ogni cinque anni, la larghezza della pista su cui è inciso il transistore viene ridotta di un fattore tre. Questa riduzione comporta un aumento della velocità del microcircuito di un fattore tre perché si riduce di un terzo il tragitto che devono percorrere i portatori di carica. Contemporaneamente, l' impaccamento del microcircuito, ossia il numero dei transistori contenuti in un chip, cresce di un fattore nove (il quadrato di tre) mentre la potenza assorbita per transistore diminuisce di un fattore ventisette (il cubo di tre). In prima grossolana approssimazione, ogni cinque anni il numero di transistori contenuti in un chip cresce di un fattore dieci, mentre la velocità di elaborazione cresce di un fattore tre. Siamo così rapidamente passati dalla terza generazione di calcolatori, caratterizzati da microcircuiti contenenti decine o centinaia di transistori, alla quarta generazione, che impiega microcircuiti a grande integrazione, con migliaia di transistori. Recentemente si è superata la soglia del milione di transistori per chip, entrando nella fase dei microcircuiti a grandissima integrazione e dei calcolatori della quinta generazione. La quinta generazione è al centro di una questione nomminalistica con importanti implicazioni sul dibattito delle prospettive scientifiche dell' informatica. All ' inizio degli Anni 80, avviando un ambizioso progetto di ricerca sull' intelligenza artificiale, i giapponesi definirono come proprio obiettivo la realizzazione dei calcolatori della quinta generazione intesi come macchine «intelligenti». Queste avrebbero dovuto colloquiare con gli utenti in linguaggio naturale, interpretare automaticamente il significato di un testo scritto o il contenuto di un' immagine da tradurre da una lingua all' altra, riconoscere una voce o il significato di un messaggio vocale. In sostanza, secondo i giapponesi, la transizione dalla quarta alla quinta generazione avrebbe dovuto essere concettuale più che tecnologica, qualitativa più che quantitativa. A distanza di dieci anni dall' avvio di quel progetto la quinta generazione concettuale appare lontana come allora, mentre la quinta generazione tecnologica è diventata realtà. Le dimensioni del transistore sono ormai scese sotto il millesimo di millimetro. Pareva che fosse impossibile abbassare ulteriormente questo limite, perché la lunghezza d' onda della luce varia fra 0, 4 e 0, 8 micron. Pareva in sostanza, in termini grossolani, che un raggio di luce fosse troppo spesso per fotoincidere transistori più piccoli di un millesimo di millimetro Ma recentemente si sono messe a punto nuove tecniche litografiche utilizzanti radiazioni elettromagnetiche con lunghezza d' onda inferiore alla radiazione visibile, che consentiranno ulteriori miglioramenti. Così i chip del 2000 avranno tempi di funzionamento (ossia tempi di chiusura degli interruttori equivalenti) dell' ordine delle frazioni del miliardesimo di secondo e conterranno un miliardo di transistori, o poco meno. Nessuna tecnologia ha mai registrato progressi così rapidi e costanti, in un periodo così lungo, come quelli della microelettronica. Angelo Raffaele Meo Politecnico di Torino


COSTRUITO DA INTEL E ora arriva sul mercato il microprocessore con una marcia in più
Autore: FONTANA MICHELA

ARGOMENTI: ELETTRONICA, INFORMATICA, TECNOLOGIA
ORGANIZZAZIONI: INTEL CPU
LUOGHI: ITALIA
NOTE: 037

I personal computer del prossimo futuro? Saranno più semplici da usare ma anche più potenti, veloci e versatili. Tutti, dotati di una grafica accattivante e pronti per accogliere il mondo multimediale. Insomma, per fare fronte alle battute d' arresto del mercato dell' informatica, saranno più ricchi di sofisticate possibilità applicative e diventeranno più competitivi, come prezzo e prestazioni, con i grandi sistemi. Ma alle spalle delle innovazioni che rendono il loro utilizzo più facile e soddisfacente, vi è il continuo lavoro di perfezionamento dell' hardware. E la gara tra le aziende produttrici di microprocessori continua serrata per il predominio sul mercato. L' ultimo annuncio viene dalla regina del settore, l' azienda americana Intel che ha fornito le proprie architetture a circa l' 85 per cento dei 100 milioni di personal computer installati nel mondo. L' azienda, che ha venduto lo scorso anno 21 milioni di microprocessori e investito per ricerca e sviluppo un miliardo di dollari, ha presentato la seconda generazione di CPU, l' Intel 486 DX2. L' unità di elaborazione centrale, rivolta a fornire una maggiore potenza di calcolo per sistemi di fascia media, ha 1, 2 milioni di transitor ed è in grado di lavorare a 50 e successivamente a 66 milioni di cicli al secondo. Possiede inoltre la nuova tecnologia per il «raddoppio della frequenza» che consente al processore di svolgere le operazioni al suo interno ad un ritmo due volte più veloce di quello con cui dialoga il resto del sistema. Un' altra importante caratteristica è il cosiddetto «over drive socket» si tratta di uno zoccolo posto a fianco del chip che consente l' inserimento successivo di altri processori per aumentare la potenza. «E' come avere un' automobile con uno spazio vuoto di fianco al motore, per inserire, successivamente, un nuovo motore che migliori le prestazioni del primo» commenta Dino Mincuzzi dell' Intel. Aperti alla possibilità di upgrade, quindi, tutti i prodotti che utilizzano la famiglia 486 DX2. Tra i produttori presenti alla conferenza stampa di Milano Olivetti, Compaq, Ibm, Dell, Unisys. Questo annuncio si inserisce in una evoluzione continua del settore in crescita inarrestabile da venti anni, cioè da quando Intel lanciò il primo microprocessore. Imminente il «P5», o 586, risposta Intel alla minaccia dei Risc, microchip superveloci ad architettura interna semplificata prodotti da Ibm Apple, Hewlett Packard, Digital. Il P5 avrà 3, 5 milioni di transistor, sarà in grado di effettuare 100 milioni di istruzioni al secondo e, come i 486, avrà la compatibilità con il patrimonio software precedente. Gli annunci che si susseguono da parte delle Case produttrici di microchip dimostrano come sia inarrestabile la corsa alla miniaturizzazione. Secondo quella che viene chiamata dagli addetti ai lavori la legge di Moor, formulata dal cofondatore dell' Intel Gordon Moor negli Anni Settanta, il numero di transistor posti su una piastrina di silicio raddoppia ogni due anni. Se il chip del primo personal computer, l' Ibm 8088 aveva 29 mila transistor, e il 486 DX2 ne ha poco più di un milione, il chip del Duemila si prevede conterrà 100 milioni di transistor. E se nel 1984 un personal computer aveva 170 chip e la memoria, oggi può essere realizzato con soli 10 circuiti integrati e la memoria. E per il 1993 lo stesso personal computer potrà essere contenuto, tutto intero, in uno solo chip. Michela Fontana


EMANAZIONE DELL' ONU Una proposta dall' Italia: tribunale internazionale per crimini contro l' ambiente
Autore: GINO ENZO

ARGOMENTI: ECOLOGIA, DANNEGGIAMENTI, INQUINAMENTO, PROPOSTA
ORGANIZZAZIONI: ONU, TRIBUNALE INTERNAZIONALE DEL' AMBIENTE
LUOGHI: ITALIA
NOTE: 037

DAL 1989 si è sviluppato, a partire dall' Italia, in oltre 40 Paesi nel mondo, un movimento internazionale per la costituzione di un Tribunale internazionale dell' ambiente come diretta emanazione dell' Onu. L' idea è partita dal professor Postiglione, consigliere presso la Corte di Cassazione che, in un incontro mondiale a Firenze nel maggio scorso, ha trovato il sostegno di molti colleghi stranieri. Dopo l' Emilia Romagna e la Toscana anche la Provincia di Asti ha recentemente aderito all' iniziativa di una assise internazionale che possa incaricarsi di consulenze, inchieste, mediazioni, conciliazioni, arbitrati e celebrare anche veri e propri processi con sanzioni nei confronti degli Stati che abbiano commesso o tollerato nei loro territori crimini ecologici. E' sufficiente elencare i via via crescenti disastri a carattere internazionale, che sfuggono al controllo e al giudizio di singoli Stati, per comprendere l' interesse di un siffatto organismo che non potrà far a meno di collegarsi alla massima istituzione mondiale, l' Onu, per condividerne l' autorevolezza. Le costituzioni e convenzioni sia nazionali che internazionali hanno spesso un potere di tipo legislativo ma non esecutivo. Il progetto di convenzione di salvaguardia del diritto dell' uomo all' ambiente e di costituzione di un' agenzia internazionale dell' ambiente e di un tribunale internazionale raccoglie in dieci articoli i principi ispiratori e gli organi di garanzia internazionale che potrebbero essere alla base dell' organismo proposto. Tale progetto verrà presentato il prossimo anno al Segretario generale dell' Onu e al presidente del Congresso internazionale sull' ambiente che si terrà a Rio de Janeiro. In esso si stabiliscono alcuni principi come il diritto fondamentale all' ambiente e il dovere di solidarietà per la conservazione della vita terrestre a beneficio delle generazioni presenti e future, il diritto di accesso alle informazioni ambientali e il dovere di fornirle insieme con quello di usare le risorse naturali con equità e parsimonia. In particolare, si stabilisce il dovere degli Stati di adottare politiche di sviluppo rispettose dell' ambiente, e i cui effetti siano compatibili con l' equilibrio dell' ecosistema; il ripristino e il risanamento degli ambienti degradati, l' adozione di standard ambientali internazionali. Compito del Tribunale sarebbe la risoluzione di controversie internazionali sulla responsabilità degli Stati verso l' intera comunità in materia di ambiente e l' adozione di provvedimenti cautelari e urgenti in caso di disastri ecologici. Il tribunale si comporrebbe di 15 giudici indipendenti eletti dall' assemblea dell' Onu, fra una rosa di 100 personalità di chiara fama. I giudici godrebbero di prerogative di assoluta indipendenza rispetto agli Stati di provenienza. Anche associazioni e singole persone potrebbero denunciare violazioni con implicazioni di carattere sovrannazionale. Il Tribunale internazionale dell' ambiente può ordinare ai colpevoli, siano essi Stati, privati cittadini o multinazionali, l' adozione di tutte quelle misure ritenute opportune per ripristinare la situazione precedente la violazione del diritto. Enzo Gino


ASTROFISICA Un esame per Einstein Fino al 18 marzo la sonda spaziale «Ulisse» studierà le onde gravitazionali Si tenta di acquisire un' altra prova sulla teoria della relatività generale
Autore: BERTOTTI BRUNO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, ASTRONOMIA
ORGANIZZAZIONI: SONDA ULISSE
LUOGHI: ITALIA
TABELLE: D
NOTE: 038

FINO al 18 marzo una complessa operazione permetterà di compiere un delicato esperimento che mira alla rivelazione di onde gravitazionali tramite la sonda spaziale «Ulisse». Per poter trasmettere e ricevere con continuità i segnali radio verso o dalla sonda, che sorge e tramonta ogni giorno, vengono usati tre apparati del Deep Space Network scaglionati nei pressi di Madrid, di Canberra (Australia) e a Goldstone in California; altre due antenne solo riceventi a Medicina (Bologna) e a Kashima in Giappone registreranno rispettivamente segnali partiti da Madrid e da Canberra. L' operazione è condotta dal centro di controllo del Jet Propulsion Laboratory di Pasadena (California) e costituisce per la Nasa, per il Deep Space Net work e per il gruppo di ricercatori italiani responsabili dell' esperimento una straordinaria realizzazione anche dal punto di vista organizzativo e strumentale. La sonda Ulisse una missione congiunta della Nasa e dell' Agenzia Spaziale Europea lanciata il 6 ottobre 1990 per lo studio del sole si trova a 700 milioni di chilometri dalla Terra, poco dopo il suo transito vicino a Giove. L' esperimento consiste nell' inviare alla sonda un segnale radio la cui frequenza viene mantenuta al più possibile costante da speciali strumenti a terra; da bordo viene trasmesso verso terra un altro segnale la cui frequenza è mantenuta continuamente sintonizzata con quella ricevuta. La misura ha per oggetto la variazione percentuale della frequenza subita dal segnale radio nel corso del suo percorso di andata e ritorno. Benché la misura usi la strumentazione standard di terra e di bordo, è possibile raggiungere accuratezze straordinarie: in un esperimento preliminare fatto all' inizio del 1991 si sono ottenuti errori nella variazione percentuale di frequenza di 3 parti in 100. 000. 000. 000. 000 (14 zeri) ]. Nella sua interpretazione elementare, questa procedura altro non è che una misura della velocità relativa del satellite rispetto alla stazione di terra; e l' errore corrispondente si ottiene semplicemente moltiplicando la velocità della luce per l' errore suddetto. Siamo così in grado di misurare la velocità relativa del satellite con un errore di 0, 001 centimetri al secondo] Le onde gravitazionali, previste da Einstein, dovrebbero essere emesse da grossi corpi celesti in rapido moto; la loro rivelazione costituirebbe una vera rivoluzione per l' astronomia. Ciò però incontra serie difficoltà dovute all' estrema piccolezza della costante di gravità: basti dire che la forza di repulsione tra due protoni è circa 1039 (1 segito da 39 zeri) volte più grande della loro attrazione di gravità. I principali programmi per la rivelazione delle onde gravitazionali riguardano sorgenti stellari che possono emettere impulsi con tempi dell' ordine del millisecondo; per valori così brevi speciali rivelatori a terra sono adeguati. Gli sviluppi recenti dell' astronomia extragalattica hanno messo in evidenza possibili sorgenti di onde gravitazionali assai più grandi e lente di quelle stellari Si tratta di fenomeni violenti, su scala temporale assai più breve di quelle dell' evoluzione galattica dell' astronomia classica (in genere miliardi di anni); essi hanno luogo, con manifestazioni vistosissime, soprattutto nei nuclei delle galassie attive. Si presume che queste contengano enormi buchi neri, con masse centinaia di milioni di volte più grandi di quella del sole. L' enorme energia gravitazionale dovuta alle loro piccolissime dimensioni può essere rapidamente trasformata in energia radiante e in energia gravitazionale. Queste sorgenti, secondo la teoria di Einstein, emettono impulsi gravitazionali, con una durata di centinaia o anche di migliaia di secondi, per i quali i rivelatori a terra sono inadeguati. Difatti la dimensione ottimale di un rivelatore di onde è un po' superiore alla loro lunghezza d' onda: a un periodo di 1000 secondi corrisponde la lunghezza d' onda di 300 milioni di chilometri, due volte la distanza Terra Sole. E' quindi necessario usare navicelle in orbita interplanetaria. L' accuratissima misura della variazione della frequenza radio ci fornirà la velocità relativa del satellite. Un' onda gravitazionale che investa il sistema solare altera lievemente la sua distanza dalla Terra e potrebbe quindi così venire rilevata. Sulla navicella il principale strumento usato è il disco parabolico dell' antenna radio di alto guadagno, che ha un diametro di 1, 5 metri ed è sempre puntata verso la Terra. Il segnale radio, tuttavia, è affetto da parecchi disturbi, alcuni dei quali non ancora perfettamente conosciuti. L' esperimento di Ulisse è il primo tentativo di rivelazione spaziale che usi due frequenze radio e che dura un periodo lungo. Si tratta, in sostanza, di una tecnica sperimentale nuova, su cui abbiamo ancora parecchio da imparare. Ulisse usa sostanzialmente solo la strumentazione radio corrente di bordo e di terra (benché con particolari procedure); il costo dell' esperimento è quindi molto contenuto. Ad esso dovrebbe seguire nel 1994 un esperimento simile (ma con un migliore sistema radio) con la sonda Galileo della Nasa; a cavallo del secolo una grande missione congiunta della Nasa e dell' Esa Cassini alla quale partecipa anche l' Agenzia Spaziale Italiana, prima dell' esplorazione del sistema planetario di Saturno per la quale è stata progettata, ha in programma tre esperimenti per la rivelazione di onde gravitazionali di bassa frequenza. Si deve tuttavia sottolineare che, secondo le stime astrofisiche circa le sorgenti di onde gravitazionali nell' intervallo di frequenze di interesse per Ulisse, la sensibilità di questo rivelatore non è sufficiente per assicurare un successo. In sostanza, benché sia ragionevole ritenere che esistano sorgenti di intensità sufficiente, anche a distanze paragonabili al raggio stesso dell' universo, è difficile ritenere che esse emettano impulsi così frequentemente da poter venire rivelate da Ulisse nel tempo relativamente breve (28 giorni) a disposizione. Solo aumentando notevolmente la sensibilità si potrebbe sperare di raggiungere le sorgenti più deboli e più lontane, quindi anche più numerose. Questo esperimento va considerato come una tappa in un programma ben più vasto per rispondere a una delle sfide più esigenti e allo stesso tempo promettenti che ci pone la fisica moderna. Bruno Bertotti Università di Pavia e Società Italiana di Relatività


LA SONDA ESA Grazie Giove, e adesso verso il Sole
Autore: P_B

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, ASTRONOMIA
ORGANIZZAZIONI: SONDA ULISSE
LUOGHI: ITALIA
NOTE: 038

ORMAI da un mese la sonda europea «Ulisse» sta avventurandosi fuori del piano delle orbite dei pianeti per andare al suo appuntamento con i poli del Sole nel ' 94 e nel ' 95. La spinta su questa inedita traiettoria gliel' ha data il campo gravitazionale di Giove. Ma si è pure approfittato del transito vicino al più massiccio dei pianeti per raccogliere dati sul suo campo magnetico e sulle particelle diffuse dall' attività vulcanica del satellite Io. Tutto si è svolto felicemente: il cervello della sonda (costruito dalla Laben di Milano, gruppo Alenia) ha superato brillantemente la prova incamerando le informazioni e distribuendo i circa duemila comandi al giorno inviati alla navicella intorno all' 8 febbraio, data del massimo avvicinamento a Giove. Le informazioni ottenute sono molto interessanti. «Ulisse» ha tracciato una mappa del campo magnetico gioviano a latitudini mai prima raggiunte. L' incontro con la magnetosfera è iniziato il 2 febbraio, alla distanza di 113 raggi gioviani, più di quanto avevano rilevato i «Pioneer» e i «Voyager». Le fasce cariche di particelle atomiche sono risultate molto più appiattite del previsto. Quanto all' anello di polveri diffuse da Io, attualmente è del 30 50 per cento meno denso rispetto a una decina di anni fa e sul satellite non sembrano esserci oggi vulcani attivi. Questo dato deriva da misure delle variazioni del segnale radio durante l' attraversamento dell' anello di plasma. John Simpson dell' Università di Chicago ha stimato l' energia totale che agisce nella magnetosfera gioviana pari a 100 miliardi di kilowatt al secondo: cioè maggiore di quella consumata dagli Stati Uniti. (p. b. )


AERONAUTICA Idrovolanti, ritorno dal passato Nuove tecniche costruttive li rendono competitivi
Autore: FILTRI TULLIO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, TRASPORTI, AEREI
LUOGHI: ITALIA
NOTE: 038

SI ritorna a parlare dell' idrovolante, un velivolo del passato; nato insieme col velivolo terrestre, percorse una gloriosa parabola che ebbe il suo apice fra le due guerre mondiali, e si concluse alla fine della seconda. Le cause del declino non furono di natura tecnica ma economica: l' idrovolante aveva caratteristiche di velocità e di carico pagante inferiori a quelle dell' aereo terrestre, quindi la sua gestione non era economica. Ora assistiamo ad un fatto curioso: è riapparso l' anfibio, il cui rendimento economico è inferiore a quello dell' idrovolante puro perché il peso del carrello di atterraggio va a detrimento del carico pagante Tuttavia l' anfibio si è affermato; il vantaggio di operare sia su terra sia su acqua è tale, si dice, da far passare in seconda linea il fattore economico. Vi sono dubbi al riguardo; il tempo dirà chi ha ragione. Intanto, vediamo la situazione del mercato. Esistono piccoli idrovolanti monomotore, diffusi, insieme con piccoli anfibi, nelle regioni dei laghi e dei fiumi degli Stati Uniti e del Canada, e in poche altre parti del mondo. In Italia c' è ancora una scuola di volo per piloti di idrovolante, gestita dall' Aeroclub di Como. Recentemente, esso ha curato la ricostruzione di un piccolo idrovolante, il Ca 100 Idro, costruito dalla Caproni, e lo ha immesso nella flotta di idroscuola. Il Ca 100 Idro era molto diffuso nelle Scuole di Volo anteguerra; la riapparizione di questo piccolo biplano, che, con quello analogo terrestre, ha addestrato migliaia di piloti anteguerra, ha destato una cordiale, nostalgica simpatia. Esistono anche anfibi di una certa mole come il quadrimotore giapponese Us 1A, di 45 tonnellate, della Shin Meiwa, adibito a servizi di vigilanza, ricerca e soccorso naufraghi; spegnimento di incendi boschivi, come il Canadair Cl 215 T, bimotore noto come «bombardiere d' acqua»; o come il modernissimo Be 42 «Albatros» russo, della Beriev, progettato dall' ingegner Valentin Nicolaiev Kratsov. Pesa 86 tonnellate, ha due motori a getto da 15. 000 chilogrammi di spinta ciascuno e la rispettabile velocità di 800 chilometri l' ora. Può operare anche con onde alte 2 metri e 20, e questo è importante; è usato per servizi di vigilanza, ricerca e soccorso naufraghi, e come antincendio di boschi. In versione militare è un poderoso posamine Presto apparirà un altro anfibio: un consorzio formato dalla tedesca Dornier e dall' italiana Alenia ha in costruzione un anfibio sperimentale di concezione avanzata, bimotore di 23 tonnellate che fa largo uso di materie plastiche. Questi gli anfibi di oggi. Ma l ' idrovolante puro non disarma, e prepara innovazioni tecniche che lo porteranno a competere col terrestre. L' idrovolante è meno veloce ed ha un carico pagante inferiore a quello del terrestre perché deve avere uno scafo «marino», una forma atta a «reggere» il mare, essere robusto, per sopportare il tormento dell' ammaraggio e dell' involo e quindi pesante; la sua forma spigolosa offre resistenza all' avanzamento, sia in acqua sia in volo. Sono allo studio innovazioni tecniche per rendere lo scafo leggero e nello stesso tempo robusto; la soluzione consiste nell' evitare l' urto dello scafo con l' acqua nelle fasi di involo e di ammaraggio usando alette idrodinamiche simili a quelle degli aliscafi. Con le alette i carichi di urto sulla superficie dell' acqua vengono ridotti di un terzo. Con questo accorgimento non è più necessario che lo scafo abbia sezione rettangolare e fondo piatto ma può avere una forma di buona penetrazione idrodinamica ed aerodinamica a vantaggio della velocità. Le alette idrodinamiche non sono fisse, ma con incidenza variabile; se l' aereo in fase di involo o di ammaraggio assume un assetto irregolare viene variata l' incidenza delle alette, che riportano l' aereo nell' assetto regolare. A questo provvede una centralina elettronica. A questo punto si può fare un raffronto tra idro e terrestre. Il traffico sta crescendo, occorrono aerei di dimensioni maggiori. Oggi il peso degli aviogetti a pieno carico sta superando le 300 tonnellate, e arriva alle 500 tonnellate; sono in progetto aerei da mille tonnellate. Sorge quindi il problema del carrello di atterraggio, che deve avere notevole dimensione per contenere le molte e grandi ruote. Un sistema di tale mole non può essere ritratto in fusoliera, ma posto entro capaci gondole che, per quanto ben profilate, danno resistenza all' avanzamento. Da uno studio dell' ingegner Giovanni Casiraghi, il famoso progettista della Piaggio, risulta che un idrovolante di forma classica, pesante 40 tonnellate, presenta, rispetto al terrestre, una maggiore resistenza all' avanzamento del 30%; quello da 100 tonnellate del 12%; quello da 200 tonnellate, del 5%. Dalle 600 tonnellate in su la tendenza si inverte; il terrestre presenta maggiore resistenza all' avanzamento. Così, le motivazioni tecniche ed economiche, prima nemiche dell' idrovolante, ora militano a suo favore. Il pianeta Terra è coperto per tre quarti dall' acqua; logico pensare di usare un mezzo che agisca sull' acqua. I collegamenti tra le coste e le isole (pensiamo alle innumerevoli isole del Pacifico) richiederanno l' impiego di un gran numero di idrovolanti grandi, medi e piccoli. Tullio Filtri


SCAFFALE Bernardini Carlo e Minerva Daniela: «L' ingegno e il potere» , Sansoni
AUTORE: BIANUCCI PIERO
ARGOMENTI: STORIA DELLA SCIENZA
LUOGHI: ITALIA
NOTE: 038

DI scienza e tecnologia si scrive molto. Ma su di esse si riflette poco. Il fisico Carlo Bernardini e la giornalista Daniela Minerva, direttore e vicedirettrice della rivista Sapere, contribuiscono a colmare questa lacuna. Il loro libro allinea innanzi tutto una serie di storie esemplari in cui viene in evidenza il rapporto tra scienza e potere e tra scienza e mezzi di comunicazione: i Krupp e la ricerca industriale e tecnologica, Heisenberg e la bomba atomica invano sognata da Hitler, Teller e il suo sviscerato impegno per il riarmo, le responsabilità dell' incidente del Challenger smascherate da Feynman, la vicenda della «fusione fredda». Da queste ricostruzioni tra storia e cronaca si giunge al capitolo conclusivo, che riguarda «i modelli e i comportamenti dello scienziato contemporaneo» in relazione a valori come la credibilità , la trasparenza, l' indipendenza dal potere, l' utilità della ricerca.


SCAFFALE Hack Margherita: «L' universo alle soglie del Duemila», Rizzoli
AUTORE: BIANUCCI PIERO
ARGOMENTI: ASTRONOMIA, LIBRI
LUOGHI: ITALIA
NOTE: 038

Dalla fisica subnucleare all' universo. E' il percorso che ci propone l' ultimo affascinante libro di Margherita Hack, ricercatrice nota internazionalmente, un pioniere delle «nuove astronomie» che negli ultimi decenni ci hanno permesso di guardare l' universo da finestre prima proibite: onde radio, infrarosso, ultravioletto, raggi X e gamma, neutrini. Ma se la sintesi tra fisica delle particelle e cosmologia è ormai consacrata anche in libri popolari come «I primi tre minuti» di Weinberg, la Hack fa qualcosa di nuovo perché troviamo già storicizzate in queste pagine scoperte recentissime: la supernova apparsa nel 1987 nella Grande Nube di Magellano, le stelle nane brune, il Grande Attrattore, le lenti gravitazionali. Per finire con la versione del Big Bang in chiave inflattiva, secondo cui potrebbero essersi formati numerosi universi tra loro non comunicanti. Prospettiva che come già la rivoluzione copernicana, sprovincializza radicalmente la nostra visione del mondo, questa volta forse in modo davvero definitivo.


SCAFFALE Penrose Roger: «La mente nuova dell' imperatore», Rizzoli
AUTORE: BIANUCCI PIERO
ARGOMENTI: ELETTRONICA, LIBRI
LUOGHI: ITALIA
NOTE: 038

Roger Penrose è tra i più brillanti fisici matematici del mondo. Classici sono i suoi lavori sui buchi neri e sulla meccanica quantistica, questioni scientifiche molto complesse che tuttavia è sempre riuscito a divulgare anche presso il grande pubblico. Questa volta però al centro del suo discorso è il problema dell' Intelligenza Artificiale, cioè la possibilità (molto discussa) di simulare con una macchina il comportamento umano. La posizione di Penrose è duramente negativa: come un pallottoliere fa le addizioni ma non sa che cosa sia un' addizione, qualsiasi cosa riesca a fare un computer, non sarà mai qualcosa di veramente intelligente. Penrose attraversa alcuni dei suoi terreni di ricerca preferiti, dalla cosmologia alla sfida della gravità quantistica, giungendo infine ad affrontare gli interrogativi sul rapporto mente cervello, cioè, in ultima analisi, tra coscienza e substrato fisico della coscienza. Una questione afferma del tutto irrisolta, nonostante i molti discorsi paludati che si fanno in proposito. Insomma, come suggerisce il titolo, che si riferisce alla favola dell' imperatore nudo, ci vuole l' innocenza di un bambino per capire che anche l' Intelligenza Artificiale, tolte le chiacchiere, si riduce a un computer senza vestito.


SCAFFALE Riedl Rupert: «Fauna e flora del Mediterraneo», Muzzio
AUTORE: BIANUCCI PIERO
ARGOMENTI: BIOLOGIA, LIBRI
LUOGHI: ITALIA
NOTE: 038

Un classico della biologia marina: tutte le specie animali e vegetali che vivono nel Mediterraneo e nei suoi dintorni, dai protozoi e dalle alghe ai pesci, dai mammiferi alle piante. Le schede, perfette nella loro sinteticità, sono corredate da 3600 disegni e un centinaio di cartine. Da segnalare, dello stesso editore, la «Guida alle strutture geologiche» di John L. Roberts.


LO SPAZIO E IL TEMPO Se è in salita, è più lontano L' equidistanza tra località ad altezze diverse è solo teorica Le mappe giuste sono deformate in funzione del tempo
Autore: ZULLINI ALDO

ARGOMENTI: PSICOLOGIA, FISICA
LUOGHI: ITALIA
NOTE: 039

LA notte del 10 novembre 1628, Renzo fuggì da Lecco per arrivare a Milano in circa dodici ore. Oggi questo stesso percorso viene coperto in quaranta minuti. Fatti i conti, ciò equivale a dire che le due città si sono avvicinate mediamente di quasi due minuti l' anno. In un calcolo del genere, tale valore dipende, oltre che dal miglioramento dei mezzi di trasporto, anche dalle distanze considerate. Infatti nello stesso periodo, a parità di condizioni, la distanza temporale tra Milano e Roma si è ridotta di circa trenta minuti all' anno. Le innovazioni tecnologiche hanno reso il mondo più piccolo, come si usa dire, ma sono servite anche a rendere più chiari alcuni concetti spaziali e temporali. L' elaborazione, da parte di Lobacevski e di Riemann, di geometrie non tradizionali ha avuto ampie ripercussioni nella matematica del secolo scorso e, poco più tardi, anche in astronomia. Ma nell' ambito geografico ed ecologico, fino a non molti anni fa, lo spazio di riferimento era ancora euclideo, cioè lineare, assoluto e unico per tutti gli individui. Oggi però, anche negli studi ambientali, si adotta un' ottica diversa. Lo spazio in cui ci muoviamo quotidianamente non è omogeneo e isotropo, ma «stirato» secondo certe direzioni privilegiate. Per esempio nelle città con pianta squadrata (come Torino o New York) ci si può spostare soltanto lungo due direzioni ortogonali tra loro. Infatti mancano vie diagonali o circonvallazioni interne che possano collegare di sbieco quartieri diversi. A differenza di quanto avviene nello spazio euclideo, il percorso più breve tra due punti della città non è rappresentato da un segmento di retta. Anche i rilievi montuosi, al pari dei grattacieli e degli isolati, determinano «curvature» dello spazio percorribile. Si pensi per esempio a tre località equidistanti tra loro, due in pianura e una in montagna. Stando ai chilometri segnati, non dovrebbe esserci differenza nei viaggi tra l' una e l' altra. Invece, il tempo necessario per raggiungere la località di montagna risulta più lungo a causa della carreggiata stretta e tortuosa e per il dislivello. L' equidistanza risulta perciò puramente teorica perché, di fatto, la località montana si raggiunge con maggior difficoltà, il che equivale a dire che è più «lontana». Insomma il fattore tempo conta di più, agli effetti pratici, del fattore spazio. Ecco perché i geografi moderni costruiscono talvolta mappe deformate in funzione del tempo. In queste carte i punti distano tra loro non in proporzione ai chilometri, ma in proporzione alle ore di percorrenza effettiva (secondo linee isocrone, cioè di uguale distanza temporale). Tali carte sono di grande utilità quando si voglia programmare razionalmente la collocazione di nuovi impianti (fabbriche, ospedali o altro) in un territorio. Oggi gli speleologi tracciano la mappa delle grotte facendo uso di bussola e bindella, ma un tempo la cartografia delle caverne veniva fatta in modo approssimativo. L' analisi delle vecchie mappe ha messo in evidenza che tutte sbagliavano nello stesso modo, cioè esageravano la lunghezza delle gallerie impervie e difficili mentre sottostimavano i tratti più facili. Un sentiero faticoso, è naturale, sembra più lungo di quello che è. L' uomo, dunque, non vive solamente nella dimensione spaziale assoluta, ma anche in un particolare spazio «temporale». Il discorso, tuttavia, non finisce qui. Un percorso che richieda più tempo di un altro è anche più costoso. Le considerazioni economiche sono importanti quando si debba decidere se fare o no un certo viaggio. Il fatto è che noi possediamo, perlomeno mentalmente, anche una «mappa» dei costi. Si tratta di una mappa molto soggettiva, perché una meta appare vicina o lontana secondo il valore che le si attribuisce. Ricerche in questo campo hanno messo in evidenza che quasi tutti i clienti di una drogheria soggiornano entro un raggio di circa tre chilometri dalla stessa. Gran parte dei clienti di un ristorante, invece, provengono da un' area molto più estesa tutt' intorno. Mentre sembra accettabile percorrere dieci chilometri per mangiare bene, quasi nessuno è disposto a fare la stessa strada per andare dal droghiere. Esiste infine un quarto tipo di spazio che i geografi definiscono «sociale ». Indipendentemente dai fattori considerati fin qui, due località risultano socialmente più o meno vicine in rapporto alla quantità degli scambi di materia, di energia e di informazione. Tali scambi finiscono per creare legami storici, economici, linguistici e culturali. Ciò deforma la nostra percezione dello spazio, perché sovente si crea la sensazione di un raccorciamento delle distanze tra entità collegate da intensi rapporti economici e amministrativi. Accade così che molti abitanti di città come Torino e Milano tendano a credere, per un' illusione indotta dai confini politici, di vivere più lontani da Londra (o dall' Olanda) che da Catania. Il contesto spaziale in cui l' uomo vive e opera non è, dunque, il semplice spazio «assoluto» di derivazione euclidea, ma è l' intersezione di questo con lo spazio temporale, con lo spazio economico e con quello sociale. L' evoluzione uomo ambiente comporta, fra le altre cose, una modificazione continua di tale contesto. Aldo Zulliniè Università di Milano


STRATEGIE ANTI AIDS Virus coriaceo Fra breve sarà approvato negli Usa un nuovo farmaco, il Ddc Primi successi di un vaccino sperimentato sui macachi
Autore: GIACOBINI EZIO

ARGOMENTI: MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA, SANITA'
LUOGHI: ESTERO, USA
NOTE: 039

IL virus dell' Aids si sta dimostrando più scaltro dei ricercatori rinnovandosi attraverso continue mutazioni che rendono inefficaci anche i farmaci più nuovi. Esso si protegge infatti integrandosi con i meccanismi normali di moltiplicazione cellulare. Negli Stati Uniti un terzo farmaco dopo l' Azt e il Ddi forse sarà approvato entro l' anno: il Ddc. Dal punto di vista farmacologico i tre sono imparentati, in quanto, come derivati nucleosidici, interferiscono con la transcriptasi inversa, l' enzima che il virus usa per riprodursi. Tutti e tre hanno un effetto limitato e di fatto non uccidono il virus. Inoltre nell' arco di mesi o di anni si sviluppa una resistenza che ne annulla l' effetto. Un gruppo nuovo di farmaci come il Tibo e il Birg 586, sui quali si riponevano molte speranze, si è dimostrato troppo tossico. Le ditte farmaceutiche sono al lavoro con altre classi di farmaci, come gli inibitori delle proteasi, che dovrebbero interferire con il ciclo di riproduzione del virus. Gli inibitori detti tat bloccano, almeno in provetta, il gene che dirige la moltiplicazione del virus. Purtroppo la loro efficacia nell' uomo si è dimostrata troppo bassa. Altri tentativi si dirigono verso le infezioni opportunistiche che accompagnano l' Aids. Un nuovo tipo di antibiotici, detti macrolidi, sembra essere efficace contro la toxoplasmosi, un' infezione che colpisce il cervello ed è favorita da una riduzione delle difese immunitarie, come si verifica appunto con l' Aids. Una buona notizia è giunta alla fine di gennaio da un settore di ricerche diverso. Scienziati della Bristol Myers Squibb, in collaborazione con la Duke University e l' Istituto Nazionale dei tumori di Washington, hanno ottenuto un pieno successo con quattro scimmie (della specie macaco), che sono state immunizzate contro il virus Siv, un parente stretto del virus Hiv dell' uomo, mediante un nuovo vaccino ottenuto usando parti dello stesso virus, cioè lo strato di protezione che lo ricopre all' esterno. Fino ad oggi gli unici vaccini rivelatisi efficienti nella scimmia erano ottenuti inattivando l' intero virus. Una completa protezione immunitaria dal virus Siv è un passo molto importante nello sviluppo di un vaccino umano. L' uso del vaccino prodotto da inattivazione del virus intero è limitato da problemi tecnici e di sicurezza: per questo diversi laboratori si sono concentrati su vaccini considerati più sicuri. Come diretta conseguenza dei successi nella scimmia, sono stati immediatamente avviati test in soggetti umani volontari, progettati allo scopo preciso di valutare i margini di sicurezza del vaccino e la sua capacità di stimolare risposte immunitarie. In un prossimo studio si passerà alla valutazione del vaccino in soggetti considerati ad alto rischio di infezione da Hiv. Ezio Giacobini Università del Sud Illinois


TEORIE TERAPEUTICHE Hiv: in quali fasi del ciclo nella cellula è meglio attaccare
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA, SANITA'
LUOGHI: ITALIA
NOTE: 039. Aids

IL virus dell' Aids noto come Hiv è forse l' aspetto oggi meglio conosciuto della questione. E' un retrovirus che si aggancia alle cellule che contengono il suo recettore, la molecola CD4. Avvenuto l' aggancio, il virus entra nella cellula e mediante un enzima, la trascriptrasi inversa, trasforma il suo acido nucleico Rna in Dna, il quale si integra nel genoma cellulare, costituito appunto da Dna. Ha quindi inizio la replicazione delle particelle virali. Le cellule bersaglio tipiche del virus Hiv sono i linfociti T4, ma non sono le sole. Bersagli sono anche macrofagi, linfociti B cellule del sistema nervoso e del sistema linfoide intestinale. Conseguenza diretta e principale dell' infezione è la morte di linfociti T4, ma si aggiunge tutta una serie di altre, dirette e indirette, delle quali si deve tenere conto. Uno dei fatti più imbarazzanti è che gli anticorpi prodotti dai pazienti come naturale reazione immunitaria sono scarsamente attivi contro il virus, a differenza di quanto avviene di consueto nelle infezioni virali. Un altro aspetto paradossale è che meno dell' uno per mille dei linfociti T4 è infettato, e nondimeno il numero di queste cellule diminuisce progressivamente, dando così origine alla immunodeficienza. Per questi e altri motivi appare evidente che la terapia dell' infezione da Hiv non può essere univoca: un solo farmaco antivirale non può dominare l' insieme dei problemi fisiopatologici. Schematicamente la terapia dovrà prendere in considerazione le varie fasi del ciclo del virus nella cellula, la variabilità genetica e biologica del virus, i diversi tipi di cellule infettabili dal virus, i fenomeni di sregolazione immunologica indotti dal virus anche indipendentemente dalla sua replicazione, il coinvolgimento del sistema nervoso centrale, le deboli difese naturali dell' organismo. Attualmente il solo medicamento di fondo è la zidovudina o azidotimidina (Azt), che agisce sulla fase della trascriptasi inversa, interrompendola. Le modalità di somministrazione e i dosaggi sono ancora molto discussi. L' Azt non può sradicare il virus, tuttavia la si deve prescrivere ai malati, considerando i benefici osservati in termini di sopravvivenza. Nei sieropositivi senza sintomi è indicata quando il numero dei linfociti T è sotto un certo livello. Altre fasi del ciclo virale sono teoricamente attaccabili, e vengono esplorate tutte. Si è tentato di inibire l' aggancio di Hiv al recettore CD4 mediante solfato di destrano, metil amfotericina, AL 721, HPA 23, tutte sostanze che modificano le proprietà fisiche delle membrane cellulari: risultati sperimentali positivi, ma negativi negli animali e in clinica umana. Si è pensato di somministrare molecole CD4 preparate con l' ingegneria genetica, un' esca per deviare il virus dal CD4 delle cellule: per ora non c' è stato nessun risultato. Un altro campo di ricerca riguarda l' immunofarmacologia, ossia i farmaci immuno modulatori che stimolano la risposta immunologica deficitaria. Sono stati sperimentati il dietiltiocarbamato, l' IM REG 1, l' AS 101, l' interferon, gli ormoni timici, l' isoprinosina. E' molto difficile valutare la reale efficacia di queste molecole, i risultati sono contraddittori, occorrono lunghi periodi d' osservazione. E' noto lo scacco dei primi tentativi di trapianto di midollo osseo in gemelli omozigoti, uno dei quali era infetto. Attualmente queste prove sono riprese sotto copertura antivirale (Azt a forti dosi), con risultati preliminari incoraggianti sul numero delle cellule CD4 e la replicazione del virus. Però la persistenza di questi miglioramenti biologici non è ancora apprezzabile. Infine citiamo le gamma globuline (anticorpi) specifiche anti Hiv. Sono in corso prove cliniche, i risultati preliminari appaiono talvolta buoni, come interessanti appaiono quelli della vaccinoterapia con virus inattivato secondo Salk. Ulrico di Aichelburg


LEONTOCEBI Liberi o in gabbia? E' sempre difficile reintrodurre in natura gli animali cresciuti in cattività La vita da reclusi li rende abitudinari e impreparati agli imprevisti
Autore: VISALBERGHI ELISABETTA

ARGOMENTI: ZOOLOGIA, ANIMALI
NOMI: PIGAFETTA ANTONIO, KLEIMAN DEVRA
LUOGHI: ITALIA
NOTE: 039

NEL quindicesimo secolo, quando la spedizione di Magellano giunse in Brasile e alcuni esploratori si spinsero a visitare l' interno del Paese, Antonio Pigafetta, che faceva parte della spedizione, così annotava nel suo diario l' incontro con un bellissimo animale: «Sono gatti scimmie che assomigliano a leoni. Del leone hanno la criniera e in certa misura il colore». Pertanto non è a caso che il nome latino di queste scimmie delle dimensioni di scoiattolo sia Leonthopithecus rosalia. Oggi i leontocebi sono famosi per un motivo ben differente: in natura ne sono rimasti soltanto 200 300, che vivono nelle poche zone di foresta atlantica nell' Est del Brasile, come la Riserva naturale di Poco das Antas vicino a Rio de Janeiro. Quando sono piccoli, gli scimmiotti si avvinghiano ai genitori e da lontano è ben difficile vederli. Vale la pena di dire che è in genere il padre a farsi carico del trasporto dei piccoli. Proprio per la loro rarità i leontocebi sono di recente diventati l' animale simbolo di una campagna internazionale per la loro salvaguardia. Come è avvenuto per il panda gigante o il gorilla, questa scimmia è il portabandiera di un' operazione su larga scala la sua salvaguardia richiede infatti un ampio progetto di conservazione dell' ecosistema in cui vivono. Devra Kleiman, del National Zoo di Washington, coordina il gruppo di studiosi che cerca di salvare il leontocebo. Il progetto prevede studi sugli esemplari che vivono in moltissimi zoo e laboratori in tutto il mondo e ricerche sul campo per conoscere le caratteristiche ecologiche della foresta atlantica e individuare aree adeguate dove liberare gli esemplari nati in cattività, che oggi sono quasi novecento. Le maggiori difficoltà sono emerse al momento della reintroduzione in natura, quando si è visto che la vita in gabbia rendeva questi animali così abitudinari nei movimenti e nella scelta dei percorsi che, una volta liberi, avevano problemi enormi. Se la caduta di un albero non permetteva più di fare una certa «strada» per andare da un posto all' altro, i leontocebi rimanevano bloccati. Per educarli ai «cambi di programma», la disposizione dei tronchi nella gabbia veniva continuamente cambiata e ne venivano aggiunti di nuovi. Il trattamento ha funzionato. Poi però si è presentato un problema del tutto nuovo, che ancora non si sa come affrontare: esami di laboratorio hanno messo in evidenza la presenza di un virus mortale in alcuni esemplari pronti per la reintroduzione. Liberando gli individui malati, questo virus rischia di diffondersi all' intera popolazione con conseguenze catastrofiche. Che fare? E' ancora troppo presto per dare una risposta. Elisabetta Visalberghi


COME FUNZIONA IL BINOCOLO Guardare a quattr' occhi E' costituito di due piccoli cannocchiali paralleli Un sistema di prismi per raddrizzare l' immagine
LUOGHI: ITALIA
TABELLE: D
NOTE: 040

IL binocolo è uno strumento ottico costituito da due piccoli cannocchiali paralleli. Il suo ingrandimento non è molto elevato. In compenso però consente una osservazione più naturale e con la percezione della profondità, ciò che non avviene con il normale cannocchiale e meno ancora con il telescopio, che dà immagini rovesciate, con l' alto in basso e viceversa. I binocoli più semplici quelli da teatro hanno lenti convergenti come obbiettivo e lenti divergenti come oculare. E' lo stesso tipo di ottica del cannocchiale di Galileo. Con questo schema non è possibile raggiungere ingrandimenti elevati: in genere ci si ferma sui 2 4 ingrandimenti. Nettamente migliori sono le prestazioni dei binocoli prismatici, il cui schema ottico è spiegato nei disegni qui accanto. L' obbiettivo dei binocoli prismatici è formato da due lenti di vetro diverso (crown e flint) per per eliminare gli aloni colorati intorno alle immagini. I prismi svolgono una doppia funzione: allungano la distanza tra l' obiettivo e l' oculare, con il risultato che si può ottenere un ingrandimento maggiore, e raddrizzano l' immagine, che altrimenti risulterebbe capovolta come nei telescopi. Nel binocolo prismatico sia l' obiettivo che l' oculare sono sistemi di lenti convergenti. L' ingrandimento in un cannocchiale, e quindi anche in un binocolo, è pari alla distanza focale dell' obbiettivo divisa per la distanza focale dell' oculare Per esempio, se l' obbiettivo forma il suo fuoco a venti centimetri di distanza e l' oculare a due centimetri, avremo un binocolo capace di fornire dieci ingrandimenti (20: 2 = 10). I binocoli prismatici in genere forniscono un ingrandimento che va da sei a 15 volte. Speciali prismi, definiti «a tetto», consentono di rendere il binocolo più piccolo e più leggero. L' ingrandimento tuttavia non è l' unico fattore importante. Conta molto anche la «luminosità » dello strumento. Questa dipende dal diametro dell' obbiettivo. Più l' obbiettivo è grande, più raccoglierà luce e darà immagini luminose e ricche di particolari. Su ogni binocolo prismatico si troverà una scritta del tipo «8x30» o «10x40» e così via. Il primo numero indica gli ingrandimenti, il secondo il diametro dell' obbiettivo espresso in millimetri. Quindi «8x30» corrisponderà a un binocolo che ingrandisce 8 volte e che ha obbiettivi dal diametro di tre centimetri. Per osservare il cielo di notte e vedere stelle deboli sarà preferibile un binocolo molto luminoso (per esempio un «7x50) mentre per guardare il panorama o osservare animali lontani di giorno andrà benissimo un «10x40». A un ingrandimento minore corrisponde un campo più ampio. Per guardare il panorama, quindi, sarà preferibile un basso ingrandimento.


LE DATE DELLA SCIENZA Stanò i neutroni Sessant' anni fa James Chadwick scopriva la particella senza carica elettrica che insieme con i protoni (carica positiva) costituisce il nucleo degli atomi
AUTORE: GABICI FRANCO
ARGOMENTI: STORIA DELLA SCIENZA
PERSONE: CHADWICK JAMES
NOMI: FERMI ENRICO, CHADWICK JAMES
LUOGHI: ITALIA
NOTE: 040

SESSANT' ANNI fa, nel 1932, avveniva la scoperta del neutrone. Ma da almeno due anni questa particella senza carica elettrica che, con i protoni, costituisce i nuclei atomici, stava dando segnali della sua esistenza. Nel 1930 Walter Bothe e il suo allievo Herbert Becker avevano allestito un esperimento per verificare se anche la disintegrazione artificiale dei nuclei avrebbe prodotto raggi gamma In effetti, bombardando del berillio con particelle alfa, riscontrarono una radiazione priva di carica che venne scambiata per raggi gamma molto energetici. Due anni dopo Irene Curie (figlia di Marie) e il marito Frederic Joliot, ripetendo gli esperimenti di Bothe e Becker, trovarono che la radiazione provocava una emissione di protoni se questa colpiva schermi ricchi di idrogeno (acqua o paraffina). Una verifica dello strano fenomeno, però, dimostrò che i presunti raggi gamma non avrebbero potuto causare emissioni di protoni perché avrebbero dovuto possedere energie inverosimilmente grandi. Circa un mese dopo James Chadwick annunciò dal suo laboratorio di Cambridge (che a quei tempi disponeva delle attrezzature migliori del mondo) che i responsabili del fenomeno non erano i raggi gamma, ma una radiazione corpuscolare formata da particelle neutre la cui massa era dello stesso ordine di grandezza di quella del protone. La nuova particella fu chiamata neutrone e Chadwick si guadagnò il premio Nobel per la fisica nel 1935. La scoperta del neutrone ebbe non solo effetti teorici (era infatti la particella che mancava all' architettura del nucleo atomico), ma anche pratici. Essendo senza carica, presentava un alto potere penetrante e fu Enrico Fermi a scoprire che i neutroni sarebbero stati i proiettili più adatti per la disintegrazione dei nuclei. E la prima fissione nucleare, ottenuta nel dicembre di cinquant' anni fa, avvenne proprio grazie ai neutroni. Curiosità: Lord Rutherford aveva sempre creduto nell' esistenza del neutrone, mentre Ettore Majorana intuì subito che gli esperimenti dei coniugi Joliot erano la riprova della realtà del neutrone. E qualche giorno prima che su «Nature» uscisse l' articolo di Chadwick, Majorana disse: «Non hanno capito niente: probabilmente si tratta di protoni di rinculo prodotti da una particella neutra pesante». Franco Gabici


IL METODO FEUERSTEIN Intelligenti si diventa dice lo psicologo (e non è mai troppo tardi)
Autore: TORTELLO MARIO

ARGOMENTI: PSICOLOGIA
NOMI: FEUERSTEIN REUVEN
LUOGHI: ITALIA
NOTE: 040

CHE cos' è l' intelligenza? Una quota fissa di abilità che l' individuo possiede fin dalla nascita e conserva immutata per tutta la durata della vita? Reuven Feuerstein scuote la testa e opta per una definizione dinamica: «E' la capacità dell' individuo di modificarsi; la capacità di utilizzare ciò che ha imparato per adattarsi alle nuove situazioni». Professore di psicologia e pedagogia all' Università Bar Ilan di Tel Aviv e al George Peabody College di Nashville (Tennessee), Feuerstein dirige oggi in Israele il Centro di ricerca Hadassah Wizo Canada. In tanti anni di ricerca (nato in Romania da genitori ebrei, nel 1944 raggiunse il futuro Stato di Israele, dove cominciò a occuparsi dei bambini scampati alla persecuzione nazista) ha messo a punto sia un nuovo strumento per la valutazione dell' intelligenza sia un metodo per superare le carenze cognitive individuate. Non gli piacciono i test che pretendono di misurare il Q. I., quoziente intellettivo ( «Non permettono di capire la natura dell' intelligenza» ). Le sue prove di valutazione si differenziano profondamente da quelle tradizionali: non misurano nozioni acquisite e abilità apprese, ma ciò che la persona è in grado di apprendere. Fa un esempio concreto. «Albert faceva parte di un gruppo di 5 fratelli mentalmente deboli. Aveva un Q. I. di 60. L' ho sottoposto alla mia valutazione e ha imparato con una rapidità straordinaria. Sono bastati 12 mesi e ho potuto iscriverlo a una scuola agricola normale. Ogni anno uno psicologo calcolava il quoziente di intelligenza; gli trovò un Q. I. di 70. Allora ho chiamato lo psicologo, gli ho dato da fare quel che doveva fare il ragazzo e non ha saputo fare tutto. Albert faceva meglio. Finita la scuola, prestato il servizio militare, ha seguito un corso da chef. Oggi, è l' assistente dello chef più noto d' Israele». Allievo di Piaget, Feuerstein ha dedicato una vita alla ricerca di strumenti per sviluppare la flessibilità mentale. Ricordate la metafora della tavoletta di cera che si plasma sotto l' influenza degli stimoli ambientali, già presente nella filosofia greca classica? Secondo lo psicologo israeliano una buona ragione per essere ottimisti sullo sviluppo delle potenzialità di tutti gli esseri umani a qualunque età sta proprio nella plasticità dell' intelligenza: come cera, essa si può sempre modificare, soprattutto grazie agli stimoli forniti dall' adulto mediatore. Dai bambini sfuggiti ai lager nazisti è passato a occuparsi dei minori culturalmente deprivati e degli handicappati; poi degli studenti universitari «che fallivano ogni volta». Infine, ha scoperto che il suo programma di «arricchimento strumentale» può essere applicato anche nel mondo dell' industria, per riconvertire il personale alle nuove tecnologie. Oggi il metodo Feuerstein è conosciuto in tutto il mondo. Lo utilizzano migliaia di insegnanti in Israele. E' stato adottato dal governo venezuelano per i piani di studio destinati ai futuri insegnanti. Sperimentazioni si sono fatte a Toronto, a Nashville, nel Bronx di New York; in Francia, Canada, Belgio. Grandi industrie come Peugeot, Pirelli, Michelin, Motorola lo usano per i corsi di aggiornamento ai propri dipendenti. E' arrivato anche in Cina. E in Italia? Per ora, si è fatto poco, almeno a livello ufficiale, nonostante le migliaia di ragazzi che ogni anno abbandonano la scuola dell' obbligo. Si è lavorato a livello di piccoli gruppi, su iniziativa di singoli docenti e formatori. Microesperienze (sono tre i centri autorizzati a operare in Italia; tutti torinesi), ma molto significative, che incominciano ad interessare la Pubblica istruzione e la grande impresa. Ora un suo libro verrà tradotto in Italia dall' editore Sansoni. «Le rivoluzioni sempre più rapide della tecnologia spiega Feuerstein durante una breve permanenza nel nostro Paese, dove ha tenuto conferenze a Torino e a Milano fanno di noi tutti dei "diversi "in senso culturale. Abbiamo che fare con persone che a quarant' anni sembrano incapaci di affrontare un cambiamento lavorativo. Il nostro metodo potrà diventare un mezzo per salvare la qualità della vita di molti adulti nell' industria e nel Terzo Mondo». Mario Tortello


STRIZZACERVELLO L' indovino
Autore: PETROZZI ALAN

ARGOMENTI: GIOCHI
LUOGHI: ITALIA
NOTE: 040

L' indovino Chiedete a un amico di scegliere segretamente tre numeri consecutivi inferiori a 60 (ad esempio 15, 16 e 17), di sommarli tra loro e di aggiungere al totale un multiplo di 3 inferiore a 100 che vi farete dire (ad esempio 24; totale = 72). Quindi fategli moltiplicare il risultato per 67 (72 x 67 = 4824) e fatevi enunciare solo le ultime due cifre della moltiplicazione (24). Ora, mentalmente, dividete il multiplo aggiunto per 3 e sommate al risultato 1 (24: 3 = 8 più 1 = 9), quindi sottraete il valore ottenuto dalle due cifre pronunciate: otterrete il primo dei tre numeri scelti (24 9 = 15) e quindi sarete in grado di rivelare correttamente la terna di partenza. Il problema che vi poniamo oggi è quello di spiegare matematicamente perché questo semplice trucchetto matematico funzioni così bene. La risposta domani, accanto alle previsioni del tempo. (a cura di Alan Petrozzi)


Nel cervello è stipato oltre un milione di pagine LA PAROLA AI LETTORI
LUOGHI: ITALIA
NOTE: 040

NON sempre l' acqua spegne il fuoco: un lettore ci spiega perché. «Vi sono materiali, ad esempio i metalli alcalini, che a contatto con l' acqua danno origine a una reazione chimica, dalla quale si libera idrogeno che, reagendo con l' ossigeno contenuto nell' aria, sviluppa nuova fiamma. In casi come questo, l' acqua semmai " accende" il fuoco. Affrontiamo ora la questione più in profondità. L' acqua impiegata per lo spegnimento del fuoco, in seguito alle elevate temperature, si converte in vapore, dando origine a un effetto di raffreddamento e di soffocamento. Il primo è necessario per portare il combustibile al di sotto della sua temperatura di infiammabilità, estinguendo così il fuoco. Nella maggior parte degli incendi, è questo l' effetto prevalente. L' effetto di soffocamento si verifica invece perché l' acqua, evaporando, aumenta il suo volume di circa 1700 volte, e così sposta aria e vapori infiammabili creando, tra combustibile e comburente, un' atmosfera inerte. Questo effetto, per verificarsi, richiede un ambiente chiuso o comunque protetto dalle correnti d' aria». (Aldo Bocciolone Valduggia, Vc) Perché i 365 giorni che costituiscono l' anno sidereo sono divisi in 12 mesi anziché in 13 tutti di 28 giorni tranne uno? Gli astronomi di Numa Pompilio, cercando di descrivere l' anno mediante semplici rapporti con le lunazioni, idearono mesi di 29 e 30 giorni che, alternandosi, uguagliavano la durata di 29 giorni e mezzo della rivoluzione sinodica lunare. Così nacquero i 12 mesi dell' anno comune di 354 giorni. Per ottenere 365 giorni di media, gli antichi romani, che adottarono questo sistema prima della riforma giuliana, fecero seguire all' anno comune un anno anormale con un mese in più di 22 giorni. (Angelo Figus Casalbergo, Pt) Che cos' è un «virus informatico» ? E' un programma, di piccole dimensioni ma molto complesso, che ha la capacità di riprodursi (di qui il nome virus) copiandosi su altri supporti magnetici o direttamente nella memoria centrale. Si diffonde attaccandosi ai normali programmi. Per verificare la sua presenza all' interno di un sistema, esistono particolari programmi di scansione in grado di riconoscerlo e rimuoverlo. (Francesco Balladore Rivoli, To) I virus informatici vengono creati da persone che conoscono molto bene il tipo di elaboratore su cui lavorano e agiscono per sfida personale o desiderio di farsi pubblicità come programmatori. Il virus può cancellare i dati da un floppy, ma non danneggiare irrimediabilmente tastiere, video o sistemi integrati vari. (Massimo Peroncelli Orbassano, To) Il virus informatico è un «file» che di solito è nascosto, cioè non appare quando si chiede l' indice del dischetto che lo contiene. Può installarsi nella memoria del computer oppure sull' hard disk. I suoi effetti nefasti si manifestano in due modi: una «pallina» che appare sullo schermo e rovina tutto il lavoro eseguito oppure la lenta cancellazione di tutti i «file» presenti sul disco infettato. Molti virus di questo secondo genere sono poco individuabili in quanto colpiscono solo in momenti prestabiliti, sfruttando la data e l' ora che nel computer sono sempre aggiornate grazie a una piccola batteria. (Claudio Francione Varallo Sesia, Vc ) Qual è il numero di informazioni che il nostro cervello è in grado di immagazzinare? Non è possibile naturalmente quantificare in maniera esatta la capacità del cervello umano di immagazzinare dati: l' unico modo per avere un' idea della capacità della memoria è riferirsi a stime basate su esperimenti. Secondo gli studi di R. A. Miller (1956), J. M. Strioud (1966) e Chase Simon (1974), la quantità di informazioni memorizzabili direttamente all' età di cinquant' anni è di dieci alla decima bit, che equivalgono a circa un milione 220. 703 pagine dattiloscritte. (Adriano Avecone Atrani, Sa) Ogni ciclista, descrivendo una curva, inclina se stesso e la bicicletta. L' angolo di inclinazione dipende dalla massa del ciclista? L' angolo di inclinazione di un ciclista in curva non dipende nè dalla sua massa nè da quella della bicicletta. Infatti il sistema ciclista bicicletta si trova sottoposto, in curva, a due forze: una orizzontale (forza centrifuga), l' altra verticale (forza peso), entrambe applicate nel baricentro del sistema ciclista bicicletta. Affinché il ciclista sia in equilibrio, la risultante di queste due forze deve passare per il punto di contatto della bicicletta con il suolo e sarà inclinata di un angolo che dipende dall' accelerazione di gravità, dalla velocità angolare e dal raggio di curvatura della strada, ma non dalla massa del sistema ciclista bicicletta. (Marco Bruzzone Sanremo, Im)


CHI SA RISPONDERE?
LUOGHI: ITALIA
NOTE: 040

& Perché le note sono sette? (Sonia Chiocchia) & Perché i capelli dalla nascita in poi si scuriscono e a una certa età diventano bianchi? (Emanuela Ferrero) & E' vero che la luce al neon è dannosa alla vista? (Dario Bricco) & Come fa il canguro femmina a ripulirsi dagli escrementi del piccolo che tiene per mesi nel marsupio? & Perché quando si è stanchi si è anche nervosi? _______ Risposte a: «La Stampa», via Marenco 32, 10126 Torino. Oppure al fax numero 011 65 68 504, indicando chiaramente «Tuttoscienze» in prima pagina




La Stampa Sommario Registrazioni Tornén Maldobrìe I3LGP Scrivi Inizio