L'Agd-Italia, coordinamento fra le Associazioni Giovani Diabetici, nato a Milano nell'aprile scorso (presidente Nino Cocconcelli), si prefigge di aiutare i bambini e i giovani affetti da diabete, informando e sensibilizzando l'opinione pubblica. Informazioni 0521/65.79.50 - 81.36.91.
ARGOMENTI: TECNOLOGIA, EDILIZIA, ARCHITETTURA
LUOGHI: ESTERO, ASIA, GIAPPONE
SI potrebbe ritenere che il modo migliore per edificare un palazzo sia partire dal pian terreno per poi salire via via verso l'alto costruendo uno sopra l'altro i livelli successivi. Ma non la pensano così i rappresentanti di una compagnia di costruzioni giapponese. Quando ricevono un incarico, gli operai della Kajima, questo il nome dell'impresa, iniziano a piazzare le tegole ed i camini, e solo in un secondo tempo, quando il tetto è oramai completato, ci costruiscono sotto l'ultimo piano, poi il penultimo e così via, fino ad arrivare al tanto agognato piano terra, con il suo bel portone d'ingresso. Eppure, al termine del lavoro, il palazzo ha l'aspetto di un edificio qualunque, è solo nella fase della sua edificazione che, a passarci vicino, si potrebbe pensare di avere le traveggole. Un complicato sistema di martinetti idraulici, controllato da un computer centrale, solleva i piani superiori via via che questi vengono costruiti, consentendo agli operai di lavorare sempre con i piedi ben piantati a terra. Niente più pericolosi ponteggi e, stando alle dichiarazioni dei rappresentanti della Kajima, circa il 30% di tempo guadagnato. Ogni martinetto può sopportare un peso di seicento tonnellate, ed il sistema può essere utilizzato per edificare palazzi fino a quindici piani. Attualmente impegnata nella costruzione di alcuni edifici nella città di Nagoya, che saranno completati entro la fine di settembre, l'impresa giapponese sta progettando un palazzo commerciale di quindici piani nel centro di Tokyo. (m.fr.)
ARGOMENTI: ELETTRONICA, INFORMATICA
LUOGHI: ITALIA
SI chiama Errata Corrige ed è un software diabolico, in grado di trasformare anche uno scolaretto della prima elementare in uno scrittore di qualche pretesa. Nato quale ausilio per la scrittura di lettere commerciali o di relazioni tecniche, da poche settimane è diponibile anche nella versione 2.0, concepita soprattutto per le scuole. Il punto di forza del programma è la correzione automatica che, oltre ad applicare al testo 15 mila regole di controllo, è anche in grado di offrire un valido aiuto per rendere più scorrevole il proprio stile. E' poi disponibile anche un modulo di statistica, di grafica molto piacevole, che calcola gli indici di leggibilità del testo (in relazione ad esigenze diverse) e che informa l'utente sul tipo di parole utilizzate e sulla loro frequenza. C'è anche un curioso (ed unico) «coniugatore» di tutti i verbi della lingua italiana (regolari, irregolari e difettivi) che può risultare strumento prezioso sia durante la stesura del testo, sia durante la fase di correzione. Altre funzioni di Errata Corrige 2.0 sono il modulo che permette all'utente di visualizzare tutte le forme possibili di utilizzo degli oltre settantamila termini contenuti nel dizionario (plurali o femminili irregolari, forme corrette delle parole composte, ecc.) e gli elenchi delle parole straniere entrate nell'uso comune (con un'analisi della corretta grafia) nonché l'elencazione delle sigle più frequenti, con relativa spiegazione. Nell'ambito scolastico Errata Corrige può essere utilizzato nei modi più svariati, compresa la classificazione degli elaborati: in altre parole il software è in grado di «dare un voto» ad ogni singolo allievo sulla base della leggibilità del suo tema. Il professore resta però insostituibile nella valutazione dei contenuti.(a. con.)
ARGOMENTI: MEDICINA E FISIOLOGIA
LUOGHI: ITALIA
PARLARE di progressi nella lotta al cancro è sempre difficile. Parlarne troppo alimenta speranze infondate in chi è disperato; parlarne poco induce l'idea che la ricerca sia impotente contro un male che, in larga misura rispetto al passato, è diventato curabile. Parlarne al momento giusto è invece importante perché tutti sentiamo che esiste una speranza concreta di debellare questo male che affonda le sue radici nei meccanismi più complessi del nostro essere biologico e non facciano mancare il loro aiuto. La lotta contro il cancro è una partita a scacchi contro un nemico interno che richiede strategie sofisticate. Per capire le ragioni del cancro bisogna prima capire il normale funzionamento delle nostre cellule e dei nostri tessuti. La strategia terapeutica che impera da molti anni è quella di combattere la crescita dei tumori bloccando la proliferazione delle sue cellule anarchiche e abnormi. Tutti sanno che questa strategia è imperfetta ché i farmaci antiproliferativi, base della chemioterapia, non fanno molte distinzioni e impediscono, per esempio, anche la normale proliferazione delle cellule del sangue e delle cellule che formano i capelli. Pertanto la ricerca di nuove strategie, di nuove mosse nella partita di scacchi, suscita nuove speranze. Il tumore al pari di tutti i tessuti ha bisogno di essere alimentato e produce esso stesso fattori che stimolano e attirano la crescita di nuovi vasi sanguigni. Si è pensato a lungo di bloccare la produzione di questi fattori ma farlo sistematicamente provoca guai nei tessuti normali che hanno bisogno di questi fattori per il loro normale funzionamento. Una recente scoperta permette tuttavia di adottare una nuova strategia di blocco della crescita dei vasi sanguigni usando l'angiostatina, una proteina che viene prodotta dalle cellule di rivestimento dei vasi stessi e normalmente ne controlla la proliferazione. L'angiostatina, per ora somministrata solo a topi portatori di tumori sperimentali, blocca la crescita dei vasi non solo nel tumore primario ma soprattutto nei gruppi di cellule maligne che da esso derivano e formano le metastasi. Queste, responsabili della crescita diffusiva del tumore e, in ultima analisi, della sua malignità, rimangono dormienti e non proliferano perché non vengono più irrorate dal sangue. Diventano così più attaccabili dai sistemi di difesa naturali fino a scomparire. Tutto sembra semplice ma in pratica non lo è affatto. E' solo una nuova mossa della partita di scacchi. Perché questa scoperta si traduca in un reale progresso terapeutico non si può inondare il paziente di angiostatina. Bisogna fare arrivare a produrre l'angiostatina dalle stesse celule maligne. Non è difficile prevedere che le nuove tecnologie molecolari disegneranno molecole-navetta adatte a portare il gene dell'angiostatina solo nelle cellule tumorali. Studiare questo richiede denaro, tempo e teste pensanti. Gli ultimi due li abbiamo; il denaro invece richiede investimenti pubblici e privati ai quali si deve provvedere con scelte politiche e generosità individuale. Pier Carlo Marchisio Dibit - Milano
Infine tre nuove guide delle Edizioni Cda, Torino, su itinerari escursionistici in Liguria, Toscana, Lombardia. Per chi in vacanza vuol camminare, imparare, stare in silenzio. (r. sc.)
Ancora un libro per conoscere le erbe, questa volta con giochi e schede, dedicato ai ragazzi (e non solo), con itinerari botanici in montagna e in città. Seguendo il vecchio detto: «Se ascolto dimentico, se osservo ricordo, se faccio capisco».
Gli autori, docenti di materie tossicologiche, ricostruiscono le vicende dei vegetali psicotropi e allucinogeni; una affascinante ricognizione storico-scientifica, dalle pozioni degli Arii, all'epenà degli Yanomami, fino alle «canne» contemporanee.
Per sfatare la vecchia leggenda di uccello del malaugurio, e informare su caratteristiche, habitat, biologia, tecniche di caccia di un magnifico predatore notturno; testo chiaro anche adatto ai non specialisti.
Testo celebre in Inghilterra, dove quasi ogni cittadino è un po' birdwatcher. Il manuale, chiaro, conciso con foto e disegni, spiega quali sono i cibi graditi dalle diverse specie, quali piante da giardino sono più adatte alla nidificazione e insegna a costruire nidi e casette per i pennuti.
GUIDA per l'identificazione di tracce, piste, segni, escrementi e borre, degli animali europei, mammiferi, uccelli, invertebrati, 300 foto e 500 disegni. Si scopre che i pipistrelli qualche volta camminano, e l'Averla maggiore infilza su un ramo le prede (magari un'arvicola) come riserva di cibo.
GLI animali confinati nelle riserve di caccia del Sud Africa sono sempre più violenti ed attaccano l'uomo e i loro simili, semplicemente per i traumi e lo stress che subiscono nelle riserve stesse. Secondo esperti della «Rhino and elephant foundation» di Johannesburg, si tratta in pratica di una «vendetta inconscia» degli animali, che reagiscono con comportamenti violenti e antisociali al business delle riserve di caccia sudafricane, che porta l'uomo a «commerciare» e riallocare continuamente in nuovi habitat animali come rinoceronti ed elefanti. Nel «Kruger National Park», ad esempio, per combattere il sovraffollamento delle specie, viene attuata una pratica di selezione, che prevede l'uccisione degli esemplari più vecchi, ed il trasferimento dei giovani - che spesso rimangono orfani - in altre lontane riserve. L'ultimo episodio di violenza compiuto ai danni dell'uomo è avvenuto la settimana scorsa, quando un giovane elefante della riserva di Pilanesburg - nella provincia sudafricana del Nord-Ovest - ha attaccato un gruppo di turisti, prima di uccidere il guardiano del parco; mentre il mese scorso, nel Botswana, un rinoceronte ha caricato e aggredito un cacciatore, uccidendolo. Si calcola poi che dallo scorso marzo, nella sola riserva di Pilanesburg, siano morti ben 19 rinoceronti, aggrediti da branchi di elefanti inferociti. Secondo i guardiani della riserva, i pachidermi impazziti - sono proprio gli elefanti gli animali più colpiti dalla «sindrome da trauma» - avevano tentato più volte anche di accoppiarsi con i rinoceronti. (AdnKronos)
ARGOMENTI: MEDICINA E FISIOLOGIA, PSICOLOGIA, BAMBINI
NOMI: SELYE HANS, FABRIS CLAUDIO
ORGANIZZAZIONI: OMS ORGANIZZAZIONE MONDIALE DELLA SANITA', AMERICAN INSTITUTE
OF
STREES
LUOGHI: ITALIA
LE ricerche sullo stress vanno vieppiù intensificandosi. E' intervenuta anche l'Organizzazione mondiale della sanità, la quale, al fine di valutare le conseguenze dello stress sulla vita, ha studiato metodi per misurare i cambiamenti della salute fisica e mentale, mirando a mettere a punto una misura di «qualità della vita». Ha inoltre dato direttive per preparare gli scolari ad affrontare lo stress, che potrebbe essere di grande aiuto per tutta la vita. Lo stress può avere ripercussioni indesiderabili sulla salute (intendiamoci, ha anche aspetti positivi) e tali conseguenze, almeno in parte, sono di natura immunitaria, dato che si osservano modificazioni dei linfociti e degli anticorpi, pur essendo per ora difficile precisare le variazioni del sistema immunitario. Naturalmente non è possibile qui entrare nei dettagli di questi studi, ai quali hanno contribuito anche italiani (E. Ottaviani, C. Franceschi, M. Farnè ecc.), ricorderemo soltanto che per esempio secondo Stress, bollettino di American Institute of Stress, osservazioni ormai decennali hanno dimostrato che lo stress può anticipare la comparsa e accelerare la crescita di diversi tumori, senza peraltro esserne la causa. Recenti ricerche di T. Langer e di W. Welch hanno messo in evidenza certe «proteine da stress», prodotte dalle cellule in risposta allo stress: non semplici molecole difensive, ma partecipanti a processi metabolici essenziali, compresi quelli che portano alla sintesi ed alla giustapposizione di tutte le altre proteine cellulari. Sembra che alcune proteine da stress orchestrino l'attività di molecole regolatrici della crescita e del differenziamento cellulare. Stress è un termine di lingua inglese significante pressione, sollecitazione, sforzo, tensione, derivante dal latino «stringere». Poche altre parole sono usate con tanta frequenza nel parlare comune; siamo tutti stressati, la vita moderna è stressante (Farnè dice che in realtà l'uomo moderno medio è esposto ogni giorno a circa 65 mila stimoli in più rispetto al suo simile d'un secolo fa). Il concetto di stress, come è noto, fu introdotto da Hans Se lye (1907-1982), un medico viennese che lavorava nell'Università di Montreal: la sua prima pubblicazione in proposito, del 1936, rappresenta una pietra miliare della medicina moderna. Bisogna pensare anche agli stress dei bambini. Molti bambini subiscono situazioni stressanti fin dalla nascita. Se ne è parlato in un recente incontro sulla «Care» del neonato, organizzato a Torino dalla cattedra universitaria di neonatologia (prof. Claudio Fabris). Ormai è stato adottato questo termine inglese, Care appunto, per indicare l'insieme di misure volte ad offrire al neonato il maggior benessere possibile sia sul piano fisico sia su quello relazionale e psichico. Interesse particolare ha il neonato prematuro. Come ha detto nella sua relazione Margherita Nicocia, uno stress eccessivamente intenso o eccessivamente prolungato può essere un fattore negativo per la stabilità e la sopravvivenza del neonato. Ed ecco anzitutto l'assistenza personalizzata, diversa dall'uno all'altro neonato e anche diversa nello stesso neonato secondo i particolari momenti dello sviluppo, il che richiede conoscenze approfondite. Un esempio: favorire il sonno raggruppando le manovre mediche e assistenziali ed eliminando le manipolazioni non indispensabili. E poi «assistenza coccolata», niente luci e rumori eccessivi. E ancora l'igiene posturale (cambiamenti periodici di posizione nelle 24 ore), l'«infant massage» (stimolazione tattile, una delle principali comunicazioni possibili col neonato), oltre naturalmente all'eventuale terapia del dolore, che il neonato sente al pari del bambino più grande. Infine la partecipazione e l'educazione dei genitori. In sostanza riduzione di qualunque tipo di sollecitazione che induca stress nel neonato. Ulrico di Aichelburg
Novità per proseguire a casa le cure alle vie respiratorie del dopo terme. Le terme di Sirmione hanno messo a punto un piccolo nebulizzatore manuale, da avvitare a flaconcini di acqua termale sulfurea salsobromoiodica pura, priva di propellenti e conservanti. L'erogatore tascabile, battezzato Syrma, è reperibile normalmente in farmacia, completo di 6 flaconcini sufficienti per 60 inalazioni.
Domani a Trieste sarà annunciata ufficialmente l'attribuzione della Medaglia Dirac - del Centro Internazionale di fisica teorica di Miramare - a Tullio Regge del Politecnico di Torino e all'olandese Martinus Vetman dell'Università del Michigan. Il riconoscimento al prof. Regge è stato assegnato «per i contributi alla fisica teorica e matematica, che hanno rappresentato strumenti-chiave nelle ricerche sulle particelle elementari, sulle interazioni forti e nella teoria delle stringhe». La «Medaglia Dirac» viene assegnata annualmente dal 1985, a fisici teorici che non abbiano ricevuto nè il premio Nobel, nè il premio della Fondazione Wolf. E' intitolata alla memoria del premio Nobel inglese Paul Adrien Maurice Dirac (1902-1984), uno dei grandi protagonisti della fisica di questo secolo, amico e sostenitore del Centro di fisica teorica di Trieste.
Nuovo capitolo nella storia delle telecomunicazioni in Italia: stanotte, dal poligono spaziale di Kourou in Guyana, verrà lanciato il razzo vettore Ariane 2, con in cima il nuovo satellite «Italstat F2», versione potenziata del precedente F1, lanciato nel gennaio '91. Progettato e realizzato da Alenia Spazio, il secondo satellite italiano per telecomunicazioni spaziali, pesa 140 chili in più del predecessore per un totale di duemila chili al lancio, ed è dotato di nuovi sistemi che permetteranno di aprire in via definitiva le telecomunicazioni mobili. Sul satellite è stato installato l'Ems (European Mobile System), un progetto dell'Esa che potrà servire 70 mila utenti sull'intero territorio europeo. Italstat F2 è in realtà il primo satellite operativo, mentre il precedente è servito per collaudare il sistema avanzato di telecomunicazioni e adesso farà da riserva in orbita. Se tutto procederà normalmente, dieci ore dopo il lancio l'F2 dispiegherà i pannelli solari quando il sistema propulsivo (di Bpd Difesa e Spazio - gruppo Fiat Avio), l'avrà collocato in orbita a 36 mila chilometri dalla Terra.
ARGOMENTI: ASTRONOMIA, BIOLOGIA
ORGANIZZAZIONI: NASA
LUOGHI: ITALIA
LA Nasa ha deciso di avviare una nuova campagna di esplorazioni su Marte, riprendendo la ricerca scientifica iniziata con la discesa sul pianeta della sonda Viking. Lo scopo principale è di ricominciare ad analizzare campioni della superficie del pianeta alla ricerca di forme di vita eventualmente fossilizzate nelle rocce, nonché di individuare risorse che potrebbero esserci utili. Anche se si scoprisse che la vita su Marte non si è mai pienamente sviluppata, quelle rocce costituiranno il miglior esempio disponibile di costituenti chimici primordiali che potrebbero aver dato luogo alla vita sulla Terra. I costituenti chimici primordiali, fondamentali per gli studi sulle origini della vita, sono andati perduti sul nostro pianeta a causa delle grandi deformazioni - conosciute come tettonica a placche - che ne hanno lentamente sconvolto gli strati più superficiali. Su Marte invece, questi grandi movimenti deformativi non si sono mai verificati permettendo quindi la conservazione della registrazione geologica di una successione di eventi più ampia. Di tutti i pianeti, Marte è quello che presenta le maggiori possibilità di aver ospitato forme di vita. La sonda Viking, lanciata dagli americani nel 1976, ha permesso di campionare le rocce e di riprendere in dettaglio la superficie marziana. Se da una parte i campioni di suolo raccolti non hanno permesso di individuare forme di vita attuali, dall'altra le fotografie di dettaglio scattate dall'alto hanno confermato che la superficie del pianeta presenta delle forme molto simili a quelle terrestri, forme indicanti che nel passato Marte avrebbe potuto essere caratterizzato da una biosfera. La scoperta della missione Viking di assenza di materia organica nei suoli marziani è effettivamente congrua con la mancanza di acqua allo stato liquido, una sostanza fondamentale per la vita. L'atmosfera di Marte ha una densità molto ridotta rispetto alla nostra, e inoltre la temperatura è molto fredda: compresa tra novanta gradi sotto zero e tredici gradi sopra zero. Questi fattori fanno sì che l'acqua sulla superficie di Marte si trovi sotto forma di vapore o ghiaccio. Inoltre, l'atmosfera sottile ricca di anidride carbonica non dà protezione alle radiazioni cosmiche, e così la superficie è bombardata da un flusso di raggi ultravioletti che sarebbe fatale agli organismi terrestri. In forte contrasto con queste caratteristiche attuali di Marte, le foto hanno presentato le testimonianze di una situazione che doveva essere sensibilmente diversa nelle ere passate. Le foto hanno infatti mostrato antichi letti di fiumi, bacini sedimentari, laghi e forme di erosione torrentizia. Tutte queste testimonianze indicano che una volta Marte doveva presentare molta acqua allo stato liquido. Le età desunte da crateri di impatto di asteroidi indicano che l'acqua liquida aveva raggiunto il massimo della distribuzione fra tre e quattro miliardi di anni fa, esattamente nel periodo durante il quale la vita terrestre nacque. Questi fatti ci pongono di fronte a una serie di affascinanti possibilità. E' possibile che la vita si sia sviluppata su Marte durante questo antico periodo della sua storia e si sia poi ridotta nella parte sotterranea del pianeta in seguito alle mutate condizioni atmosferiche? Se è esistita una biosfera, i sedimenti fluviali o lacustri di Marte potrebbero aver intrappolato della materia organica preservandola fino ai nostri giorni sotto forma di fossili? A queste domande si sta rivolgendo un vasto settore della comunità scientifica per indirizzare le metodologie di ricerca e la scelta dei siti più adatti per cercare le eventuali forme fossili di vita marziana. Bisogna inoltre rimarcare che la sonda Viking ha campionato una serie molto limitata di suoli ed in un'area molto ristretta. E' quindi ragionevole domandarsi se eventuali forme di vita siano invece da ricercarsi in altre zone. Il quesito più affascinante riguarda la possibilità che microrganismi abbiano potuto sopravvivere in qualche recondito anfratto del pianeta o in zone sotterranee. Negli ambienti sotterranei infatti, le condizioni di temperatura e pressione sono tali per cui l'acqua potrebbe essere presente nella forma liquida. E' dimostrato che sul nostro pianeta i sistemi idrotermali, cioè le acque sotterranee calde, e gli acquiferi profondi ospitano diverse associazioni di microrganismi. I sistemi idrotermali inoltre sembra che abbiano giocato un ruolo fondamentale nella nascita della vita terrestre. Le fotografie di Marte hanno mostrato una serie di forme e caratteristiche interpretabili alla luce di fenomeni idrotermali avvenuti nelle ere antiche ma anche durante la storia recente del pianeta, aprendo nuovi orizzonti alla ricerca. Alessandro Tibaldi Università di Milano
ARGOMENTI: AERONAUTICA E ASTRONAUTICA, TECNOLOGIA, ASTRONOMIA
ORGANIZZAZIONI: GALILEO, CHALLENGER
LUOGHI: ITALIA
1976-1996: la corsa per Marte riparte quest'anno, vent'anni dopo il più grande successo finora ottenuto nell'esplorazione del pianeta rosso. Il 20 luglio 1976, infatti, la sezione di discesa della sonda Viking 1 si posò indenne sulla superficie di Marte, e il 3 settembre fu la volta del «lander» di Viking 2. Le osservazioni e le prime mappe vennero effettuate già prima delle Viking, con i «Mars» russi e i «Mariner» della Nasa. Negli ultimi anni invece è andata male: nel 1988 partivano le due sonde gemelle russe «Phobos», così chiamate per il nome di una delle lune marziane che dovevano esplorare oltre allo stesso pianeta rosso. Ma dopo alcuni mesi fu perso con entrambe ogni contatto da Terra. Nel settembre '92 toccò alla «Mars Observer» americana, che però nell'agosto successivo farà la stessa fine: una fuga di propellente la fece esplodere. Dunque, al termine di quest'anno ci si riprova. Prima a partire, il 26 novembre con un razzo Proton, sarà la russa «Mars 96», poi toccherà in dicembre all'americana «Mars Pathfinder» e alla sua sonda di supporto «Mars Surveyor», che verranno entrambe lanciate con vettori Delta 2. La russa «Mars 96», cui collaborano alcune nazioni europee (Francia in testa), è formata da tre parti: la prima è un modulo che resterà in orbita marziana dotato di un carico utile di 200 chilogrammi di strumenti, il quale eseguirà osservazioni per circa un anno, mentre la seconda comprende due moduli penetratori pesanti circa 35 chili, da far ancorare nel suolo per l'invio di dati. C'è poi una terza parte, che comprende due moduli di 15 chili di peso (dei quali mezzo chilogrammo di strumenti), che servirà in particolare a ricerche di tipo spettrometrico e meteorologico. I moduli orbitante e penetrante saranno dotati di telecamere, radar, magnetometri, sismometri e strumenti per studiare l'atmosfera. Problemi finanziari impediscono di approvare una «Mars 98», per inviare su Marte un veicolo semovente di discrete dimensioni e sei ruote, capace di spostarsi per 100 chilometri sulla superficie nell'arco di due anni. Un prototipo è già stato realizzato e collaudato, e Nasa ed Esa potrebbero lanciarne uno simile entro il 2003, con una futura sonda del progetto «Mars Environmental Survey». Proprio la prima sonda di questo programma è la «Mars Pathfinder» (Apripista), che partirà il prossimo 2 dicembre. Questo veicolo non avrà una classica fase orbitale ma scenderà direttamente sul pianeta nei pressi di alcuni canali dell'Area Vallis, senza retrorazzi di frenata, e con un sistema di atterraggio semi-soffice costituito da una sorta di canotto gonfiabile, del genere airbag. Dalla sonda discenderà poi sulla superficie un piccolo robot semovente, alto 30 centimetri e lungo 70, sviluppato dal Jet Propulsion Laboratory della Nasa e dal Mit di Boston, ricoperto di celle solari. Pesante 10 chili, è dotato di sei ruote motrici che gli permetteranno anche qualche lieve arrampicata fra i crepacci. Il micro-rover funzionerà al sorgere del Sole (durante la notte si fermerà), con i dati che gli verranno inviati da Terra. Si sposterà fino a 400 metri dal modulo di atterraggio, e un sofisticato sistema laser lo aiuterà a capire quale percorso effettuare, aggirando automaticamente gli ostacoli. Antonio Lo Campo
ARGOMENTI: AERONAUTICA E ASTRONAUTICA
ORGANIZZAZIONI: GALILEO, CHALLENGER
LUOGHI: ITALIA
LA sonda «Galileo», ideata vent'anni fa per studiare Giove e i suoi satelliti, ha subito le conseguenze di una serie di imprevisti: dall'esplosione della navetta spaziale «Challenger», che ne ritardò di diversi anni il lancio, alla mancata apertura dell'antenna principale, fino ai recenti guasti del registratore di bordo. Nonostante tutto ciò, il 7 dicembre 1995, la piccola sonda sganciata dalla navicella madre (che nel frattempo si è immessa in orbita attorno a Giove, divenendo così il primo satellite artificiale di quel pianeta), si è tuffata nell'atmosfera gioviana effettuandone, durante la discesa, l'analisi chimico-fisica. I dati inviati a Terra, a causa dell'impossibilità di utilizzare l'antenna ad alto guadagno, sono per ora parziali. Occorreranno mesi perché la trasmissione sia completata. Vediamo, intanto, i risultati preliminari. La sonda, del peso di 339 chilogrammi, è entrata nell'atmosfera di Giove a una velocità di 170.000 chilometri all'ora, sopravvivendo, grazie allo scudo termico di cui era dotata, ad una temperatura, causata dall'attrito, di circa 12.000 oC e a una forza di decelerazione di 230 g (1 g = accelerazione di gravità terrestre). I dati raccolti dagli strumenti nel corso della discesa (durata 57 minuti, durante i quali ha percorso 600 chilometri, di cui 156 dal momento dell'apertura del paracadute), sono stati trasmessi alla navicella madre per essere immagazzinati dal registratore di bordo in attesa della loro trasmissione a terra. L'orbiter continuerà la sua missione per almeno altri due anni. Nell'attraversare l'atmosfera gioviana la sonda, prima di essere distrutta dall'enorme pressione e dall'elevatissima temperatura degli strati più bassi, ha rilevato venti con velocità di 360 km/ora nella parte più alta dello strato di nubi e di 540 chilometri all'ora più in basso. Prima dell'arrivo di «Galileo» alcuni esperti di atmosfere planetarie pensavano che i venti gioviani fossero alimentati dall'energia solare assorbita dalle nubi, per cui questi sarebbero stati localizzati in un sottile strato dell'alta atmosfera, mentre altri sostenevano che fossero originati dal calore proveniente dalle regioni interne del pianeta e che quindi interessassero buona parte della coltre atmosferica. Dai dati di «Galileo» sembra che quest'ultima ipotesi sia quella corretta. Si è scoperta un'intensa e nuova fascia di radiazioni a un'altezza di circa 50.000 chilometri e sono stati rilevati segnali radio provocati da lampi, che si verificherebbero con una frequenza del 10-30 per cento inferiore a quella registrata sul nostro pianeta, pur avendo le scariche elettriche un'intensità 10 volte maggiore. La composizione dell'atmosfera di Giove, determinata dallo spettrometro di massa, ha fornito i risultati più interessanti. In un primo momento, a causa di un errore nell'analisi preliminare dei dati, sembrava che l'elio contenuto negli strati più alti dell'atmosfera fosse pari al 13,7 per cento (in massa), grosso modo metà di quello presente nella nebulosa primordiale che circa 4,5 miliardi di anni fa si condensò dando luogo alla formazione del sistema solare. Su questa base si fece subito l'ipotesi che grandi quantità di elio si fossero condensate in goccioline sotto l'effetto dell'elevatissima pressione della bassa atmosfera, precipitando quindi verso le regioni centrali. Questa «pioggia», grazie alla trasformazione di energia gravitazionale in calore, avrebbe rilasciato una grande quantità di energia, riscaldando così il pianeta. E' risaputo da tempo che Giove deve possedere una sorgente interna di calore, in quanto irradia più energia di quanta ne riceva dal Sole, e si pensa che ciò sia dovuto al fatto che dopo la condensazione il pianeta non si sarebbe ancora completamente raffreddato. Il meccanismo della «pioggia di elio», secondo i calcoli preliminari che sono stati fatti, avrebbe potuto rendere conto della produzione di questo eccesso di energia. Ma dopo aver rianalizzato i dati, poche settimane fa gli scienziati del progetto Galileo hanno dichiarato che questa speculazione è prematura. La nuova stima dell'abbondanza di elio nell'atmosfera gioviana è risultata infatti del 24 per cento, un valore che è solo del 2 per cento inferiore all'abbondanza di questo elemento nel Sole. Un risultato inatteso riguarda la scarsa abbondanza di molecole organiche che, secondo studi di laboratorio, dovevano invece essere presenti. Alcuni ricercatori avevano postulato che molecole prebiotiche e addirittura forme elementari di vita potevano trovarsi nell'atmosfera di Giove, ma la molecola organica più complessa individuata dalla sonda è stata quella dell'etano. Durante il velocissimo ingresso nell'alta atmosfera gioviana l'inattesa fortissima decelerazione ha evidenziato una densità circa 100 volte più elevata di quanto ipotizzato, come pure più alte sono risultate le temperature (il valore massimo è stato di circa 270 oC). Le osservazioni telescopiche effettuate da Terra suggeriscono che il punto di entrata della sonda fosse una delle regioni meno nuvolose di tutto il pianeta, e infatti in quest'area non sono stati rilevati i previsti tre strati di nubi (il primo formato da cristalli di ammoniaca, quello intermedio da idrosolfuro di ammoniaca e infine quello più basso e più spesso costituito da cristalli di ghiaccio e vapore d'acqua). Mentre si è riscontrata qualche indicazione della presenza dei primi due, nessuno dei dati finora ricevuti denuncia l'esistenza di acqua. Si tratta di una coincidenza molto sfortunata, in quanto solo circa l'1% dell'atmosfera del pianeta presenta simili «punti caldi», per cui la probabilità avrebbe dovuto certamente preferire un impatto più tipico. Sfortunatamente il «punto caldo», che potrebbe essere una delle zone più secche del pianeta, ha iniziato a formarsi in settembre, due mesi dopo che la sonda si era distaccata dalla navicella madre e senza quindi alcuna possibilità di poterne modificare la traiettoria. Le precedenti valutazioni sull'abbondanza di acqua dell'atmosfera gioviana stimavano che questa fosse da 2 a 10 volte superiore a quella solare (misurata sulla base del contenuto di ossigeno nel Sole), mentre i dati di «Galileo» suggeriscono un contenuto praticamente uguale. I risultati finora ottenuti, imprevisti e di estremo interesse, sono solo preliminari e saranno sottoposti a una molto più approfondita analisi e valutazione. Mario Di Martino Osservatorio Astronomico di Torino
Indirizzi e informazioni dettagliate su vacanze naturalistiche, campi di lavoro, stage e viaggi ai quattro angoli della Terra, insistendo sul concetto che «la natura non ha confini».
Guida da portare nello zaino per conoscere il parco del Gran Bosco di Salbertrand, in Val di Susa e anche sussidio didattico per studenti in gita d'istruzione. Il volume va richiesto direttamente al parco: via Monginevro 7, 10050, Salbertrand (Torino). Telef. 0122/85.47.20.
Corposo ed esaustivo volume dedicato a medici, erboristi, farmacisti, strumento di consultazione per curare con decotti, tisane, tinture, estratti di olii essenziali. L'autore (1895-1993), è stato docente di Fitoterapia all'Università di Berlino e dal 1984 a quella di Tubinga.
ARGOMENTI: CHIMICA, ALIMENTAZIONE
NOMI: MAGOLSKEE ROBERT
ORGANIZZAZIONI: FACOLTA' DI MEDICINA DI NEW YORK
LUOGHI: ITALIA
LA maggior parte degli esseri umani come molti animali preferisce sin dalla nascita il gusto dolce a quello amaro. Gli animali interpretano la sensazione di amaro come un segnale non solo sgradevole ma anche come un avvertimento di cibo avariato o tossico. Nel mondo del gusto, dolce ed amaro stanno ai poli opposti. Esiste però una gamma vastissima di sostanze (molecole) che provocano nell'uomo sensazioni di gusti diversissimi tra loro. Introdotte nel cavo orale e sciolte nella saliva entrano in contatto con le papille gustative della lingua. Le papille contengono sulla loro membrana esterna degli organelli microscopici chiamati ricettori del gusto, dei veri e propri sensori analizzatori delle sostanze sciolte nella saliva... Fino a poco tempo fa si identificavano come gusti principali solo quattro, dolce, salato, acido ed amaro. Ora sono aumentati di uno con il gusto detto umami, caratteristico del glutammato, una sostanza (aminoacido) che viene spesso aggiunta ai piatti orientali allo scopo di renderli più saporiti. Prima di giungere alla corteccia cerebrale e renderci consci della natura del gusto di un cibo, lo stimolo gustativo attraversa numerose fasi piuttosto complesse che partono dalla lingua e finiscono nel cervello. Il processo prende inizio a livello degli stessi ricettori come risultato di una complessa iterazione chimica tra questi e la sostanza in causa, generando alla fine un cambiamento di potenziale elettrico. Il segnale elettrico generato dai ricettori scatena a sua volta la liberazione di milioni di molecole di cosiddetti neurotrasmettitori. Questi ultimi agiscono a loro volta sulle cellule nervose gustative. Data la grande diversità di struttura chimica delle varie sostanze generatrici di gusto non ci stupisce il fatto che molteplici siano anche i meccanismi che sono alla base del gusto. Si conosce ad esempio che vari tipi di gusto producano complesse reazioni chimiche che ultimamente risultano in cambiamenti dei livelli di una sostanza fondamentale ai processi di scambio di energia chiamata AMP ciclico. Esisterebbe però una sostanza comune ad entrambi i gusti amaro e dolce che è stata scoperta recentemente dal ricercatore Robert Magolskee della facoltà di Medicina del Mount Sinai di New York. La sostanza, una piccola proteina che viene chiamata gustoducina (portatrice del gusto) appartiene alla famiglia ben conosciuta delle proteine dette G. E' curioso il fatto che le cellule gustative contengano anche un secondo tipo di ducina detto trasducina che è connessa invece alla sensazione visiva. Le due ducine, duella del gusto e quella della vista, sono chimicamente assai affini ed agiscono in modo analogo sui ricettori localizzati rispettivamente sulla lingua e sulla retina. Onde giungere a spiegare la differenza tra gusto dolce e gusto amaro, Margolskee e collaboratori decisero di creare un animale mancante nel gene responsabile dell'espressione della gustoducina. Usando un trucco dell'ingegneria genetica chiamato knock out che elimina selettivamente un gene nell'animale essi ottennero dei topolini assolutamente privi di gustoducina. Normalmente i topolini di laboratorio non amano le bevande dal gusto amaro come ad esempio una soluzione acquosa di chinina e preferiscono il dolce. La scelta tra le due bottiglie contenenti una acqua zuccherata e la seconda una soluzione amara di chinina rappresenta quindi un facile test comportamentale. Per meglio accertarsi indipendentemente della reazione dell'animale i ricercatori registravano contemporaneamente alla stimolazione gustativa anche la scarica elettrica presente nel nervo che porta le sensazioni gustative dalla lingua al cervello, la cosiddetta corda del timpano. Come ci si poteva aspettare negli animali knock out, cioè privi di gustoducina, non esisteva più alcuna distinzione tra dolce ed amaro. Essi bevevano indifferentemente sia da una che dall'altra bottiglia in modo eguale come se non si accorgessero della differenza di gusto. Conservavano invece intatti i gusti per il salato e per l'acido. Era sorprendente che venisse soppressa nei topolini mutati anche la preferenza per il dolce così amato dai topolini normali. Uno poteva chiedersi come la medesima sostanza, cioè la gustoducina, potesse agire sia su un gusto che sull'altro. A questo punto gli scienziati basandosi su nuovi dati sperimentali hanno postulato un doppio meccanismo. Prima di tutto devono esistere separatamente dei ricettori specializzati e distinti per il dolce e l'amaro. Secondo, la gustoducina agirebbe in modo diverso sull'uno e sull'altro ricettore. Nel caso dei ricettori per il dolce essa aumenterebbe l'AMP ciclico, la potente sostanza segnale, ma nel caso dei ricettori per l'amaro lo diminuirebbe. La differenza è sostanziale perché l'effetto dell'AMP ciclico sul segnale elettrico generato dalla cellula gustativa è opposto nei due casi. In questo modo una singola molecola, la gustoducina, sarebbe responsabile per entrambi i tipi di sensazioni. Non sarebbe quindi facile modificare in modo selettivo gusto (ad esempio il dolce) usando una sostanza che blocchi l'effetto della gustoducina. Grazie a questa scoperta è attualmente possibile distinguere nella lingua le cellule gustative specializzate per i gusti dolce e amaro da quelle specializzate per i gusti salato o acido usando gli anticorpi marcati della gustoducina. Questo possibilità verrà certamente sfruttata. In conclusione possiamo dire che dolce ed amaro rappresentano due facce di una medesima sensazione che solo il nostro cervello riesce a decifrare e separare. Ezio Giacobini
ARGOMENTI: ALIMENTAZIONE, ECOLOGIA
ORGANIZZAZIONI: CENICAFE' CENTRO NACIONAL DE INVESTIGACION DE CAFE'
LUOGHI: ESTERO, AMERICA, COLOMBIA
TABELLE: D. La pianta del caffè
L'ECOLOGIA entra nella tazzina del caffè, almeno di quello colombiano. Perché i suoi chicchi, coltivati sulle pendici delle Ande, dal 1995 sono lavorati con macchinari per la pulitura a secco, che hanno ridotto il consumo di acqua da 40 a 0,7 litri per chilogrammo di prodotto finale. Un traguardo raggiunto grazie alle nuove tecniche realizzate in dodici anni di ricerche dal Centro Nacional de Investigaciones de Cafè (Cenicafè) di Chinchinà. Una tecnologia colombiana che stravolge le regole della pulitura umida (idraulica) del caffè: non ne altera però la qualità, permette un considerevole risparmio delle riserve idriche e riduce l'inquinamento dei fiumi. Quest'iniziativa è il più recente successo di un progetto integrato per una caffè-coltura ambientalmente sostenibile: il sistema tradizionale comportava un inquinamento per ogni chilo di caffè simile a quello prodotto dai rifiuti organici di un uomo in nove giorni. I residui della lavorazione - la bacca rossa, la mucillagine, la bava e la pellicola che avvolgono il chicco - vengono trasformati in concime organico grazie all'intervento di un'adeguata varietà di lombrichi rossi (Eisenia foetida) importati dalla California: il processo di trasformazione, nel quale sono integrati anche i rifiuti organici delle singole aziende agricole, dura tre mesi. La creazione di humus risolve in un sol colpo più problemi: smaltisce i residui inquinanti della lavorazione del caffè, elimina la dipendenza economica dei cafeteros locali dai concimi chimici, arricchisce i terreni e trasforma le piantagioni colombiane in colture integralmente biologiche. Anche perché nella zona cafetera della Colombia non si fa più uso di pesticidi: le invasioni di parassiti sono debellate da anni con l'introduzione di antagonisti animali e vegetali che hanno il compito di ripristinare l'equilibrio biologico nei campi. Il progetto sviluppato da Ceni cafè comprende anche la tutela del suolo. Le piantagioni sui pendii di montagna sono state canalizzate per frenare l'erosione del terreno durante le piogge torrenziali che investono periodicamente questo Paese situato a cavallo dell'Equatore. Dopo sette anni di sfruttamento le piante del caffè (Coffea arabica) vengono alternate ad altre colture (canna da zucchero, mais, frutta tropicale) o adibite a pascolo per mantenere la fertilità del suolo. E la salute dei fiumi a lato delle colture - la zona cafetera è attraversata dal Rio Magdalena - è tutelata piantando sulle rive la guaduas, una varietà di bambù che assorbe acqua durante il giorno per restituirla la notte. Nella vita di tutti i giorni, questa rivoluzione permette di sorseggiare un caffè libero da eventuali residui chimici, lasciati da fertilizzanti e fitofarmaci. E' chiaro che i cafeteros colombiani, oltre ai fini ambientali, hanno chiari obiettivi di mercato e di immagine. Il loro caffè di montagna viene esportato soprattutto negli Stati Uniti e nel Nord Europa, aree molto sensibili alle tematiche ecologiche e maniacali del consumo di cibi prodotti biologicamente. In Italia la materia prima per l'espresso è ricavata dalla tostatura di miscele di caffè di varietà Arabica e Robusta (Coffea canephora), per lo più di provenienza brasiliana e africana (Costa d'Avorio, Zaire e Camerun): solo il 15 per cento del nostro import arriva dalla Colombia. Negli Stati Uniti e in Nord Europa (la Scandinavia ha un consumo pro capite superiore di tre volte a quello italiano) - dove si beve caffè molto più lungo, di una sola varietà (le miscele sono un'invenzione italiana) e meno tostato per mantenere l'aroma originale - il caffè di montagna colombiano, costituito al 100 per cento di Arabica, è considerato il migliore: più soave nel gusto e ricco di bouquet. Al di là delle implicazioni igienico-gustative, la realizzazione del progetto del Cenicafè è un fenomeno di grande portata ambientale. La Colombia è il secondo produttore del mondo di caffè dopo il Brasile: nel 1995 ha sfornato 822 mila tonnellate di chicchi, coprendo quasi il 20 per cento del mercato globale. Le piantagioni di caffè, coltivato sulle pendici delle Ande nelle regioni occidentali del Paese, coprono 1.100.000 ettari: l'uno per cento del territorio nazionale. Diversamente da altri Paesi produttori, dove la pianta del caffè è coltivata in sterminati latifondi, in Colombia l'attività è frammentata in 350 mila fincas, aziende agricole per lo più a gestione familiare con un'estensione media di 3,6 ettari: nel complesso danno lavoro a più di un milione di persone, rappresentano il 25 per cento delle esportazioni e il 5 per cento del prodotto nazionale lordo. In un mondo sempre più attento ai risvolti ecologici, la compatibilità ambientale di coltivazione e lavorazione di un prodotto di larghissimo consumo come il caffè rischia di avvantaggiare la Colombia sul mercato internazionale. I dirigenti di Cenicafè si rendono però conto che le innovazioni non possono restare un segreto del Paese sudamericano: l'epoca dei monopoli è finita da tempo. La loro Oficina de Divulgacion Cientifica ha indetto, dal 16 al 18 ottobre 1996, un Seminario In ternacional sobre Caficultura Sostenible: per informazioni rivolgersi a Cenicafè, Chinchinà, Caldas, Colombia; tel. 0057/968/506.550, fax 504.723). Trasmetteranno agli altri Paesi produttori le tecniche di lavorazione ecocompatibili da loro realizzate: non temono la competizione, le loro fincas sono già tutte attrezzate, gli altri Paesi impiegheranno anni per adeguarsi e forse al quel punto la Colombia perderà alcune quote di mercato, ma da subito, oltre al caffè, inizierà a vendere tecnologia. Marco Moretti
ARGOMENTI: MUSICA
NOMI: BENEDETTI MICHELANGELI ARTURO, PONZI FLAVIO, CORTOT ALFRED,
RUBINSTEIN ARTHUR
ORGANIZZAZIONI: ISPIRO ISTITUTO DI RICERCA SUL PIANOFORTE ROMANTICO
LUOGHI: ITALIA
NOTE: «L'occhio numerico», «Il grembo del suono»
ADDIO, orecchio traditore. Troppo sensibile e umorale, suscettibile e infedele per potergli ancora affidare il compito di diventare il testimone di un concerto o di un disco, il termine di raffronto per decidere come e quanto un'interpretazione musicale si distingue da un'altra. La prima arma in possesso dell'appassionato come del critico, garanzia anzitutto di infinite discussioni, viene strategicamente spuntata da «L'occhio numerico», dieci pagine di un saggio pubblicato nel catalogo di Il grembo del suono, una magnifica mostra, un autentico avvenimento culturale che Brescia, la sua città, dedica (fino al 5 settembre) ad Arturo Benedetti Michelangeli ad un anno dalla scomparsa. Flavio Ponzi, responsabile dell'Ispiro (Istituto di ricerca sul pianoforte romantico) di Bologna, pone a confronto due interpretazioni distanti tra loro vent'anni - 1942 è 62 - della Berceu se di Chopin, brano prediletto da Michelangeli. Partendo dalle registrazioni disponibili in compact disc, ne crea le «corrispondenti versioni numeriche», esclude dalla propria analisi «la dimensione percettivo-acustica», quella pertinente all'orecchio, e ci guida all'interno di un labirinto di punti, diagrammi, picchi e forme d'onde. Rende oggettivo il soggettivo per eccellenza, perché nulla è più opinabile dell'arte dell'interpretazione, più sindacabile del giudizio che la riguarda. Nel '42 il tocco del pianista sembrava più flou, sfumato, lieve, morbido e cangiante come la seta? Non dovremo più ricorrere alla dovizia retorica degli aggettivi, delle metafore ardite e sempre ripetitive: il suo suono è come un arabesco, una perla, una goccia di rugiada, un filo d'oro... Ora sappiamo dai grafici che nella prima incisione lo scarto del tactus - il tempo del tocco e degli accenti rispetto al tempo medio del metronomo - è percentualmente più ampio. Il suono oscilla di più, si distende e riflette nel suo elemento, l'aria, con maggiore ampiezza e crea esattamente quella sensazione di evanescente mobilità. Più attento all'arco della melodia, il Michelangeli di ventidue anni? Certo, se la mano sinistra anticipa la destra 145 volte, per salire, vent'anni dopo, a 182. Di conseguenza, diminuiscono gli attacchi simultanei, da 153 a 116. Anche più veloce, se il metronomo medio dell'intera esecuzione scende da 109 a 94. Insomma, il ragazzo appare più «romantico» dell'adulto e ce lo dimostra un altro parametro: le 35 volte in cui ricorre all'uso del pedale, per ottenere una maggiore persistenza del suono, diventano 24 vent'anni dopo. Più sobrio, più asciutto, meno contemplativo, meno abbandonato. Fatalmente, i grafici si ritrasformano in aggettivi. L'analisi di Ponzi è in grado di rivelarci il tempo di esecuzione battuta per battuta, specificando ancor più in quali momenti si accentua la diversità, dove invece prevale una continuità con il passato. Poi, pone a confronto lo stesso brano suonato da Alfred Cortot e Arthur Rubinstein; il più frequente ricorso di Michelangeli al rubato, le sue più insistite oscillazioni rispetto al flusso del tempo, offrono a lui il primato dell'invenzione che sorprende. E quell'onda grafica che si addensa e persiste come volesse fermarsi, sfuggendo al decadimento? E' la mano destra che insiste su una nota, su un tasto, trattenendo fino all'impossibile il suo canto. Di fronte a queste simulazioni visive di un'arte sonora, assale lo sgomento, quando una propria impressione non corrisponde al responso dell'«occhio numerico» e del suo orecchio finissimo. Se invece il grafico conferma e conforta, si prova la rara sensazione - cara all'estetica romantica - di una simpatia tra la percezione del soggetto e la legge universale. La non opinabile legge della percezione elettronica, ovviamente, così generosa di nuovi orizzonti, di esiti che si possono prevedere colossali. Ogni studente di conservatorio potrà tentare di imitare esattamente il proprio idolo, avendo la possibilità di confrontare numericamente le due interpretazioni. E le giurie dei concorsi di musica potranno essere sostituite da un elaboratore elettronico. Niente più interminabili discussioni, frutto di ricordi che più si discute più si sbiadiscono. Basterà confrontare i grafici: vincerà chi si avvicina di più ad una interpretazione giudicata di riferimento. Di fronte a questo trionfo dell'informazione informatica, è proprio questa l'unica variabile ancora aperta, disponibile alla soggettività del gusto: decidere quale interpretazione preferire e perché. Magari ricorrendo al vecchio, usurato, troppo percosso arnese, l'orecchio. Non soltanto un organo percettivo, ma la postazione più avanzata del sistema psico-acustico che forma la nostra dimensione dell'ascolto, simbiosi di fisicità, abitudini, precedenti, desiderio, o sua assenza, cultura. Poi, tremando, andremo di corsa a confrontare queste nostre emozioni con l'inflessibile responso dell'«occhio numerico», il nuovo tiranno. Sandro Cappelletto
ARGOMENTI: ELETTRONICA, COMUNICAZIONI
ORGANIZZAZIONI: ARPA ADVANCED RESEARCH PROJECT AGENCY, INTERNET
LUOGHI: ITALIA
NEI primi Anni 60 la società americana vive un momento di profondo turbamento. Il successo degli Sputnik e le prime difficoltà incontrate nel contrastare la supremazia sovietica nel settore spaziale fanno temere a molti americani la perdita non soltanto della supremazia scientifica e tecnologica ma anche di quella industriale, economica e militare. Ma per gli scienziati americani sono anni felici perché fiumi di denaro arrivano finalmente ai più ambiziosi progetti di ricerca. Insieme ad altre iniziative di ricerca e sviluppo, l'Advanced Research Project Agency (Arpa), l'istituzione del Pentagono che coordina e finanzia le ricerche scientifiche con finalità militari, avvia in quel periodo il progetto di una gigantesca rete di trasmissione dati, finalizzata essenzialmente al coordinamento delle forze di terra, mare e aria. Nasce così Arpanet, la rete di Arpa che nel 1968 collega i più importanti supercalcolatori degli Stati Uniti. Arpanet piace molto ai ricercatori degli Stati Uniti e del resto del mondo, che vedono in quella rete uno strumento facile e rapido per la comunicazione dei risultati del loro lavoro. Così, giocando sul fatto che i timori dei primi Anni 60 si sono dissolti, gli accademici si impadroniscono dell'idea base di Arpanet e costituiscono il primo nucleo di Internet. Ovviamente, mentre la rete desiderata dai militari era chiusa e protetta, Internet diviene sempre più libera e aperta. Preesistevano a Internet reti di calcolatori molto diverse fra loro per tecnologia, produttore, protocolli di comunicazione. Alcune reti, ad esempio, usavano la rete telefonica e opportuni modem per collegare i vari calcolatori. In altre reti i singoli calcolatori erano collegati fra loro da linee di collegamento punto-a- punto (oggi chiamate da Telecom Cdn, come canali nume rici diretti). Altre reti di interconnessione erano state costruite appositamente ed erano pubbliche, come le reti dati a commutazione di circuito (del tipo della rete italiana Fonia Dati promessa da Marisa Bellisario, quando era presidente della Italtel), o la rete a commutazione di pacchetto (come l'italiana Itapac). I sistemi costituiti dai vari calcolatori e dalle sottoreti di comunicazione non potevano scambiarsi dati perché i protocolli di comunicazione, cioè la struttura dei pacchetti di informazione e le regole del colloquio, erano molto diversi. Inoltre ciascuno dei diversi produttori di hardware, molto geloso delle sue soluzioni tecniche, non gradiva che calcolatori di altri produttori venissero collegati alla rete. Si decise allora di operare come indicato nella figura. Alla rete in alto, qui chiamata Rete A, una delle reti preesistenti a Internet, si aggiunse un calcolatore che parlasse agli altri calcolatori della stessa rete secondo i protocolli prestabiliti per il suo funzionamento, ma che fosse collegato a un canale di comunicazione esterno. Alla rete in basso, si aggiunse un altro calcolatore, capace di scambiare dati con gli altri calcolatori della stessa Rete secondo i protocolli prestabiliti. Si collegarono poi fra di loro i due calcolatori aggiunti con un canale opportuno, generalmente una linea punto-a-punto. I due calcolatori aggiunti che fanno capo alla connessione diretta fra le due reti erano chiamati, e sono tuttora chiamati, router o instradatori. Essi non sono concettualmente o strutturalmente diversi dagli altri calcolatori; sono soltanto calcolatori specializzati nella trasmissione dati, un po' più lenti degli altri nel fare i calcoli ma più rapidi nel ricevere o trasmettere dati sui canali di interconnessione. Quando un calcolatore della Rete A vuol trasmettere un insieme di dati a un calcolatore della Rete B, trasmette quei dati al router della Rete A secondo le modalità della stessa rete. Il router della Rete A trasmette allora quei dati al router della Rete B e questo convoglia i dati ricevuti al calcolatore di destinazione utilizzando le modalità di comunicazione della Rete B. In questo modo qualunque calcolatore della Rete A può trasmettere dati a qualunque calcolatore della Rete B e viceversa. Possiamo estendere lo schema. Ad esempio, la Rete B potrebbe utilizzare un secondo router per collegarsi a una terza rete chiamata Rete C. In virtù di questo collegamento, qualunque calcolatore della Rete A potrebbe trasmettere dati a qualunque calcolatore della rete C passando attraverso la Rete B. Questa Rete B mette le proprie risorse di comunicazione a disposizione di calcolatori che appartengono a reti diverse; in cambio, altre Reti, in altre circostanze, si mettono a disposizione di comunicazioni che interessano calcolatori della Rete B. Raffaele e Rosellina Meo