TUTTOSCIENZE 22 luglio 92


ASPETTANDO BARCELLONA Donne a Olimpia Le atlete si stanno progressivamente avvicinando alle prestazioni dei maschi. Li raggiungeranno? Ma in qualche caso rimane il dubbio sul loro vero sesso
Autore: DI AICHELBURG ULRICO

ARGOMENTI: SPORT, MEDICINA E FISIOLOGIA, OLIMPIADI, DONNE
NOMI: PRESS TAMARA, SKINEGGER ERIKA
LUOGHI: ITALIA
TABELLE: G. Consumo massimo di ossigeno per disciplina sportiva
NOTE: 013

SI deve eseguire l'esame per l'accertamento del sesso nelle partecipanti alle gare femminili olimpioniche? La questione, sempre dibattuta, si è riproposta per Barcellona. Il test non si ha da fare, è inutile, inattendibile ai fini sportivi, sostengono molti. Il Comitato olimpico internazionale ribadisce al contrario la sua posizione: per alcune competizioni il test è una regola ormai consolidata dalle Olimpiadi, a partire dal lontano 1968. In un primo tempo sulle cellule prelevate con una delicata raschiatura della superficie della mucosa boccale all'interno della guancia, si ricercava la cromatina sessuale, o corpo di Barr, una masserella di materiale nucleare intensamente colorabile, presente nella maggioranza delle cellule se il soggetto è femmina. Il "sesso cromatinico" corrisponde in genere al "sesso cromosomatico", ossia alla presenza nella femmina della coppia di cromosomi XX (mentre nel maschio la coppia è XY). Il test di Barr è stato abbandonato, e a partire dal 1988 l'accertamento sulle cellule prelevate dalla bocca si fa con l'esame dei cromosomi. Senza XX l'atleta non può considerarsi donna. Tuttavia vi sono molte obiezioni: esistono femmine a tutti gli effetti, ma sterili, che hanno il cromosoma Y del maschio, e numerosi altri stati intermedi di difficile interpretazione. Sarebbe più importante, qualcuno ha aggiunto, l'analisi degli ormoni maschili: sono essi che favoriscono l'aumento della massa muscolare, della forza, delle prestazioni sportive, cosicché proprio per questo vengono utilizzati nel doping. Una conclusione dovrebbe essere formulata caso per caso, ma praticamente non è possibile. Eppure un test sarebbe importante per risolvere un'altra questione. I risultati delle gare femminili nelle prossime Olimpiadi sono molto attesi poiché alcuni ritengono che le prestazioni della donna si accingano a raggiungere quelle maschili, considerando i continui progressi, superiori ai corrispondenti progressi dell'uomo. C'è addirittura chi calcola che nel 1998 le donne correranno nello stesso tempo degli uomini la maratona, e nel 2050 le prove di velocità. Da qui l'interesse d'un accertamento scientifico: sono vere donne o non lo sono? A parte ciò, sembra che queste previsioni non tengano conto di alcuni fatti. Gli sport sono molto diversi, e quelli fondati sull'agibilità o lo scatto possono benissimo veder favorite le donne. Ma in linea generale confronti di questo genere non hanno senso. In rapporto alle differenze somatiche la donna non può misurarsi a parità di condizioni con l'uomo. Ciò dipende essenzialmente dal fatto che le funzioni organiche fondamentali, ossia la circolazione e la respirazione, non raggiungono il livello maschile. Certamente le atlete hanno caratteristiche fisiche differenti dal tipo medio femminile (come gli atleti sono differenti dal tipo medio maschile). Perciò atlete si nasce, oltre a diventarlo. In genere le campionesse d'alta classe appartengono per costituzione ai tipi diversi da quello medio del loro sesso. Sono diverse anche psicologicamente, e questo è forse il punto nel quale si può trovare la superiorità sul maschio, poiché l'aspetto psicologico è essenziale nello sport. Valga l'esempio di Jackie Joyner Kersee, doppia campionessa olimpica a Seul, considerata un "super-uomo": è priva di grandi masse muscolari (quelle che aveva invece Florence Griffith la quale correva più veloce della maggioranza degli uomini) ma attua una sua psicologia d'allenamento per reperire stimoli nuovi. Specialmente le donne sono capaci di questo. Secondo certe interpretazioni la donna che si dedica allo sport sarebbe spinta da un nucleo psicologico mascolino della sua personalità, il "complesso di Diana", significante la tendenza a rifiutare il ruolo femminile. La donna che intraprende una carriera sportiva lo farebbe per un bisogno psicologico, gareggiare negli stadi sarebbe una specie di psicoterapia. Ma tornado alle previsioni della più o meno prossima eguaglianza dei risultati fra maschi e femmine, è vero che queste ultime hanno fatto progressi molto importanti, per varie ragioni: ma anche i maschi continueranno a farne, è prevedibile, per cui il punto d'incontro sembrerebbe non dover aversi mai. E' la vecchia storia dell'incessante miglioramento di tutti i record a partire dai primi Giochi Olimpici dell'era moderna, svoltisi in Atene nel 1986. Vi sono buone ragioni per ritenere che il miglioramento prosegua. Fino a quando? E' logico supporre che non si possa andare avanti all'infinito, tuttavia vent'anni fa un famoso tecnico indicò quelli che considerava limiti insuperabili per ogni specialità atletica, e oggi quei limiti sono stati superati. Perciò ci si può veramente domandare se esistano barriere invalicabili. Certo il rendimento fisiologico non dovrebbe poter andare oltre un dato confine, e questa è un'affermazione ineccepibile al lume di ciò che conosciamo della fisiologia. Ma ecco subito un'obiezione: l'essere umano, atleta o non atleta che sia, non è immutabile nel tempo, anzi la specie umana è ancora, fra tutti i viventi nel notro pianeta, quella più ricca di residue potenzialità evolutive, cioè la più perfettibile, almeno dal punto di vista fisico. Inoltre è sempre maggiore il numero di coloro che si dedicano agli sport, quindi aumentano le probabilità che si facciano luce organismi eccezionali. I diecimila atleti che partecipano alle Olimpiadi rappresentano più di cento milioni di atleti in allenamento. E' come la famosa storia della lepre che teoricamente non riesce mai a raggiungere la tartaruga. Lo sport rappresenterebbe un'avventura umana senza fine, e fra donne e uomini ci sarà sempre una differenza nei record. Ulrico di Aichelburg


SPORT IN ESTATE Acqua e sali per la sete dei campioni Bene gli integratori, purché siano equilibrati
Autore: CALABRESE GIORGIO

ARGOMENTI: ALIMENTAZIONE, SPORT, MEDICINA E FISIOLOGIA
LUOGHI: ITALIA
TABELLE: T.G. Quantità di acqua contenuta nel corpo umano din un maschio, di una femmina e di un bambino
NOTE: 013

ORMAI non c'è sportivo che non faccia uso di integratori idrosalini: soprattutto d'estate, in quanto, a causa dell'eccessivo sforzo muscolare e del caldo, si ha una eccessiva sudorazione e una conseguente disidratazione. La comparsa della sete va sempre anticipata. Essa non è che il segnale di un rapporto squilibrato tra l'acqua e i sali minerali. Quando la si avverte, vuol dire che siamo già in ritardo, In proposito c'è un interessante lavoro del medico sportivo Sergio Migliorini, che ha approfondito il problema sia a livello fisiologico sia terapeutico. Che cosa bisogna bere? Se siamo di fronte a una lieve perdita di liquidi (pari a circa 1 chilogrammo di peso corporeo), basta bere acqua oligominerale. Se le perdite sono superiori al 2 per cento del peso corporeo, allora bisogna reintegrare non solo i liquidi ma anche gli elettroliti. La soluzione più pratica, anche se ce ne sono di più naturali, è rappresentata dagli integratori idrosalini. Se si svolge un lavoro muscolare con una temperatura molto alta, i meccanismi di termoregolazione del corpo vengono messi a dura prova. Normalmente la nostra temperatura varia da 36[ a 37,5[ C circa, grazie a un centro termoregolatore situato nel sistema nervoso centrale, e precisamente nell'ipotalamo, Quest'ultimo è composto da due parti: quella anteriore è responsabile del raffreddamento e quella posteriore del riscaldamento. I due centri entrano in funzione tutte le volte che la temperatura corporea sale o scende troppo. Il grado di sudorazione è proporzionale al peso corporeo. Ad esempio, se un uomo pesa 60 chilogrammi e pratica la corsa, la sua sudorazione è di 1,25 litri per ora. Col sudore si perdono, oltre all'acqua, anche molti altri elettroliti, fra cui il sodio (NA+), i cloruri (Cl-) e, in minor quantità, il potassio (K+) e il magnesio (Mg+). La perdita di acqua, comunque, è superiore a quella di sali, sicché più si suda e più aumenta la concentrazione di Na e Cl, diminuisce il Mg, mentre il K resta invariato. Nei climi caldi c'è un problema di acclimatazione, la cui soluzione è abbastanza complessa. Gli atleti anziani hanno, spesso, una minore capacità di svolgere attività sportiva in climi torridi, così come anche i bambini e le donne. Ciò è dovuto al maggior rapporto superficie corporea/peso. Donne e bambini sono svantaggiati per il minor contenuto di liquidi, per la minor massa muscolare e per il maggior grasso. Inoltre, a parità di ossigeno per chilogrammo di peso corporeo, hanno una temperatura e una frequenza cardiaca maggiori degli uomini. Se invece l'attività sportiva è praticata in un clima molto umido, la sudorazione è alterata e sono favorite le donne, che possono disperdere meglio il calore. Quando si perdono troppi liquidi - ad esempio se si raggiunge la percentuale del 5 per cento del peso corporeo - si ha una grave disidratazione e saltano gli equilibri della regolazione. Si instaura così una grave ipertemia, la cosiddetta "febbre da cavallo", fino a 41[ C, dovuta alla riduzione del volume del sangue, che provoca un sovraccarico di lavoro del cuore. Aumenta la frequenza cardiaca, quindi si ha tachicardia, e diminuisce la massima potenza aerobica per riduzione della gittata; si altera, a livello muscolare, anche il metabolismo degli zuccheri e si favorisce l'accumulo di acido lattico. Tutto ciò provoca una grave riduzione della potenza atletica. Più elettroliti si perdono, più si verificano i crampi muscolari. Associati a febbre altissima, provocano il "colpo di calore" i cui segni premonitori sono lo stato di confusione, il disorientamento, il blocco della sudorazione, il collasso e infine la perdita di coscienza. Ecco perché è indispensabile bere prima di gareggiare in un clima caldo e umido. E' importante che i reintegratori salini siano equilibrati. L'eccesso di sali minerali o di zucchero può causare alterazioni della mobilità gastrica, ritardo della velocità di svuotamento dello stomaco ed aggravamento della disidratazione. In genere la quota calorica di ogni confezione di reintegratori è pari a circa 25 calorie per 100 cc di prodotto. Essi sono, volutamente, bassi di zuccheri, per non provocare l'aumento eccessivo dell'insulina e la conseguente crisi ipoglicemica che avviene durante lo sforzo muscolare. Murray, del laboratorio di ricerca fisiologica "J. Stuart" di Barrington, ha seguito studi su uno di questi reintegratori, sperimentandolo su 13 persone fra i 24 e i 35 anni con un massimo di consumo di ossigeno medio pari a 45,1 ml/kg/min. Gli atleti sono stati sottoposti a un esercizio di 480 pedalate con una bicicletta ergometrica, dopo 90 minuti di esercizi intermittenti, compresi fra il 55 e il 65 per cento del massimo consumo di ossigeno. Il tempo impiegato da coloro che hanno assunto i reintegratori è molto più basso di quelli che hanno solo bevuto acqua. Per valutare l'indice di assorbimento, Davis, del Laboratorio di Biochimica dell'Università di Colombia, ha paragonato la valocità di assorbimento di tre bevande: la soluzione di glucosio al 15%, l'acqua e il reintegratore salino. E' stato utilizzato come indice di confronto l'ossido di deuterio perché esso ha proprietà fisiche e chimiche simili all'acqua. Anche in questo caso, il suo accumulo è stato significativamente minore con la soluzione al glucosio e maggiore con il reintegratore e l'acqua. Quindi, bere sì, ma bere bene, per evitare incidenti da colpo di calore e improvvisi cali di prestazione. Giorgio Calabrese


VULCANI E CLIMA Questa estate dimezzata Sotto accusa le polveri liberate dal Pinatubo nel '91
Autore: COLACINO MICHELE

ARGOMENTI: METEOROLOGIA, GEOGRAFIA E GEOFISICA
LUOGHI: ITALIA
NOTE: 014

IL vulcano Pinatubo, nelle Filippine, dopo circa un anno di quiete è tornato in attività nei giorni scorsi proprio mentre i climatologi si interrogavano circa le sue presunte responsabilità nel determinare il piovoso inizio di questa estate in conseguenza dell'eruzione di un anno fa. Puntualmente, davanti a eventi meteorologici anomali, si riaccende il dibattito sulle bizzarrie del clima e sulle ipotesi di un cambiamento dalle conseguenze non facilmente valutabili. L'attenzione è generalmente rivolta al ruolo dei gas serra e alle attività umane che li immettono nell'atmosfera. In realtà la produzione di gas con effetti sul clima è legata anche a eventi naturali come le eruzioni vulcaniche. Lo ha ampiamento sottolineato il convegno promosso nel marzo scorso alle Hawaii dell'American Geophysical Union sul tema "Clima, vulcanismo e cambiamento globale": le eruzioni esercitano una azione determinante nel regolare il clima planetario. Emettendo grandi quantità di polveri e gas, esse agiscono sia nel senso di schermare l'energia solare, sia nel senso di bloccare la radiazione emessa dalla superficie terrestre e a seconda che prevalga l'uno o l'altro effetto si può determinare un raffreddamento o un riscaldamento del pianeta. In effetti le cronache e la storia legate alle eruzioni vulcaniche indicano che l'effetto predominante è quello della riduzione di temperatura. Cito a supporto solo alcuni dei tanti episodi che si sono registrati. Rientra nella leggenda ed è, quindi, da considerare solo come un'affascinante ipotesi scientifica quella che lega il declino rapido della civiltà minoica, fiorita circa 4400 anni or sono, alle conseguenze climatiche della eruzione del vulcano Thera avvenuta circa 3700 anni fa. Ben più fondato storicamente è l'episodio connesso all'eruzione del monte Laki, avvenuta in Irlanda nel 1783, a seguito della quale i gas rilasciati coprirono con una spessa "coltre" l'Europa, tanto che il Sole ne era oscurato e le temperature estive erano più basse di quelle invernali. Testimone attento, perché interessato alla scienza, era Beniamino Franklin, allora inviato a Parigi, che a questo proposito scriveva: "Durante molti mesi del 1783, quando l'effetto della radiazione solare per riscaldare la Terra in queste regioni avrebbe dovuto essere più forte, una nebbia costante esisteva su tutta l'Europa... I raggi del Sole eranoo così indeboliti nel passare attraverso di essa che, quando venivano focalizzati da una lente, riuscivano solo a ingiallire la carta. In conseguenza il loro potere riscaldante era diminuito fortemente e la superficie della Terra rimaneva fredda". La ricostruzione eseguita attraverso varie prove e l'analisi dei primi dati di temperatura confermano a pieno il racconto di Franklin indicando che anche l'inverno 1784 risultò molto rigido. Ma l'episodio sicuramente più significativo e famoso è quello legato alla eruzione del Tambora avvenuta nell'aprile del 1815. In due giorni il vulcano indonesiano eruttò da 100 a 200 chilometri cubi di polvere, cenere e lava uccidendo in poche ore più di 10 mila persone e causando poi altri 80 mila morti per la perdita dei raccolti. La cenere vulcanica era così densa che Madura, una località a 450 chilometri di distanza, rimase nell'oscurità per oltre tre giorni. L'anno seguente vennero registrate le conseguenze sul clima: i termometri segnarono ovunque consistenti abbassamenti, che in Inghilterra superarono i 2[ C. L'effetto più spettacolare si ebbe nel corso della stagione estiva, che risultò molto più fredda della norma tanto che il 1816 fu definito appunto come l'"anno senza estate". Si può osservare che non sempre a seguito delle eruzioni vulcaniche si registrano effetti climatici notevoli: il motivo risiede nel fatto che ha rilevanza non solo la quantità totale di materiale rilasciato nella atmosfera, ma anche l'altezza raggiunta dalla colonna di polveri e la loro composizione chimica. Il primo aspetto è importante perché dalla quota si può avere un'idea di quanto materiale sia finito nella stratosfera, dove può risiedere per lungo tempo agendo, quindi, più efficacemente che se si fermasse nella troposfera. Il secondo perché alcuni tipi di aerosol sono climaticamente più attivi di altri: in particolare oltre ai gas serra, una azione molto intensa esercitano anche gli ioni solfato, che una volta raggiunta la stratosfera schermano la radiazione solare, impedendole di raggiungere i bassi strati atmosferici e la superficie del suolo dando come conseguenza un raffreddamento della temperatura dell'aria in troposfera. Per trattare quantitativamente questi effetti è stato definito dai climatologi un "dust veil index" il cui valore è funzione del numero di eruzioni e della loro intensità e che consente mediante opportuni modelli di valutare l'impatto sul clima dell'attività vulcanica. Ovviamente l'apporto maggiore è quello derivante dalle eruzioni violente che sono meno rare di quanto generalmente si pensi: basta ricordare che a partire dal 1883, quando avvenne l'esplosione del Krakatoa, si è verificata tutta una serie di eruzioni - il Santa Maria nel 1902; il Katmai nel 1912; l'Agung nel 1963; il St. Helen nel 1980 e El Chichon nel 1982 - caratterizzate dal sollevamento della colonna eruttiva fino a quote superiori ai 20 chilometri e dal rilascio di aerosol in quantità comprese tra 10 e 50 mila kilotonnellate. Ultima in ordine di tempo è stata l'eruzione del Pinatubo che, iniziata il 12 giugno 1991, si è protratta fino al 16, dando origine ad una colonna che ha raggiunto i 35 chilometri di altezza e liberato una quantità di aerosol di H2SO4 pari a circa 30 mila kilotonnellate. Gli aerosol si sono distribuiti su tutta la stratosfera: già dopo 20 giorni erano rilevati dalla stazione Lidar dell'Istituto di Fisica dell'Atmosfera a Frascati, e la loro presenza sul Polo Sud nel corso dell'ultima spedizione 1991-1992. Quale impatto sul clima? Le polveri del Pinatubo possono aver alterato l'andamento delle reazioni chimiche in stratosfera e aver causato la consistente riduzione di ozono registrata quest'anno nel nostro emisfero. Ma oltre all'effetto sulla chimica stratosferica, gli aerosol potrebbero aver modificato anche i termini del bilancio energetico del sistema Terra-atmosfera dando luogo alla variabilità meteorologica di questo inizio di stagione. Michele Colacino


L'AEREO "VIRTUALE" Un "Falcone" fatto con il computer Per progettare il nuovo executive di Dassault-Alenia gli ingegneri hanno operato anziché su un modello materiale su un "simulacro" costituito da immagini elettroniche
Autore: RAVIZZA VITTORIO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, ELETTRONICA, TECNOLOGIA
ORGANIZZAZIONI: ALENIA FALCON 2000
LUOGHI: ITALIA
TABELLE: D.
NOTE: 014

La progettazione e lo sviluppo di un nuovo aereo nella sua fase finale avvengono, normalmente, sulla base di un "simulacro" del veivolo, costruito in legno o in metallo in grandezza naturale. Serve, in particolare, per definire la posizione all'interno della fusoliera di un gran numero di componenti, dal motore ai serbatoi, dai condotti del carburante ai tiranti dei comandi di volo, dai computer all'armamento (in caso di velivoli militari). E' una fase importante della nascita del velivolo, perché serve a collocare i vari apparati e sistemi sfruttando lo spazio nel modo più razionale e perché consente di accertare che essi possano "lavorare" senza intralci e senza interferenze. Il "Falcon 2000", il nuovo aereo d'affari che la società francese Dassault ha cominciato a costruire insieme con l'Alenia (la società italiana è responsabile del 25% della "cellula", corrispondente alla parte posteriore della fusoliera, all'attacco e alle "gondole" dei motori, alla parte inferiore della deriva e degli inversori di spinta dei due motori) sarà il primo aereo al mondo a essere sviluppato e "certificato", cioè autorizzato a volare con dei passeggeri a bordo, senza che sia costruito il simulacro materiale. Tutto il lavoro di progettazione e sviluppo è stato condotto sia negli stabilimenti Dassault di Bordeaux sia in quello di Alenia a Torino, impiegando "Catia", un potente sistema interattivo di progettazione tridimensionale computerizzata sviluppato dalla stessa Dassault. "Catia" fornisce ai progettisti un "simulacro elettronico", una sorta di modello immateriale del velivolo; è su questo "aereo virtuale" che gli ingegneri progettisti hanno lavorato, richiamando sui propri terminali ogni volta che lo ritenevano necessario, sia che si trovassero a Bordeaux sia che fossero a Torino, gli stessi dati e le stesse immagini. Su queste immagini hanno fatto modifiche e spostamenti fino a definire la forma e la dimensione di ogni singolo componente e a deciderne la collocazione. Il sistema "Catia" è stato messo a punto gradualmente; dapprima lo si è impiegato per operazioni più semplici; per esempio la rimotorizzazione dei vecchi "Falcon", dove ha consentito di simulare la posizione e quindi la forma delle nuove tubazioni del carburante in modo che fosse compatibile con il resto degli equipaggiamenti già esistenti. In seguito è stato usato per il caccia "Rafale" ed è stato venduto alla Boeing che lo sta impiegando per il futuro mega-aereo passeggeri B-777. Si tratta comunque di un sistema facilmente adattabile ad altri settori. Per il "Falcon 2000" il sistema "Catia" ha consentito di concepire e visualizzare sullo schermo in tre dimensioni qualsiasi oggetto modellizzabile, dal più semplice al più complesso, di farlo muovere, di osservarlo nelle diverse prospettive, di analizzarlo, di modificarlo e infine di prepararlo per la fabbricazione su una macchina a comando numerico. In questo modo dei vari elementi dell'aereo è stata studiata la forma in rapporto alle caratteristiche desiderate e poi, una volta stabiliti dimensione, caratteristiche, resistenza è stata definita la tecnica di realizzazione. Tra gli altri vantaggi raggiunti da "Catia" vi è l'annullamento delle distanze dato che tutti coloro che lavorano al " Falcon 2000" hanno accesso agli stessi dati e alle stesse immagini in "tempo reale", come se fossero tutti intorno allo stesso modello materiale; altri vantaggi sono la maggiore precisione e un grosso guadagno di tempo. Negli stabilimenti Dessault il sistema di gestione computerizzata del progetto si collega a una crescente automazione del processo di fabbricazione. Nell'industria aeronautica, così avanzata sotto molti aspetti, il lavoro di costruzione ha conservato molti caratteri quasi artigianali, con un largo contributo di attività manuali, sia pure molto specializzate. La Dassault, però, ha recentemente introdotto macchine di rivettaggio automatico capaci di realizzare con una sola operazione tutte le fasi, dal foro alla collocazione dei rivetti, un'operazione che solitamente si fa ancora a mano e richiede molto tempo; la maggior precisione consentita dell'automazione consente, tra l'altro, di dimezzare il numero dei fori e dei rivetti necessari per assemblare i pannelli delle fusoliere. Anche l'assemblaggio delle ali del "Mirage", l'aereo da combattimento che costituisce il vanto del'industria francese, aviene ora all'interno di cellule robotizzate attrezzate con due robot che lavorano simultaneamente sulle due facce compiendo in sequenza le operazioni di foraggio, fresatura, rivettaggio e controllo. L'automazione entra anche nella fase dei collaudi nei "Mirage" i controlli pre-volo sono affidati a un robot installato al posto del pilota. Vittorio Ravizza


BALENE Achab riprende il mare Dopo Oslo anche Tokyo riaprirà la caccia?
Autore: MORETTI MARCO

ARGOMENTI: ZOOLOGIA, ANIMALI, ECOLOGIA, CACCIA, STATISTICHE
LUOGHI: ITALIA
TABELLE: T.D. Specie di balene
NOTE: 015

Il capitano Achab è salpato dal porto di Oslo all'inseguimento di Moby Dick. Ha ripreso la via del mare per cacciare i cetacei. Questa volta però non cerca la balena bianca che lo ha azzoppato, come nel romanzo di Melville. Non è una vendetta da consumare in un inseguimento attraverso i mari di mezzo mondo. E' un'operazione commerciale, per rifornire di carne le tavole dei giapponesi. All'ultima riunione dell'International Whaling Commission (Iwc), a Glasgow, la Norvegia ha deciso di riprendere la caccia alla balena per scopi mercantili. Un passo che sarà molto probabilmente seguito da Islanda e Giappone, tradizionali Paesi balenieri. In Islanda un sondaggio ha rivelato che l'85 per cento della popolazione è favorevole alla riapertura dell'attività. E il Giappone obbedì malvolentieri alla moratoria dell'Iwc che, dal 1965, vietò la caccia alla balena per motivi commerciali. La considerò una questione di orgoglio nazionale: la carne di cetaceo è un piatto tradizionale della cucina nipponica. Negli anni frugali del dopoguerra rappresentava il cibo quotidiano dei sudditi del Sol Levante insieme con un pugno di riso: la più economica fonte di proteine. L'Iwc autorizzò l'uccisione di alcuni esemplari finalizzata alla ricerca scientifica: una concessione che si rivelò immediatamente una scappatoia per camuffare l'attività dei balenieri irriducibili. L'Islanda preparò un progetto di 4 anni di " ricerca", durante i quali era prevista la cattura di 800 esemplari. Lo stesso fecero i giapponesi: per meglio studiarli ammazzarono 200 capodogli l'anno. Il progetto di ricrca del governo di Oslo è un po' più contenuto: saranno 110 i grandi cetacei uccisi nel 1992. Dalla scienza alla padella: la loro carne è andata ad alimentare i ristoranti di Tokyo, dove il suo prezzo era salito nel frattempo di 10 volte. Ma la "ricerca scientifica" permise soprattutto ai tre Paesi di non smantellare i loro impianti: oggi sono attrezzati per ricominciare la mattanza. A fianco di questo impiego scientifico-gastronomico, i giapponesi sfruttarono le loro ricerche per dimostrare l'infondatezza delle tesi dell'Onu e dell'Iwc sul pericolo d'estinzione delle diverse specie di balene. Già nel 1989 pretesero, alla riunione annuale dell'Iwc, l'esenzione della moratoria per i loro battelli che catturano lungo le coste solo i piccoli cetacei. E nel 1991 reclamarono la fine della moratoria e l'assegnazione di quote d'abbattimento. Essi conducono la loro battaglia sulla base dei dati riportati da una loro "ricerca scientifica" nei mari della regione antartica. Nel maggio 1991, una baleniera è rientrata in Giappone con 327 cetacei sacrificati alla scienza. Non fu il solo bottino della spedizione: armati di arpioni computerizzati e fucili laser, gli studenti-pescatori riuscirono a contare ben 760 mila esemplari, 30 mila in più del loro ultimo censimento. "Significa che la caccia alla balena potrà essere formalmente riaperta - annunciò il quotidiano Tokyo Shinbun -, che l'Iwc deve ricredersi e che a partire dal prossimo anno il Giappone potrà disporre di una quota di 4850 capi". Dati molto precisi e per questo molto sospetti. Secondo la Commissione scientifica dell'Iwc, " lo stato di salute" della specie è valutabile solo attraverso la biomassa formata dalle balene di grosse dimensioni. Non si capisce dunque come i giapponesi abbiamo potuto contare con precisione il numero di cetacei. Ma a Tokyo si festeggiò la notizia con un party gastronomico, a cui parteciparono politici e addetti del settore, che prevedeva cento diverse ricette a base di carne di balena: filetti e lingua marinati, spiedini, bistecche e zuppe. "Gli hindu hanno le vacche, gli occidentali le balene - affermò Kazuo Shima, viceministro all'agricoltura, pesca e foreste -. Con la differenza che gli hindu non pretendono d'imporre i loro principi agli altri". Furono i norvegesi e i danesi (a cui l'Islanda è stata assoggettata per secoli) a iniziare, nel XII secolo, la caccia ai grandi cetacei. Dalla loro gigantesca carcassa ottenevano carne, ossa e grasso impiegati per i più svariati scopi. La loro cattura, difficile e rischiosa, fu rivoluzionata nel 1868 dall'invenzione dell'arpione esplosivo. Da quel momento la pesca non ebbe più freni. La creazione, nel 1946, dell'Iwc ebbe la sola funzione di regolamentare l'attività dei balenieri: avevano già decimato tre delle ottanta specie esistenti e ridotto, dall'inizio del secolo, il numero globale dei esemplari di due terzi. Negli Anni Sessanta l'Iwc programmò l'uccisione di 60.000 capi l'anno. Nel 1970 gli oceani avevano perduto il 90 per cento delle balene e tutte le specie rischiavano l'esinzione. Nel 1972 l'Onu chiedeva la sospensione della caccia, una proposta respinta dall'Iwc fino al 1982, quando all'interno della Commissione prevalsero i Paesi protezionisti e fu dichiarata una moratoria di 10 anni a partire dal 1985. La specie più minacciata è la balena azzurra (Balaenoptera musculus), protetta dal 1965, ma ridotta a meno di tremila esemplari. E' la più imponente creatura che abbia mai popolato il Pianeta: pesa 150 tonnellate (come 30 elefanti); gli oceanografi valutano che sia presente sulla Terra da 50 milioni di anni. Un dinosauro marino in pericolo anche a causa dell'inquinamento degli oceani. Forse è ancora possibile salvarlo, insieme con gli altri giganti del mare, con l'istituzione di una riserva naturale nelle acque dell'Antartide. I giapponesi devono però mutare i loro gusti gastronomici e il capitano Achab deve deporre l'arpione e tornare nel suo fiordo. Marco Moretti


MEDITERRANEO E CARAIBI Due mari malati paralleli Greggio e alghe nemici dei bacini chiusi
Autore: CABIATI IRENE

ARGOMENTI: ECOLOGIA, INQUINAMENTO, MARE
LUOGHI: ITALIA
TABELLE: C.
NOTE: 015

Il tema era: "Mediterraneo e Caraibi: due mari in pericolo?" Se ne è parlato all'Expo di Genova in un comvegno organizzato dall'Icram (Istituto centrale per la ricerca) e dall'Ifremer (analogo centro francese). Il collegamento fra due aree marine lontane e in apparenza così diverse può sembrare azzardato, ma i problemi che le assillano sono simili. Un esempio di collaborazione viene proprio dall'azione di Icram e Ifremer nell'incidente della Haven (aprile 1991) in cui la nave ha riversato in mare migliaia di tonnellate di greggio, mentre altre migliaia sono bruciate in un incendio durato quasi 70 ore. Purtroppo non sono ancora note le reali conseguenze ecologiche del disastro: la massa catramosa, spinta dalle correnti, si è spostata verso la Francia e poi a nord della Corsica. Lo studio è ancora in atto. Di sicuro si sa che in certe zone il greggio si è depositato sul fondo, cone un enorme lenzuolo, soffocando la vita e impedendo la pesca. Così i pescatori hanno concentrato altrove le loro attività. Dall'altra parte dell'Atlantico le perdite di greggio sono molto più frequenti: il Mar dei Caraibi è un'autostrada per petroliere che vanno e vengono dal Venezuela al Messico agli Stati Uniti trasportando 12 milioni di barili al giorno. Il 45 per cento dell'inquinamento deriva dal trasporto. Ad esso si aggiungono le infiltrazioni naturali e la possibilità di incidenti. L'incidente più grave è stato l'esplosione dei pozzi di esplorazione Ixtoc-1 nel 1979, nel Golfo del Messico. Più di 400 mila tonnellate di greggio sono dilagate, colpendo particolarmente le spagge del Texas. Le conseguenze (deperimento e morte degli organismi marini, effetti sui loro sistemi enzimatici correlati, spesso, con il declino del processo produttivo) sono state già denunciate. Ultimamente la possibilità di riversamenti di greggio viene presa in maggior considerazione anche perché comincia a minacciare le attività economiche di quell'area, come il turismo e la pesca (nei tessuti di alcuni pesci è stata rilevata la presenza di idrocarburi policiclici aromatici). La minaccia viene anche dall'uso di sostanze chimiche in agricoltura, dall'erosione sul territorio dei grandi fiumi che vanno a gettarsi nel Golfo, dallo sviluppo di aree urbane costiere, dallo scarico indiscriminato di metalli pesanti e rifiuti pericolosi. Le zone costiere semichiuse, invece, sono colpite dagli scarichi domestici, che provocano "blooms" fitoplanctonici e lo sviluppo abnorme di macroalghe. Nei canali incorniciati di mangrovie a Porto Rico, per esempio, è particolarmente florido il "Microcoleus lyngbyaceus", che si sviluppa grazie alla presenza di scarichi domestici e interiora di pesci. I tappeti di alghe impediscono la fotosintesi alla sottostante vegetazione marina: il basso tenore di ossigeno e l'accumulo di solfuro nei sedimenti completano un quadro poco rassicurante. A proposito di alghe, il passo dai Caraibi al Mediterraneo, e in particolare all'Adriatico, è scontato. Il fenomeno degli affioramenti era già noto dal 1729, ma l'estensione raggiunta nell'88, nell'89 e nel '91 è rara e, per ora, ancora non ben chiarita. Come ha sottolineato l'oceanografo Michele Giani, le mucillaggini, costituite da fitoplancton (in particolare diatomee), si formano stagionalmente al largo e lungo le coste dalmate, in zone povere di nutrienti. La loro proliferazione è connessa a una serie di fattori climatici e ambientali tra cui l'arrivo di acque calde da Sud a fine inverno, aumento della temperatura a fine primavera, scarse precipitazioni e squilibri nutrizionali nel rapporto fra nutrienti azotati e fosforati. Le differenze di temperatura e di salinità a profondità diverse, unite alla scarsa miscelazione, offrirebbero condizioni ambientali favorevoli alla formazione della massa gelatinosa. Le alghe non producono soltanto effetti fastidiosi come le mucillaggini. Alcune, considerate innocue, si sono rivelate tossiche; altre, tossiche cone la "Dinophysis" o la "Caulerpa Taxifolia", sono originarie dei mari tropicali, ma si stanno diffondendo (trasportate da navi o usate per decorare gli acquari) anche in mari più freddi dove pare abbiano trovato l'ambiente giusto per svilupparsi e rafforzarsi. La Caulerpa, già assestata sulle coste francesi e ora emigrata anche su quelle liguri, cresce in maniera esuberante. Come altri organismi, produce sostanze tossiche a scopo difensivo, e potrebbe diventare pericolosa per la sopravvivenza di flora e fauna oltre che per l'uomo, entrando nella catena alimentare. Di questo processo si ha già un esempio: la " ciguatera" è una malattia da intossicazione alimentare dovuta al consumo di pesce tropicale e dà sintomi neurologici, digestivi e cardiovascolari, per fortuna non mortali. E' stato dimostrato che a provocare l'intossicazione è un dinoflagellato epifito di macroalghe che si sviluppa facilmente sui coralli morti. Le tossine prodotte vengono diffuse attraverso la catena alimentare. Non tutti i pesci che le assorbono sono tossici, ma il pericolo è in agguato. E' già stato predisposto un test per scoprire la tossina nel sangue e nelle urine e ora si sta cercando un antidoto efficace. Irene Cabiati


CROCIERA SCIENTIFICA Da Creta alle coste spagnole 6000 miglia con la "Minerva" per fare il check-up all'acqua
NOMI: COUSTEAU JACQUES
ORGANIZZAZIONI: MINERVA
LUOGHI: ITALIA
NOTE: 015

SESSANTA giorni per fare la diagnosi di un malato grave: il Mediterraneo. E' questo l'ambizioso programma della nave laboratorio "Minerva" che è partita il 5 luglio da Venezia e concluderà la traversata il 7 settembre, a Napoli. La "Minerva" seguirà le orme della "Calypso" di Jacques Cousteau, che 15 anni fa effettuò la stessa spedizione; saranno 6000 miglia con 26 soste in altrettanti porti per verificare l'inquinamento delle acque. Poi, il rilevamento - attraverso osservazioni da satellite - di plancton e l'esatta individuazione delle correnti. Infine una serie di immersioni per studiare le malattie della flora e della fauna. La prima tappa è alle isole Tremiti, con escursioni sui fondali. Il secondo appuntamento, procedendo verso Sud-Est, è nel porto albanese di Valona, poco distante da Corfù. Qui gli esperti - i ricercatori di 5 atenei italiani, dell'Enea, del Cnr e dell'associazione "Marevivo" - faranno esami sulla composizione dell'acqua. Dopo Valona, è la volta di Creta. Poi, prua verso Malta, costeggiando il centro industriale di Bengasi, e nuovamente una sosta sui fondali di Gabes. Da qui inizia la risalita verso Nord. Una breve permanenza a Trapani, poi si va a Malaga, la punta estrema spagnola, con le isole di Alboran. L'equipaggio di studiosi si fermerà inoltre a Maiorca, isole Medes, Banyultz-sur-Mer, Marsiglia, Port-Cros e Montecarlo lungo la costa francese. Per rientrare poi nel mar Ligure: Genova, Portofino, un'immersione vicino al punto in cui è avvenuto l'incidente della Haven; e ancora la scogliera di Porto Conte e la Maddalena, in Sardegna. Infine l'area tirrenica: Livorno, Montecristo, Argentario, Civitavecchia, isole Ponzane e infine Ischia. Le 26 tappe del viaggio sono state scelte sulla base di una mappa degli incidenti avvenuti negli ultimi anni; dai disastri di petroliere e di navi con sostanze tossiche alla presenza di raffinerie lungo i litorali. L'itinerario segue anche il lungo elenco delle aree di scarico, delle grandi rotte commerciali, delle zone a forte movimento turistico e delle spiagge inquinate da agenti batterici e chimici. Salvatore Russo


UN FARMACO PER L'ALZHEIMER Tha, non guarisce ma frena La terapia è stata tentata in America su mille pazienti Sintomi attenuati per un periodo di 6-12 mesi
Autore: GIACOBINI EZIO

ARGOMENTI: MEDICINA E FISIOLOGIA, RICERCA SCIENTIFICA, SANITA'
LUOGHI: ITALIA
NOTE: 016

NELLA popolazione sopra i 65 anni l'incidenza del morbo di Alzheimer, responsabile di oltre la metà di tutte le forme di demenza senile con perdita grave della memoria, è del 5 per cento. Tra i 65 e i 75 aumenta al 10; dopo questa età cresce in modo esponenziale per raggiungere il 50 per cento all'età di 90 anni. In Italia i pazienti potrebbero raggiungere i due milioni e mezzo. La malattia che "distrugge i ricordi e ci impedisce di ricordare" è di tale importanza per un Paese come il nostro, con alta frequenza di individui al di sopra degli anni pericolosi, che l'Università di Padova ha voluto ospitare, la scorsa settimana, la terza Conferenza internazionale sull'Alzheimer. Sono attualmente 82 le famiglie conosciute in tutto il mondo che portano nel cromosoma 21 il gene della forma cosiddetta famigliare autosomiale e denominante. Questo si traduce nella probabilità di contrarre la malattia nel 50% dei membri della famiglia. L'età media dell'insorgenza in questa particolare forma è attorno ai 40 anni. Sono state già descritte tre varianti dello stesso difetto ereditario attribuibili alla semplice sostituzione di un solo aminoacido nella proteina che costituisce lo stesso gene. Una mutazione rappresentata, ad esempio, dalla sostituzione dell'aminoacido valina con l'isoleucina nel codone 717 del gene è sufficiente per scatenare una valanga di successive distruzioni nel cervello del paziente che lo portano alla demenza nel giro di 15-20 anni. Con l'identificazione del gene è ora possibile offrire una diagnosi di questa forma di Alzheimer praticamente dalla nascita. Ma chi vuole vivere per i prossimi 40 anni con una condanna a probabilità 50%? Come è già successo per il morbo di Huntington, altra forma degenerativa grave del sistema nervoso, pochi sono i famigliari disposti a sentire il verdetto. Dal punto di vista terapeutico, è invece importante scoprire la malattia allo stato precoce. Il guaio è che una vera terapia non esiste ancora e che si potrebbe solo tentare in fase sperimentale qualche intervento. Nel 1987 la scoperta di un gene localizzato sul cromosoma 21 responsabile della produzione di una sostanza che si accumula nelle cellule nervose di questi malati fino a distruggerle, chiamata beta-amiloide, e la vicinanza di un altro gene presente nella forma famigliare fecero nascere la speranza di una terapia efficace. Purtroppo si scoprì in seguito che i due geni sono separati e che spesso non sono ereditati simultaneamente. Le forme di Alzheimer ereditarie (famigliari) rappresentano in effetti solo l'1-3 per cento, mentre il resto dei pazienti presenta difetti ereditari complessi che coinvolgono due o più geni o addirittura difetti genetici non ancora scoperti. Come è stato sottolinato a Padova, anche se la forma famigliare è rara, un'accelerazione e un aumento dei depositi di beta-amiloide nel cervello potrebbe costituire un fatto determinante nello sviluppo della stessa malattia. La mancanza di una diagnosi sicura e precoce costituisce l'ostacolo maggiore a una terapia efficace. Malgrado l'affinarsi di tecniche come la tomografia a emissione di positroni permette di vedere notevoli cambiamenti nel consumo di ossigeno e di glucosio (il principale combustibile del cervello) in certe aree dei lobi parietali e temporali dei pazienti Alzheimer, tali dati non sono ottenuti precocemente. Una delle terapie tentate recentemente cerca di correggere uno dei danni maggiori della malattia, cioè la distruzione specifica di determinati tipi di cellule nervose. Si parla qui non di terapia causale (in quanto neppure a Padova sono state rilevate le cause della malattia) ma solo sostitutoria e palliativa. I risultati di una terapia tentata recentemente negli Stati Uniti e in Inghilterra su circa mille pazienti porta per la prima volta a una speranza reale. Si tratta dell'uso di un farmaco non nuovo, chiamato Tha o tacrina. Gli ultimi studi dimostrano che può influire sul decorso della malattia, rallentandone e attenuandone i sintomi per un periodo di 6-12 mesi. Apparentemente si tratta di un risultato modesto dal punto di vista clinico ma non tale dal punto di vista sperimentale e socio-economico. Ritardare il ricovero dei pazienti di Alzheimer negli Stati Uniti solamente di 12 mesi rappresenta già un risparmio di circa due miliardi di dollari. Ovviamente il prossimo traguardo è quello di ridurre i sintomi per un periodo di 3-5 anni, come si è ottenuto nel morbo di Parkinson. La strada è adesso aperta. Quali sono le cause dell'Alzheimer? Anche a Padova, come nei precedenti congressi, oltre ai fattori ereditari si è discusso di cause ambientali di tipo tossico. L'alluminio ritorna regolarmente sulla tribuna come accusato. Ricercatori di Toronto sostengono di aver avuto dati positivi da un trattamento diretto a captare l'alluminio cerebrale durante un periodo di due anni. Ma gli scettici sono molti. In quanto alla teoria virale, non esistono dati per implicare un colpevole. Un nuovo trattamento presentato da un gruppo di Stoccolma usando il fattore nervoso di accrescimento (purtroppo su un solo paziente) ha destato molto interesse. Dopo una serie di tentativi nella scimmia, tale intervento sarà ripetuto tra breve anche negli Stati Uniti. Fattori metabolici e neuroendocrini sono stati ampiamente discussi senza arrivare a conclusioni convincenti. La mancanza della conoscenza di una causa sicura o almeno probabile ha scatenato una serie di interventi terapeutici e farmacologici, molti anche di dubbia efficacia. Non esiste praticamente industria farmaceutica che non investa nella ricerca di una terapia per l'Alzheimer o per i disturbi della memoria. Guardando avanti, vediamo ancora molti anni di studi e il moltiplicarsi di terapie poco o affatto efficaci. Positiva è la speranza di avere entro 3-5 anni non la cura definitiva ma farmaci per rallentare l'accumulo dell'amiloide nel cervello, diminuendone i danni, e altre terapie per determinate categorie di cellule nervose, come fanno sperare i primi successi con la tacrina. Ezio Giacobini Università del Sud Illinois


LEISHMANIOSI L'insidia dei pappataci Trasmettono la pericolosa infezione
Autore: ANSALDO LUCA

ARGOMENTI: MEDICINA E FISIOLOGIA, SANITA'
LUOGHI: ITALIA
NOTE: 016. Flebotomo

SI chiama flebotomo il piccolo moscerino che ha allarmato nei giorni scorsi l'istituto Superiore di Sanità. Il dittero, confuso spesso con la zanzara e denominato volgarmente pappatacio, funge da vettore di una grave malattia, la leishmaniosi. Il responsabile del morbo è un protozoo, la Leishmania infantum, che vive come parassita nel tubo digerente del flebotomo. Le femmine del dittero si nutrono di sangue e possono trasmettere la malattia all'uomo, ai roditori, ai canidi e ad altri mammiferi perché il protozoo si colloca nella faringe del pappatacio, dove forma un tappo che viene iniettato al momento della puntura per permettere al sangue di essere ingerito. Le cronache di questi ultimi giorni testimoniano come la Leishmania infantum, presente nel bacino del Meditterraneo, non risparmi neanche l'Italia. I focolai sono diffusi in buona parte della Penisola, dalla Liguria alla Sicilia. Quest'ultima risulta la regione più colpita, con trenta casi l'anno. Un'altra zona calda è la Campania, dove in dieci mesi si sono verificati diciassette casi, di cui due mortali. Il flebotomo (Phlebotomus papatasi), comune nelle nostre regioni nei mesi più caldi, ha l'aspetto di una zanzara ricoperta da una folta peluria. La sua puntura produce un dolore seguito da un intenso prurito. I protozoi così inoculati nella cute dei vertebrati vengono fagocitati dai macrofagi, gli spazzini deputati alla demolizione delle sostanze estranee penetrate in un organismo, e da altre cellule del sistema reticolo-endoteliale. Qui le leishmanie si moltiplicano, distruggono la cellula ospite, e invadono nuove cellule. Questo meccanismo può portare in alcuni casi alla devastazione del sistema reticoloendoteliale e alla morte. Questa forma di leishmaniosi viscerale porta nell'uomo un ingrossamento del fegato e della milza, febbre alta irregolare, deperimento e una forte diminuzione del numero di globuli rossi, piastrine e globuli bianchi. Le forme conclamate sono comunque piuttosto sporadiche e portano alla morte nel 75 per cento dei casi non curati. L'infezione può essere debellata con farmaci a base di antimonio. Fondamentale è però il riconoscimento dei sintomi per una diagnosi tempestiva. La caratteristica più preoccupante della leishmaniosi è di essere una zoonosi, cioè un morbo trasmissibile dagli animali all'uomo. Oltre ai roditori, un importante serbatoio dell'infezione è il cane, in quanto concentra a livello cutaneo un numero notevole di protozoi facilmente raggiungibili dalla puntura dei pappataci. Il flebotomo funge quindi da vettore e il cane da ricettacolo della malattia. Nel cane l'infezione conclamata porta, oltre ai sintomi presenti nell'uomo, ulcerazioni cutanee localizzate soprattutto su narici e protuberanze ossee, versamento di sangue dal naso, forfora di color amianto, lesioni oculari, ipertrofia delle unghie ed ingrossamento delle ghiandole. Anche nel cane la malattia conclamata si verifica in modo sporadico ma costituisce la punta visibile di un iceberg fra le forme asintomatiche ben più diffuse. Essenziale è dunque il ruolo del veterinario, che riconoscendo la malattia può spezzare il ciclo biologico della Leishmania prima che arrivi all'uomo. Nei casi in cui nel cane la terapia non dia risultati è consigliabile la soppressione o l'allontanamento dei soggetti in zone dove non esistono flebotomi. Vista la reale difficoltà di lotta agli insetti vettori, gli epidemiologici puntano sui programmi di profilassi. Luca Ansaldo


ANTISOLARI I filtri di ultima generazione Cationici, ma con qualche modifica
Autore: FOCHI GIANNI

ARGOMENTI: CHIMICA, MEDICINA E FISIOLOGIA
LUOGHI: ITALIA
NOTE: 016

DOPO mesi di nuvole e piogge potremo finalmente goderci l'abbraccio del sole? Ce lo auguriamo. Non dimentichiamo però che ci vuole prudenza, almeno all'inizio: esporsi ai raggi solari pochi minuti il primo giorno, un po' di più il secondo e così via, è una regola ottima e notissima. Non sempre, però, si può o si vuole applicarla scrupolosamente; e poi c'e chi ha la pelle molto sensibile. I prodotti antisolari (impropriamente detti abbronzanti) nascono proprio per questo. Sono preparati che contengono composti chimici nelle cui molecole esiste un sistema di legami doppi alternati a legami semplici (noi chimici li chiamiamo "coniugati"). Gli elettroni che costituiscono questi legami doppi, proprio grazie a tale alternanza, si trovano ad avere a disposizione un livello energetico vuoto non molto più alto di quello che essi occupano in condizioni "di riposo", cioè, come si dice con più proprietà, quando si trovano nello stato fondamentale. Possono quindi essere eccitati, cioè spostati nel suddetto livello vuoto, dai raggi ultravioletti d'energia media (UV-B) o addirittura bassa (UV-A), a seconda della particolare struttura delle molecole cui appartengono: più numerosi sono i legami doppi alternati, minore è l'energia necessaria. Quando ritornano allo stato fondamentale, gli elettroni non fanno un salto unico, ma seguono un cammino con tappe intermedie. A ogni passaggio corrisponde così un'energia nettamente inferiore a quella occorsa per l'eccitazione, energia che perciò verrà emessa sotto forma d'una radiazione non ultravioletta come quella prima assorbita, ma visibile o addirittura infrarossa. Sicché il sistema di legami doppi alternati agisce da filtro nei confronti dei raggi UV-A o UV-B. Tra i composti antisolari ammessi dalla legge 713 del 1986, i più usati derivano dagli acidi 4-amminobenzoico, salicilico e 4-metossicinnamico, dal benzofenone e dalla benzilidencanfora per gli UV-B; dal dibenzoilmetano per gli UV-A. L'efficacia di questi composti, espressa di solito come fattore di protezione, è collegata non solo alla loro struttura, ma anche al tempo di permanenza sulla pelle. Se vengono assorbiti troppo in fretta o se l'acqua li scioglie durante il bagno, l'effetto finisce. I produttori cercano di rimediare con additivi opportuni che li trattengano dove servono, ma la soluzione migliore sarebbe renderli più capaci d'aderire alla cheratina dell'epidermide. Fra l'altro, ridurne l'assorbimento cutaneo sarebbe vantaggioso anche perché limiterebbe l'introduzione di sostanze che, per quanto clinicamente controllate, sono pur sempre estranee all'organismo. A questo problema si è dedicata, fra gli altri, Cecilia Anselmi, dell'università di Siena, che ha riassunto i risultati delle sue ricerche in un articolo uscito su uno degli ultimi numeri della rivista ChemTech. La cheratina è una sostanza proteica con molti gruppi anionici, cioè dotati di carica elettrica negativa. Questa proprietà può essere sfruttata da un filtro solare contenente un gruppo cationico, cioè carico positivamente, il quale si fisserebbe con una certa stabilità sulla pelle grazie all'attrazione fra cariche di segno opposto. Sono stati brevettati numerosi composti chimici che s'ispirano a questo criterio. Si tratta tuttavia di sostanze simili a certi disinfettanti oggi largamente in uso; al pari di quelli, molte di esse contengono gruppi ammonici quaternari (R4N+). Ciò sconsiglia l'impiego prolungato degli antisolari cationici: le cellule della pelle verrebbero aggredite come succede ai batteri. In poche parole, la pelle si irriterebbe. Il merito della ricercatrice toscana è quello d'avere individuato, attraverso numerosi tentativi, i criteri per produrre fltri antisolari cationici privi di ques'effetto sgradito. Procedendo per modifiche successive, l'Anselmi ha potuto dimostrare che un filtro efficace contro gli UV-A e nello stesso tempo innocuo per la pelle potrebbe essere un derivato del pirrolinone: esso aderisce alla cheratina tre volte meglio dei più importanti prodotti ora in uso, e non provoca irritazioni. Quanto agli UV-B, si presta bene un particolare composto appartenente a una classe già sfruttata, quella dei derivati del benzofenone: grazie anche a un gruppo - OH su uno dei due anelli esagonali, l'introduzione d'un gruppo ammonico quaternario con una catena di dodici atomi di carbonio porta il vantaggio cercato e non l'azione irritante. Gianni Fochi Scuola Normale di Pisa




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio