Noi e voi, dialogo lettori e missionari


Una nuova Tac per Ikonda

Caspita, 316mila euro non sono noccioline. Anche se, per chi sfreccia con i bolidi di «Formula uno», o chi batte e ribatte le palline gialle da tennis, o chi rincorre il variopinto pallone da calcio, 316mila euro sono quasi quisquilie. Ma quisquilie non sono né noccioline per il Consolata hospital Ikonda in Tanzania.

L’ospedale conta 404 posti letto, sei sale operatorie e cura le principali patologie con la presenza di 349 persone: medici, farmacisti, infermieri, tecnici di laboratorio, addetti alle pulizie, ecc. Gli ammalati provengono soprattutto da Morogoro, Iringa, Njombe, Songea, Mbeya, Rukwa, Katavi, ma qualcuno viene anche da più lontano, persino dall’isola di Zanzibar. I bambini del distretto di Makete fino ai 10 anni vengono curati gratuitamente, mentre i pazienti Hiv ricevono alcune prestazioni gratuite, così come le partorienti del distretto.

Il centro sanitario è dei Missionari della Consolata. Fu costruito nel 1962, e successivamente ampliato. Venne inaugurato ufficialmente un anno dopo l’indipendenza del Tanzania con Julius Nyerere presidente, il quale affermava: «I nemici del nostro paese sono la povertà, l’ignoranza e la malattia».

Il Consolata hospital Ikonda affrontò subito «il nemico» malattia.

L’ospedale sorge fra le montagne dell’Ukinga a 2.050 metri di altitudine. Dista circa 800 chilometri da Dar Es Salaam, la capitale del Tanzania. Fino a tre anni fa, gli ultimi 90 chilometri da Njombe a Ikonda erano in terra battuta, una salita scivolosa durante le piogge, rasente precipizi. Oggi da Mbeya giunge ogni giorno un autobus stracolmo di ammalati: affronta nebbie fitte, pantani traditori, pietre massacranti, buche da sprofondare. Il tutto per 7-8 ore, se non capitano guasti meccanici.

Quante volte i missionari della Consolata si sono detti: «Ah, se avessimo costruito l’ospedale altrove, i pazienti l’avrebbero raggiunto più facilmente, e la gestione sarebbe stata più economica». Già. Ma non sarebbe stato l’ospedale dei poveri di Ikonda e dintorni, sferzati dal vento e dal freddo, tagliati fuori dal mondo. È vero, tuttavia, che la lontananza da insediamenti urbani rende più costosa la conduzione della struttura. Alcuni medici e tecnici di laboratorio, dopo aver acquisito una buona esperienza, abbadonano Ikonda; sono attratti da una vita più agiata altrove. L’ospedale cerca di fronteggiare l’esodo con stipendi migliori, mentre investe sulla specializzazione di medici locali in radiologia, medicina interna e medicina d’urgenza. Così è nata pure l’Unità di emergenza.

Un aiuto significativo è la presenza di medici stranieri: italiani, soprattutto, ma anche spagnoli e di altre nazionalità. Sono volontari che si pagano persino il viaggio. Frequentano Ikonda nonostante due «tristezze». La prima tristezza è la povertà di molte persone che non hanno denari per una degenza in ospedale. Seconda tristezza: non raramente i pazienti arrivano «fuori tempo massimo», quando non c’è più nulla da fare.

Ma proprio per tali tristezze i medici volontari ritornano, perché hanno il Tanzania nel cuore. «Tanzania nel Cuore» è anche un’associazione di medici italiani, animati da solidarietà e generosità.

La strumentazione del Consolata hospital Ikonda è apprezzabile. Da anni opera la Risonanza magnetica, mentre dal 2014 è in funzione la Tac, benemerita ma oggi obsoleta. Non si trovano più i pezzi di ricambio. Di qui l’urgenza di un nuovo impianto.

Ed eccola la nuova Tac, fiammante e moderna. L’inaugurazione è avvenuta il 20 settembre 2024 con la presenza dei missionari della Consolata, del direttivo dell’ospedale, del dottor Gian Paolo Zara (di «Tanzania nel Cuore») e del Nunzio apostolico, l’arcivescovo Angelo Accattino (foto qui sotto).

La presenza del Nunzio non è stata una formalità, bensì la testimonianza che i 316mila euro, per acquistare la Tac sono un dono della Conferenza episcopale italiana: euro raccolti attraverso l’8 per mille degli italiani. Ebbene, manciate e manciate di «noccioline» di tante persone, divenute «un ricco raccolto». Perché l’unione fa la forza.

Dante Alighieri direbbe: «Poca favilla gran fiamma seconda». E Gesù: «Il minuscolo granello di senapa diventa un albero imponente».

Grazie, vescovi e amici italiani, della vostra straordinaria generosità.

padre Francesco Bernardi,
Torino 27/09/2024


A proposito di IA

Ho letto con interesse l’articolo di Chiara Giovetti sull’intelligenza artificiale (IA) pubblicato nel numero di ottobre 2024.

Vi sono molte considerazioni importanti, tra le quali in particolare ho colto la domanda se l’intelligenza artificiale ci aiuterà a trovare soluzioni o se sarà parte dei problemi che si vogliono affrontare.

Resta per me, comunque, un argomento di fondo, non affrontato nell’articolo, il fatto che la cosiddetta «intelligenza» artificiale non è in effetti «intelligenza», ma una serie di algoritmi e istruzioni date alle macchine per conferire loro capacità di analizzare enormi quantità di dati per elaborare documenti (testi, tabelle, progetti, immagini e altro) in tempi brevissimi, a partire da questi dati e da domande poste dagli utenti in modo discorsivo. E fin qui mi è chiaro e l’ho provato anche personalmente.

Ma per far sì che le macchine facciano queste elaborazioni è necessario che abbiano a disposizione i dati necessari.

Mi sono soffermato quindi sulla lista ricavata dall’Unione internazionale delle telecomunicazioni, che include servizi di telemedicina, ottimizzazione dell’uso dell’acqua in agricoltura, riduzione della corruzione negli appalti pubblici, miglioramento della salute e del benessere degli animali in allevamenti, prevenzione di incendi e altro.

Per nessuno di questi esempi nell’articolo si spiega «come» possano essere ottenuti questi risultati.

Riesco da una parte ad immaginare come l’intelligenza artificiale possa essere d’aiuto ad esempio nel caso specifico della telemedicina, dove l’analisi di enormi quantità di cartelle cliniche e/o immagini radiologiche raccolte per tanti anni in tanti archivi medici del mondo certamente può dare informazioni importanti e in tempo immediato e, laddove una ricerca senza intelligenza artificiale richiederebbe tempi lunghi incompatibili con le esigenze di intervento sanitario.

Ma in nessuno degli altri casi portati ad esempio mi pare che si possa fare a meno di dati rilevati in tempo reale, con strumenti anche tecnologicamente avanzati e anche collegati direttamente alle macchine di «intelligenza» artificiale che li possano elaborare, e non a partire da dati storici, per quanto ampi e dettaglianti possano essere.

Tantomeno in casi che riguardano comportamenti umani, come l’esempio della corruzione in appalti pubblici.

Non sono un addetto ai lavori, quindi queste mie osservazioni possono forse essere inadeguate o addirittura fuori luogo.

Ma avendo letto questo articolo in una rivista come Missioni Consolata, che si rivolge a un pubblico come me non preparato su questi argomenti, mi sarei aspettato qualche spiegazione su «come» possa funzionare l’intelligenza artificiale, per non lasciare l’impressione che sia soltanto un business nelle mani di pochi soggetti che sostengono di migliorare il mondo, ma senza far capire come e con quale attendibilità intendano farlo.

Sarei quindi molto grato se fosse possibile avere qualche spiegazione in merito.

Resto in attesa e ringrazio.

Filippo Pongiglione
03/10/2024

 

Le domande del lettore sono molto interessanti, ma se non ho approfondito i punti che lui fa presenti è solo per mancanza di spazio.

In realtà, non ho fornito più informazioni su che cos’è l’intelligenza artificiale perché sul numero precedente della rivista c’era a pagina 11 un box di Paolo Moiola dal titolo: «IA, di che cosa parliamo». Includere un rimando a quello sarebbe stato in effetti una buona idea.

Quanto ai casi d’uso dell’Unione internazionale delle telecomunicazioni@, fornisco la traduzione e sintesi di alcuni passaggi del rapporto che possono aiutare a capire meglio.

Sul benessere degli animali negli allevamenti in Rwanda.
Posizionando strategicamente negli allevamenti dei sensori per monitorare parametri ambientali chiave come temperatura, umidità e livelli di gas di ammoniaca, oltre a catturare i suoni dei polli, gli allevatori possono adottare misure basate sulle previsioni ricavate dai dati per proteggere la salute e il benessere degli animali, facilitando inoltre il rilevamento precoce di potenziali problemi.

Sulla lotta alla corruzione in Tanzania. Le soluzioni attuali, basate principalmente sui tradizionali meccanismi legali e di audit, faticano a far fronte alla portata e alla complessità delle pratiche corrotte. Il sistema di IA proposto […] dovrebbe elaborare i dati sugli appalti, inclusi documenti di gara, valutazioni e casi di corruzione, per rilevare irregolarità e assegnare una percentuale di probabilità di corruzione […]. Offrire uno strumento anticipatorio consente al Prevention and combating of corruption bureau (Pccb) di adottare misure preventive contro le attività corrotte, migliorando così la trasparenza e garantendo la conformità durante tutto il ciclo di vita degli appalti. […] I vantaggi di questo approccio riguardano il potenziale per il rilevamento della corruzione in tempo reale, l’analisi automatizzata dei documenti e una migliore allocazione delle risorse investigative. Gli svantaggi riguardano invece la difficoltà nella raccolta dati iniziale, possibili pregiudizi nei modelli di intelligenza artificiale e la necessità di competenze tecniche continue e aggiornate.

Sulla prevenzione degli incendi in Malaysia. Il Fire weather index (Fwi), o Indice meteorologico di pericolo d’incendio, è utilizzato in tutto il mondo per stimare il pericolo di incendi@. Nel caso d’uso della Malaysia, invece di usare i dati su temperatura e piogge, come fa il modello esistente, si stima il Fwi – in particolare uno dei sotto indici che lo compongono, il drought code (Dc, indice di siccità) – usando i dati raccolti da strumenti dell’«Internet delle cose» (come sensori, stazioni meteo) su un altro parametro, il livello delle acque sotterranee (Ground water level, Gwl), per poi elaborare i dati attraverso l’apprendimento automatico (machine learning, cioè quella branca dell’intelligenza artificiale in cui – con tutte le virgolette che abbiamo a disposizione – le macchine imparano dalla loro stessa esperienza). Il risultato mostra una correlazione molto alta con i dati osservati dal sistema meteorologico nazionale, rivelandosi quindi piuttosto accurato.

Lieta, comunque, di ricevere domande così circostanziate e stimolanti, che danno anche a me una bella occasione per approfondire ancora.

Chiara Giovetti
07/10/2024


Pdre Fernando Paladini a Pawa, Isiro, allora Zaire, gennaio 1983 (Gigi Anataloni)

Ad-dio, padre Fernando Paladini

Non dimenticate mai
di salutare bene le persone.
Non fatevi travolgere dal tempo che inghiotte ogni relazione.
Ho lasciato che succedesse a me,
e non dovrà capitare più.

Io e padre Fernando Paladini ci conoscevamo da 34 anni: avevo 14 anni ed è stato il primo dei tanti missionari che ho incontrato nella mia vita. Quello che ha acceso il fuoco della missione nel cuore di una ragazza che cercava un senso per la sua vita.

Ci siamo scritti a lungo quando era in Congo, quando ancora non c’erano i cellulari o whatsapp e si usavano la carta e la penna. Ogni sua lettera era una festa per me: odorava di Africa, aveva l’ennesimo francobollo per la collezione del mio caro papà. Poi, è rientrato in Italia. E io intanto crescevo e mi alimentavo di sogni e di amore per l’umanità. Persone speciali come lui hanno contribuito a farmi diventare quella che sono, mi hanno dato le ali per volare al di sopra di tutto ciò che, di fronte alla povertà e alla passione, diventava sempre più piccolo. Grazie a lui e a chi credeva fortemente in Dio e nei grandi ideali, ho trovato sempre più la mia strada, dove non sono mai stata sola.

Padre Fernando mi chiamava ogni anno il 10 dicembre, per farmi gli auguri per l’onomastico. Non si ricordava quasi nessuno della Madonna di Loreto, ma la sua telefonata arrivava puntuale e fedele come un regalo, con benedizione finale e il classico saluto («Arrivederci ad ogni Eucarestia»).

Quest’anno non mi chiamerà neanche lui. Se ne è andato senza che io lo sapessi. Avrei dovuto essere più presente anch’io.

E invece ho lasciato che gli impegni, le corse, gli affanni quotidiani decidessero per me e per il nostro non saluto.

Ad-Dio, padre Fernando. Ricorderò sempre la tua risata, il tuo entusiasmo, il tuo legame profondo con l’Africa e con il tuo Istituto.

Eri fiero e felice di essere un missionario della Consolata, e sono sicura che domenica 20 ottobre, dal Cielo, ci hai sorriso quando Giuseppe Allamano, il tuo fondatore, è stato proclamato santo.

Grazie infinite per tutto.

Spero che le mie figlie, così come tutti i ragazzi di oggi possano fare incontri come il mio. Di quelli che ti cambiano l’esistenza e le visioni. Di quelli che ti aprono le braccia, gli occhi, la mente.

La maggior parte degli YouTuber e degli influencer non ha niente da dirci. Tu, semplicemente, mi hai toccato il cuore.

Loredana Brigante
19/10/2024

Padre Fernando Paladini, nato a Leverano (Lc) il 25/01/1944, ordinato sacerdote missionario della Consolata il 14/08/1974, nel 1978 parte per il Nord dello Zaire (nella foto è a Pawa nel 1983) dove rimane con breve intervallo, fino al 2016. Rientrato in Italia, ha concluso il suo viaggio missionario il 22/09/2024.




Sviluppo e IA, molte incognite


L’intelligenza artificiale potrebbe aiutarci a raggiungere gli obiettivi di sostenibilità dell’Agenda 2030 e a contrastare il cambiamento climatico. A patto, però, che l’energia e l’acqua necessarie per farla funzionare non peggiorino il problema più di quanto lo risolvano.

L’intelligenza artificiale (Ia) può aiutare a prevedere carestie e inondazioni, a usare l’acqua in modo più efficiente, a monitorare e tagliare le emissioni di gas serra, a ridurre la mortalità materna e infantile e le disparità di genere, a colmare le lacune nella raccolta dei dati a livello globale e a fare molte altre cose utili al raggiungimento degli obiettivi si sviluppo sostenibile (acronimo inglese: Sdg) dell’Agenda 2030 delle Nazioni Unite.

A patto, però, di trovare modi efficaci per renderla sicura, inclusiva e sostenibile.

Lo hanno affermato lo scorso maggio a Ginevra al vertice mondiale Ai for Good@ sia il segretario generale Onu António Guterres – l’intelligenza artificiale può «mettere il turbo allo sviluppo sostenibile» -, sia Doreen Bogdan-Martin, la segretaria generale dell’Unione internazionale delle telecomunicazioni (Itu, nell’acronimo inglese), l’agenzia Onu per le tecnologie dell’informazione e della comunicazione. Bogdan-Martin ha riconosciuto il ruolo potenziale dell’Ia nel «salvare gli Sdg», ma ha anche ricordato che un terzo degli abitanti del mondo, cioè 2,6 miliardi di persone, rimane privo di connessione ed «escluso dalla rivoluzione dell’Ia».

L’intelligenza artificiale è affamata di elettricità e assetata di acqua, ha poi spiegato nel suo intervento Tomas Lamanauskas, il vice di Bogdan-Martin: quando si parla di clima, si è chiesto Lamanauskas, le tecnologie basate sull’intelligenza artificiale sono parte del problema o ci aiuteranno a trovare una soluzione?@

Progetto eolico, sulla strada per Loyangalani. e lago Turkana.

L’Ia per clima e sviluppo

Queste tecnologie, ha detto Lamanauskas, hanno un potenziale evidente nel contribuire a identificare soluzioni per affrontare la crisi climatica: possono, ad esempio, rilevare e analizzare cambiamenti anche minimi degli ecosistemi, e aiutare a pianificare le attività per la loro conservazione, monitorare le aree danneggiate dalla deforestazione, aumentare l’efficienza energetica e ridurre gli sprechi.

Secondo uno studio del Boston consulting group, società di consulenza con sede a Boston, Usa, l’uso dell’Ia potrebbe aiutare a realizzare un taglio delle emissioni di anidride carbonica fra il 5 e il 10%. Per dare una misura, si tratta di una quota non lontana da quella prodotta oggi dall’Unione europea. Anche nell’adattamento ai cambiamenti climatici le tecnologie basate sull’Ia potrebbero aiutare le città a individuare meglio le aree vulnerabili e a fornire stime realistiche sui costi che le amministrazioni cittadine dovrebbero affrontare se non agiscono in tempo.

Ad esempio, lo scorso aprile Preventionweb, un servizio dell’Ufficio Onu per la riduzione del rischio di disastri, riportava@ i risultati promettenti ottenuti da alcuni studiosi del California institute of technology nel prevedere con un anticipo fra i 10 e i 30 giorni le piogge monsoniche dell’Asia meridionale. I ricercatori hanno affiancato l’apprendimento automatico alla più tradizionale modellistica numerica (l’uso cioè di modelli matematici per simulare ciò che avviene nell’atmosfera), ottenendo un modello che si è mostrato più preciso e attendibile. Capire e prevedere meglio il comportamento dei monsoni è importante per i contadini di Paesi come India, Pakistan, Bangladesh, che devono programmare il raccolto, e per le autorità locali, che possono prepararsi per tempo a eventuali inondazioni. Ma anche per chi studia i fenomeni climatici a livello globale, poiché i monsoni hanno un’influenza sul clima del pianeta. Quanto al contributo potenziale dell’intelligenza artificiale allo sviluppo sostenibile, proprio l’Unione internazionale delle telecomunicazioni ha pubblicato di recente una lista di casi d’uso in cui l’Ia viene testata per capire quanto efficace può essere nel raggiungere gli Sdg. La selezione finale – 53 casi da 19 Paesi, scelti fra 219 casi da 38 Paesi – include progetti che usano l’Ia per fornire servizi di telemedicina in Cambogia, ottimizzare l’uso dell’acqua in agricoltura e ridurre la corruzione negli appalti pubblici in Tanzania, migliorare la salute e il benessere degli animali negli allevamenti avicoli in Rwanda e prevenire gli incendi nei terreni torbosi della Malaysia.

L’Ia ha fame di energia

Il consumo di energia da parte di centri dati (data centre) per l’Ia e il settore delle criptovalute potrebbe raddoppiare entro il 2026, passando dai circa 460 terawattora (TWh) nel 2022 a oltre mille. È un consumo di elettricità che equivale più o meno a quello del Giappone. Lo scrive nel rapporto Electricity 2024@ la Iea, Agenzia internazionale dell’energia, che riferisce anche che ci sono oggi circa 8mila centri dati nel mondo, di cui un terzo negli Stati Uniti, il 16% in Europa e il 10% in Cina. Negli Usa, 15 Stati ne ospitano l’80%, mentre in Europa si fa notare il caso dell’Irlanda che, anche grazie a un regime fiscale molto favorevole per le imprese, ha visto il settore espandersi rapidamente e oggi i centri dati hanno un consumo di energia pari a quello di tutti gli edifici residenziali urbani del Paese.

Ma che cos’è un centro dati? È uno spazio fisico dove vengono collocati i computer e i dispositivi hardware che servono per elaborare, archiviare e comunicare dati. L’intelligenza artificiale funziona e si «allena» proprio grazie alla enorme mole di dati elaborati in questi entri (necessari per internet a prescindere della Ia, che però ne aumenterà il numero, ndr). Il 40% dell’energia che usano, continua il rapporto Iea, serve per l’elaborazione dei dati, un altro 40% per il raffreddamento degli impianti e il 20% fa funzionare altre apparecchiature.

Lichinga. Villaggio con capanne di paglia e antenna relevisiva

Più efficienza e regole

Il consumo di elettricità dell’intelligenza artificiale rappresenta oggi una frazione del consumo energetico del settore tecnologico mondiale, a sua volta stimato intorno al 2-3% delle emissioni globali totali.@

Ma, ricordava a marzo sul Financial Times@ la giornalista, politica e consulente della Commissione europea, Marietje Schaake, molti esperti del settore, a cominciare dall’amministratore delegato del laboratorio di ricerca OpenAI, Sam Altman, sono convinti che il futuro dell’intelligenza artificiale dipenda da una svolta energetica. Anche per questo, continua Schaake, le aziende tecnologiche sono diventate grandi investitrici nel settore dell’energia: «Meta scommette sulle batterie, Google punta sulle fonti di energia geotermica, Microsoft afferma di poter mantenere il suo impegno a raggiungere emissioni zero e diventare autosufficiente dal punto di vista idrico entro la fine del decennio». Tuttavia, conclude la giornalista citando Christopher Wellise, vicepresidente dell’azienda di data center Equinix, la tecnologia si sta muovendo più velocemente di quanto si sia evoluta la nostra infrastruttura.

È presto per dire quale strada prenderà il settore tecnologico per garantirsi l’energia che gli serve, ma, sottolinea il rapporto Iea, per contenere il consumo dei centri dati sarà fondamentale sia migliorare l’efficienza energetica sia promuovere una legislazione che vincoli lo sviluppo tecnologico agli obiettivi climatici.

Il dibattito oggi sembra muoversi intorno a questi aspetti: le fonti rinnovabili possono dare un grande contributo alla produzione dell’energia necessaria, ma fonti come il sole e il vento hanno il limite di essere intermittenti e di non poter garantire da sole la continuità che i centri dati richiedono. Per garantire questa continuità servono soluzioni nuove che evitino di gravare sulle reti elettriche locali e di ricorrere alle fonti fossili, e c’è anche chi, come la Svezia, ipotizza la costruzione di centri dati alimentati a energia nucleare. L’Ia, poi, può e deve avere un ruolo sia nel migliorare l’efficienza dei centri dati da cui dipende sia nel trovare soluzioni utili alla decarbonizzazione globale.

La sete dell’Ia

L’intelligenza artificiale, riferivano tre studiosi dell’Università di Amsterdam sul sito The Conversation a marzo scorso@, consuma anche molta acqua. Questa serve sia per raffreddare i server che ne sostengono la potenza di calcolo sia per produrre l’energia che li alimenta. Una stima che è circolata molto negli ultimi mesi è quella indicata nello studio di Shaloei Ren, professore di Ingegneria elettrica e informatica presso l’Università della California, Riverside, e dei suoi colleghi@, secondo cui Gpt-3 – il modello computazionale alla base del software ChatGpt – deve «bere» (cioè consumare) una bottiglia d’acqua da mezzo litro per un numero di risposte che varia fra le 10 e le 50 a seconda delle condizioni: una tradizionale ricerca su Google consuma circa mezzo millilitro di acqua.

Sempre secondo Ren, il consumo idrico nei centri dati di Google nel 2022 è aumentato del 20% rispetto all’anno precedente, mentre quelli di Microsoft hanno registrato un incremento del 34% nello stesso periodo ed è molto probabile che sia proprio l’intelligenza artificiale la causa di questi aumenti.

Il prelievo complessivo di acqua da parte di Google, Microsoft e Meta, si legge nello studio, è stimato in 2,2 miliardi di metri cubi nel 2022, equivalente a due volte il prelievo totale annuo di acqua della Danimarca e, nel 2027, potrebbe collocarsi fra i 4,2 e i 6,6 miliardi di metri cubi, pari a metà del prelievo del Regno Unito. Un altro dato che colpisce nel rapporto è quello secondo cui circa 0,18 miliardi di metri cubi sono stati persi a causa dell’evaporazione: una quantità che supera il totale prelevato in un anno dalla Liberia per i suoi 5,3 milioni di abitanti.

Proteste di chi ha sete

Diversi investitori si stanno orientando proprio verso l’Africa subsahariana@: in Kenya, ad esempio, si prevede una espansione del settore dei centri dati dai 190 milioni di dollari di valore del 2021 ai 434 milioni previsti per il 2027. L’Africa, ricorda il rapporto 2024 delle Nazioni Unite sullo sviluppo delle risorse idriche, è però anche il continente in cui circa mezzo miliardo di persone vive in condizioni di insicurezza idrica@.

In America Latina, poi, il progetto di Google di costruire un data center in Uruguay ha scatenato forti proteste: il consumo di acqua per raffreddare i server sarebbe di 7,6 milioni di litri di acqua al giorno, pari all’uso domestico quotidiano di 55mila persone. Nel 2023 il Paese ha avuto la peggiore siccità degli ultimi 74 anni. Le autorità pubbliche hanno cercato di affrontarla prelevando acqua dall’estuario del Rio de la Plata, acqua che però ha un sapore salato ed è sconsigliata a donne incinte e persone fragili. In un’intervista al Guardian, Carmen Sosa, della Commissione uruguaiana per la difesa dell’acqua e della vita, ha detto che la siccità ha evidenziato i limiti di un modello economico dove l’80% dell’acqua va all’industria e le risorse sono concentrate in poche mani.

Non stupisce che il progetto di Google non sia stato accolto con grande entusiasmo.

Raccolta di acqua nel letto di un fiume in secca a Baragoi, Kenya

Altri rischi da tenere d’occhio

Ci sono anche altri modi in cui l’intelligenza artificiale rischia di rallentare il cammino verso gli obiettivi dell’agenda 2030. A riassumerli è un documento@ del consorzio internazionale di statistica Paris 21, fondato da Nazioni Unite, Ocse, Fondo monetario internazionale e Banca mondiale.

Il primo rischio è che le infrastrutture inadeguate e le minori competenze nei Paesi del Sud globale portino a un ulteriore aumento del divario digitale con il Nord del mondo. Vi è poi il problema dei pregiudizi che l’intelligenza artificiale potrebbe contribuire a propagare: gli algoritmi alla base dei modelli di Ia, infatti, «imparano» e si «allenano» su dati che spesso riflettono le diseguaglianze e gli stereotipi della società e tendono a riprodurli quando vengono utilizzati, ad esempio, per la selezione del personale o per assegnare priorità nell’assistenza ai pazienti in una struttura sanitaria.

Vi sono infine i rischi legati alla violazione della privacy e dei diritti umani, come nel caso dell’uso di droni per la raccolta di immagini o delle app di riconoscimento facciale.

Al summit Ai for Good, Sage Lenier, un’attivista per il clima, ha poi avanzato un’altra interessante osservazione@. La catena di fast fashion Zara, ha spiegato Lenier, è sotto accusa da anni per la sua sovrapproduzione di vestiti, le condizioni disumane delle sue fabbriche e l’enorme impronta di carbonio. Zara aggiunge 2mila nuovi capi al suo sito web ogni mese.

Da qualche anno, però, c’è una nuova catena che commercia online, la cinese Shein, che aggiunge 60mila nuovi articoli al mese e nel 2023 ha generato circa 32,5 miliardi di dollari di fatturato. Shein sembra a sua volta destinata a essere superata da Temu, piattaforma cinese di e-commerce nata a settembre 2022 e capace di generare, già nel 2023, 27 miliardi di fatturato. Shein e Temu, ha detto Lenier, sono ciò che accade quando lasciamo che l’intelligenza artificiale sia applicata a settori che stanno già distruggendo il pianeta e sfruttando le persone nelle loro catene di produzione: l’Ia permette a queste aziende di analizzare rapidamente le tendenze della moda e le preferenze dei consumatori, creare strategie di marketing iper-personalizzate e ottimizzare cicli di produzione accelerati.

Queste aziende non potrebbero produrre a un ritmo così veloce e a basso costo senza lo sfruttamento del lavoro, incluso il lavoro minorile e quello assimilabile alla schiavitù. La pressione resa possibile dall’intelligenza artificiale acuisce queste condizioni di sfruttamento.

Chiara Giovetti




«Machina sapiens» e guerra


La competizione tra Cina e Stati Uniti, le due maggiori potenze mondiali, è totale. Nella corsa agli armamenti la sfida è anche a colpi di Intelligenza artificiale (Ia), la nuova frontiera tecnologica dell’umanità.

Negli ultimi anni, il panorama geopolitico globale è stato rivoluzionato da una nuova e insidiosa corsa agli armamenti, non basata solo su missili o carri armati, ma su qualcosa di ancora più potente: l’Intelligenza artificiale (Ia).

In questo contesto, Cina e Stati Uniti si trovano al centro di una sfida epocale, investendo risorse senza precedenti nello sviluppo di tecnologie avanzate che potrebbero ridefinire il futuro della sicurezza internazionale. Le dinamiche di questa competizione tecnologica stanno già cambiando l’equilibrio dell’economia globale.

Secondo il Digital economy report della Conferenza delle Nazioni Unite sul commercio e lo sviluppo del 2021, le grandi aziende tecnologiche come Apple, Amazon, Meta e la cinese Huawei detengono il 90% della capitalizzazione di mercato nel settore. Esse stanno scommettendo fortemente sul digitale, investendo ingenti risorse in infrastrutture all’avanguardia. Questa strategia consente loro di acquisire un potere di mercato senza precedenti, sia sotto il profilo finanziario che economico, e di esercitare un controllo significativo sulle enormi quantità di dati personali degli utenti, rafforzando ulteriormente la loro posizione dominante a livello globale.

Ciò che serve

Le tre componenti fondamentali per sviluppare sistemi avanzati di Ia sono: algoritmi innovativi, una grande quantità di dati per addestrare i modelli e, infine, chip moderni e potenti e in grande quantità per supportare l’enorme potenza di calcolo necessaria. Questo introduce un rischio di natura militare e geopolitica, poiché il principale centro di produzione dei microchip a livello mondiale si trova attualmente a Taiwan.

Gli Stati Uniti e la Cina sono leader nella ricerca avanzata e nell’utilizzo delle tecnologie di intelligenza artificiale. Per la Cina, questa è una priorità nazionale di massima importanza.

Il presidente Xi Jinping lo ha chiaramente delineato nel piano per la «grande rinascita della nazione cinese» entro il 2049 presentato durante il XX Congresso del Partito comunista cinese. Un rapporto del dipartimento della Difesa degli Stati Uniti del 2023 conferma l’intenzione della Cina di superare l’Occidente nella ricerca sull’intelligenza artificiale entro il 2025 e di diventare leader mondiale entro il 2030.

Screenshot. Suggerimenti di IA da Google Play

La difesa nell’era dell’Ia

In ambito militare, l’uso dell’Ia è essenziale per la raccolta di informazioni, il monitoraggio del campo di battaglia e la localizzazione del nemico, contribuendo a una decisiva previsione delle mosse dell’av-

versario. Elaborando grandi quantità di informazioni, gli algoritmi possono penetrare i sistemi di difesa avversari.

L’integrazione tra ambiti militari e civili rappresenta uno dei pilastri della strategia cinese. L’obiettivo è di creare un database comune accessibile a tutti gli istituti di ricerca scientifica, le università, le aziende e il corpo militare cinese.

Baidu – la Google cinese – e altre aziende tech hanno invocato la collaborazione con il settore della difesa, rendendo molte delle tecnologie sviluppate utilizzabili per operazioni belliche dall’esercito cinese. Fino ad oggi, la strategia militare del paese ha dato priorità ai sistemi e alle attrezzature da combattimento senza equipaggio (droni, missili autonomi, sottomarini).

Usa contro Cina

Nella frenetica rincorsa per avanzare nel campo dell’Ia, anche la Cina si trova a dover affrontare numerosi ostacoli, tra cui significative carenze negli standard tecnici e nelle piattaforme software. Difficoltà maggiorate a seguito delle restrizioni imposte dal governo Usa a Nvidia, azienda americana (da poco la più capitalizzata al mondo) leader nell’esportazione di chip verso la Cina. Il segretario al Commercio degli Stati Uniti, Gina Raimondo, ha dichiarato che queste nuove normative mirano a impedire alla Cina di ottenere chip avanzati, essenziali per lo sviluppo dell’intelligenza artificiale, soprattutto in ambito militare.

Queste restrizioni mettono in luce le difficoltà che il gigante asiatico deve affrontare nel raggiungere l’autosufficienza in settori vitali come quello dei semiconduttori.

Ia, droni e nuove guerre

L’integrazione dell’Intelligenza artificiale nel settore militare sta radicalmente trasformando il concetto di guerra. Un esempio significativo di questa rivoluzione è rappresentato dagli avanzamenti nel campo dei droni.

I test condotti dagli Stati Uniti hanno evidenziato le straordinarie potenzialità di questi dispositivi per le operazioni militari. I micro droni Perdix (solo 30 centimetri di apertura alare) hanno dimostrato capacità avanzate, tra cui quella di decidere in autonomia e collettivamente tra loro, il volo in formazione adattivo e l’autoriparazione.

William Roper, direttore dello Strategic capabilities office (Sco), ha dichiarato: «A causa della natura complessa del combattimento, i Perdix non sono individui pre programmati e sincroniz- zati, ma un organismo collettivo che condivide un cervello distribuito per il processo decisionale e si adatta l’uno all’altro come gli sciami in natura».

Nel 2017, il governo statunitense ha lanciato il Progetto Maven, un programma volto a creare sistemi in grado di elaborare le immagini dei droni e rilevare automaticamente potenziali obiettivi. Per farlo mettono insieme e analizzano dati per renderli utilizzabili operativamente, in modo più preciso e affidabile di quanto potrebbe mai fare la capacità umana. I sistemi sviluppati grazie a questa iniziativa sono stati utilizzati in operazioni contro l’Isis in Medio Oriente e, più recentemente, dall’Ucraina nel conflitto con la Russia.

Errato sarebbe escludere i possibili margini di errore dei sistemi automatizzati. Infatti, le precedenti esperienze hanno rivelato problematiche che aumenteranno esponenzialmente nell’era dell’Ia. Non a caso è stato creato l’Ai incident database, un’enciclopedia online degli incidenti di Intelligenza artificiale conosciuti, sotto la voce «errori epocali».

Proliferazione e pericoli

La prudenza degli Stati Uniti nell’adozione di tecnologie autonome, motivata da una profonda consapevolezza dei rischi, si contrappone all’approccio più aggressivo della Cina. Tuttavia, questa competizione non si limita a una semplice rivalità bilaterale, ma coinvolge una dimensione globale, dove la proliferazione di droni e sistemi autonomi potrebbe facilitare l’accesso a tecnologie avanzate anche a nazioni più piccole e gruppi paramilitari.

Mentre il confronto tra le due superpotenze richiama alla mente i giorni della Guerra fredda, l’impiego dell’Ia in campo militare introduce sfide uniche e complesse.

La facilità di produzione e l’economicità del software che alimenta queste armi autonome potrebbero trasformare i conflitti moderni, rendendo la gestione e il controllo delle nuove tecnologie una priorità cruciale. Pertanto, è indispensabile che le grandi potenze globali intraprendano un dialogo mirato a sviluppare una legislazione comune sull’uso dell’Ia in ambito militare. Questo dialogo dovrà essere guidato dall’urgenza di prevenire escalation e conseguenze catastrofiche, assicurando che l’elemento umano rimanga centrale nel processo decisionale.

La «Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia» del 2023, rilasciata dal governo statunitense rappresenta un passo nella giusta direzione, tracciando linee guida che enfatizzano la responsabilità umana nell’impiego di queste tecnologie.

Screenshot. Suggerimenti di IA da Google Play

L’«Ai act»: le regole dell’Europa

Facendo un passo storico verso la regolamentazione delle tecnologie emergenti, nel marzo 2024 il Parlamento europeo ha adottato il «Regolamento sull’Intelligenza artificiale» (Ai act), una normativa volta a creare un quadro giuridico armonizzato per l’uso dei sistemi di Ia nell’Unione europea. Questo regolamento mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali dei cittadini.

La presidente della Commissione europea, Ursula von der Leyen, ha dichiarato che la legge dell’Ue sull’Ia rappresenta «il primo quadro giuridico globale in assoluto in materia di intelligenza artificiale a livello mondiale». L’obiettivo è proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di Ia ad alto rischio, creando al contempo le condizioni per una continua innovazione.

Il regolamento stabilisce obblighi basati sui possibili rischi e sul livello d’impatto delle applicazioni introdotte, imponendo rigorosi controlli per le aziende che utilizzano l’Ia.

Non solo «chatbot» e «deep fake»

I controlli saranno applicati sulla base di quattro possibili scenari di rischio: inaccettabile, alto, limitato o minimo. I sistemi che presentano un rischio inaccettabile sono quelli che vanno contro i valori e i principi fondamentali dell’Ue, come il rispetto della dignità umana, della democrazia e dello Stato di diritto.

A rischio elevato sono considerati gli scenari che possono avere un impatto sui diritti fondamentali o la sicurezza dei cittadini. Sono soggetti a rigorosi controlli prima di essere immessi sul mercato europeo. In questa categoria si trovano le applicazioni sanitarie, giudiziarie e quelle per l’assunzione del personale.

Il rischio limitato è rappresentato dai sistemi di intelligenza artificiale che possono influenzare alcuni diritti o idee degli utenti, in misura però minore rispetto ai sistemi ad alto rischio. Appartengono a questa categoria le applicazioni utilizzate per produrre o modificare contenuti audiovisivi (deep fake) o per fornire assistenze personalizzate (chatbot). Gli utenti hanno il diritto di sapere che stanno interagendo con un robot o che un’immagine è stata creata dall’intelligenza artificiale.

Se il rischio è minimo o nullo le applicazioni non sono soggette a particolari controlli.

Gli aggiornamenti periodici, necessari per affrontare le sfide emergenti e le innovazioni tecnologiche, dimostrano l’impegno dell’Ue nel mantenere il regolamento al passo con i tempi. Monitorare costantemente l’implementazione e l’impatto dell’Ai Act sarà fondamentale per assicurare che le normative rimangano efficaci e pertinenti. L’Ue si conferma all’avanguardia sul fronte dei diritti, ma fatica a tenere il passo della tecnologia.

Secondo una relazione della Corte dei conti europea, l’Ue ha avuto finora poco successo nello sviluppare un dialogo comune. Si stima che il divario tra gli Stati Uniti e l’Ue in termini di investimenti complessivi nell’Ia sia più che raddoppiato tra il 2018 e il 2020 (l’Ue è rimasta indietro per più di 10 miliardi di euro). L’assenza di strumenti di governance e il mancato monitoraggio sugli investimenti non hanno prodotto dati sugli obiettivi raggiunti. Bruxelles ha stanziato i fondi senza incentivare un contributo privato. Inoltre, si deve fare di più per assicurarsi che i risultati dei progetti di ricerca finanziati in tema di Ia siano pienamente commercializzati o sfruttati.

Nel tentativo di recuperare il terreno perso, nel giugno 2024 l’Ue ha istituito l’Ai Office. Guidato dall’italiana Lucilla Sioli, è incaricato di coordinare l’applicazione del Ai act e di gestire la politica di investimento in questo campo.

Antropocentrica e planetocentrica

In Europa, il Regno Unito, pur fuori dall’Unione, è il maggiore investitore, seguono Francia e Germania che hanno intrapreso percorsi ben definiti.

La strategia dell’Italia arriva a fine 2021 con il «Programma strategico sull’Intelligenza artificiale» e la creazione di un Fondo nazionale. L’intelligenza artificiale dovrebbe non solo aumentare la produttività, ma anche evolversi in sinergia con lo sviluppo sostenibile.

L’obiettivo della Commissione europea è di promuovere una Twin transition, una doppia transizione che integra i diritti e le regolamentazioni per gli individui con gli obiettivi di sostenibilità. L’Ai deve essere, quindi, non solo «antropocentrica», ma anche «planetocentrica», come affermano i dirigenti della Commissione.

In definitiva, per competere efficacemente a livello globale, è essenziale che tutti i Paesi europei lavorino insieme per superare frammentazioni e carenze, costruendo una visione comune che integri normative, innovazioni tecnologiche e investimenti finanziari.

Raffaele Bevilacqua, Federica Mirto

John McCarthy, il matematico statunitense che, nel lontano 1956, coniò il termine «intelligenza artificiale».


Glossario essenziale

IA, DI COSA PARLIAMO?

L’enciclopedia Treccani definisce l’Intelligenza artificiale (Ia) – in inglese, Artificial intelligence (Ai) – come la «disciplina che studia se e in che modo si possano riprodurre i processi mentali più complessi mediante l’uso di un computer». Questo obiettivo è perseguito attraverso algoritmi (sequen di istruzioni matematiche) e software (programmi che leggono le istruzioni per il computer).

In altri termini, i software di Ai sono capaci di eseguire autonomamente un compito o una finalità definita, prendendo decisioni che solitamente sono affidate alle persone. Il termine AI è stato coniato dal matematico e informatico statunitense John McCarthy (1927-2011) nel 1956.

L’Ia generativa – spiega il sito di Klondike – è una sottocategoria dell’Intelligenza artificiale in grado di creare autonomamente nuovi contenuti. I software di Ai generativa partono da «prompt» (richieste o descrizioni) formulate dall’utente per generare contenuti come immagini, testi, audio, video, codici di programmazione e molto altro ancora. Per esempio, l’Ai generativa può scrivere un articolo per MC, fare il riassunto di un libro, svolgere un compito scolastico, fare una diagnosi medica.

L’algoretica è lo studio dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi. «Le implicazioni sociali ed etiche delle Ai e degli algoritmi – ha scritto Paolo Benanti già nel 2018 – rendono necessaria tanto un algoretica quanto una governance di queste invisibili strutture che regolano sempre più il nostro mondo per evitare forme disumane di quella che potremmo definire una algocrazia».

È ancora più esplicito quanto si legge sul sito di Rome call for Ai ethics, della vaticana «Renaissance foundation»: «Il settore digitale e l’intelligenza artificiale sono il motore del cambiamento epocale in atto. Lo sviluppo tecnologico influenza tutti gli aspetti della vita, portando con sé il rischio potenzialmente elevato di una società sempre più diseguale e asimmetrica, privata di significato e governata da algoritmi. Pertanto, se si vuole che l’Ia sia all’altezza della sfida del rispetto della dignità di ogni essere umano, è necessaria un’etica che non funga da strumento di contenimento, ma piuttosto da strumento di indirizzo e di pianificazione».

Attualmente però la necessità richiamata nella dichiarazione di Roma si scontra con una situazione ben sintetizzata da Laura Turini, avvocata esperta di Ai: «Il futuro dell’intelligenza artificiale è in mano ai privati. Questo è il problema vero».

Paolo Moiola

Papa Francesco e Joe Biden nell’incontro al G7 in Puglia, lo scorso 14 giugno. Foto Vatican Media via AFP.


L’Intelligenza artificiale secondo Francesco

L’uomo non sia «cibo per gli algoritmi»

Giugno 2024: per la prima volta nella storia, un papa ha partecipato al G7, ospitato quest’anno in Puglia. È stato invitato per parlare di Intelligenza artificiale. Un invito non casuale: in un contesto di cambiamenti tecnologici senza precedenti, il Vaticano risulta essere all’avanguardia nella sua comprensione, fornendo un punto di riferimento per i leader politici globali.

Infatti, già nel 2020, ben prima dell’avvento degli strumenti di Ai generativa come ChatGpt, il Vaticano, attraverso la «Pontificia accademia per la vita», aveva firmato la dichiarazione d’intenti «Rome call for Ai ethics» (Roma chiama per una Ia etica). Siglato insieme a Microsoft, Ibm, Fao e il Dipartimento Italiano per l’innovazione tecnologica, questo importante documento stabilisce le linee guida etiche da seguire nello sviluppo dell’intelligenza artificiale.

Il fenomeno della rapida ascesa dell’intelligenza artificiale ha suscitato pensieri contrastanti tra lo stupore e il disorientamento come ha ribadito papa Francesco in occasione della 58ª Giornata delle comunicazioni sociali del 12 maggio 2024. Nello stesso messaggio il pontefice ci invita a non essere solo degli osservatori di fronte al cambiamento, ma ad accoglierlo con la sapienza che distingue l’essere umano. Perché – sottolinea il papa – non possiamo pretendere sapienza dalle macchine.

Sebbene il termine «intelligenza artificiale» sia ormai diffuso, il papa ritiene che sia fuorviante, poiché le macchine non possiedono la capacità di decodificare il senso dei dati come gli esseri umani. Le macchine possono memorizzare e correlare un’enorme quantità di informazioni, ma è l’uomo che deve interpretare e dare loro significato. Questa osservazione mette in luce una verità essenziale: l’uomo non può essere ipnotizzato dalla propria creazione al punto da credersi onnipotente. La tecnologia dovrebbe essere uno strumento al servizio dell’umanità, non un sostituto della nostra capacità di pensiero e discernimento. Il papa pone una serie di domande cruciali per il nostro tempo: come tutelare la dignità dei lavoratori nel campo della comunicazione? Come garantire la trasparenza e la responsabilità delle piattaforme digitali? Come evitare che l’uso dell’Ia conduca a nuove forme di sfruttamento e disuguaglianza?

Questi interrogativi non hanno risposte facili, ma sono essenziali per costruire un futuro in cui la tecnologia sia al servizio dell’uomo e non il contrario. Il papa ci ricorda che la risposta dipende da noi: possiamo scegliere se diventare «cibo per gli algoritmi» o nutrire di libertà e sapienza i nostri cuori.

In un mondo sempre più dominato dalla tecnologia, il richiamo del papa alla prudenza e alla riflessione etica è più che mai pertinente. Solo con una visione equilibrata e responsabile possiamo sperare di trasformare le sfide del presente in opportunità per un futuro più giusto e umano. Egli esorta la comunità internazionale a lavorare insieme per adottare un trattato che regoli lo sviluppo e l’utilizzo dell’intelligenza artificiale, affinché essa non diventi uno strumento di dominio ostile e di nuova ingiustizia sociale.

Figura di riferimento dell’attuale governo italiano è padre Paolo Benanti, francescano e teologo, professore straordinario di Etica della tecnologia presso la Pontificia Università Gregoriana e presidente della «Commissione Ia per l’informazione» nonché unico italiano tra i 39 esperti dell’advisory board sull’Ia delle Nazioni Unite. In un’intervista con l’agenzia Dire padre Benanti ha ricordato che «l’intelligenza artificiale è un moltiplicatore e quindi può moltiplicare anche le disuguaglianze».

R.B e F.M.