Condividi su

Milena Santerini

Università Cattolica del Sacro Cuore, Comunità di Sant'Egidio, ltalia
 biografia
L’utilizzo delle tecniche che chiamiamo Intelligenza Artificiale può aiutare a risolvere problemi complessi: ridurre l’inquinamento, aiutare la ricerca scientifica analizzando milioni di dati, tradurre le lingue per farci comunicare. Può però anche creare sfruttamento del lavoro umano, manipolare le elezioni politiche, inventare cospirazioni e complotti, dalla terra piatta ai rettili che dominano il mondo.
 
Non si tratta di essere pro o contro o di dividerci tra tecno-esatto entusiasti contro tecno-critici ma chiederci come gestire in modo sostenibile l’ambivalenza che non abbiamo risolto con Internet, strumento straordinario di connessione e apertura che ci fa stare insieme ma soli, costruisce reti che comunicano ma allo stesso tempo alimentano anche sovranismi e razzismi.
 
I fenomeni di odio online possono essere alimentati dall’Intelligenza Artificiale.
L’odio nel mondo è sempre esistito: da Caino e Abele, la storia umana è piena di guerre e di furia distruttiva. Quindi molti pensano che gli strumenti forniti dall’Intelligenza artificiale non sono colpevoli di aver creato l’hate speech, il discorso d’odio..
Certo, violenza e guerra non sono state inventate da Internet, ma bisogna ammettere che la rete digitale e soprattutto il sistema dei social media dagli inizi del 2000 non sono neutrali, come ha scritto Papa Francesco “gli algoritmi non sono neutri”, anzi costituiscono un habitat favorevole, un ambiente ideale per facilitare e moltiplicare l’ostilità tra gli esseri umani.
L’Unicef dice che un giovane su tre è vittima di cyberbullismo e qui sicuramente ci sono ragazzi e ragazze che ne hanno fatto esperienza.
 
L’utilizzo delle tecniche che chiamiamo Intelligenza Artificiale sfrutta i nostri meccanismi psicologici e provoca profondi cambiamenti culturali collettivi. Gli algoritmi controllati da imprese private influenzano le relazioni sociali nell’esperienza quotidiana e il nostro “inconscio digitale”: possono diffondere falsità, possono distorcere la realtà attraverso le lenti del conflitto tra tribù spingendoci all’estremismo e alla polarizzazione: NOI contro LORO, il “nemico”.
Recentemente alcuni sono riusciti ad aggirare i filtri di sicurezza di ChatGPT e Google bard e far dare risposte manipolate sull’Ucraina e l’Olocausto nel dialogo con la chat.
Come afferma Jurgen Habermas, quando il dibattito nella sfera pubblica non è filtrato in modo qualitativo, ma solo per scopi commerciali, la democrazia è compromessa dall’algocrazia.
Gli algoritmi della AI devono difendere e non togliere dignità e i diritti di ogni essere umano. Altrimenti creeranno quella che è stata chiamata “la macchina del caos”: pensiamo al messaggio di papa Francesco per la Giornata della pace del 2024, o al suo discorso al G7 nel giugno scorso.
La "Rome Call for AI Ethics", diffusa nel febbraio 2020 dalla Pontificia Accademia per la Vita su iniziativa di mons.Vincenzo Paglia, lancia un appello per sviluppare
l'Intelligenza Artificiale in modo che rispetti la dignità umana e promuova il bene comune. Tra i principi chiave del documento ci sono trasparenza, inclusività, responsabilità, imparzialità, affidabilità e sicurezza, sulla base dell’algoretica. L'iniziativa ha visto la partecipazione dei leader del settore e
rappresentanti di varie religioni, dimostrando un approccio ecumenico e interreligioso alle questioni etiche.
 
Il problema, quindi, è che nuovi mezzi sfruttano l’inesauribile capacità umana di fare del male.
L’intelligenza artificiale si basa su calcoli statistici di probabilità e non chiede di decodificare il senso di ciò che leggiamo o scriviamo: per questo può favorire ancor più il linguaggio d’odio che non chiede comprensione ma è un arma per colpire gli altri.
 
2Non è facile definire l’odio, che si presenta come uno spettro di emozioni, atteggiamenti e comportamenti. E’un sentimento totale che fa opporre le persone agli altri non per quello che fannoma per ciò che sono, anche in quello che fanno di buono. Occorre quindi chiedersi quali meccanismi della comunicazione online lo possono favorire.Ne citerò tre: istantaneità, diffusione, anonimato.
 
1.L’istantaneità del web favorisce le reazioni veloci, quelle non meditate,di cui poi spesso ci pentiamo; è il sistema della nostra mente che, come ci dicono le neuroscienze, obbedisce a reazioni istintive, nate dal punto di vista evolutivo per difendere la specie e reagire rapidamente davanti a un pericolo. Oggi l’umanità è purtroppo ancora preda di istinti e reazioni poco controllate che si comunicano velocemente sul web.
 
2.L’odio è contagioso, e la diffusività del web lo rende virale, diventando molto facilmente un fenomeno di gruppo. Nel mercato delle emozioni si crea un contagio emotivo. Quelli che non appartengono alla nostra religione o etnia o nazionalità vengono inseriti rapidamente in una sola categoria generalizzata (“loro” contro “noi”). A maggio scorso, qualcuno ha diffuso 61 post a pagamento di disinformazione contro i “nemici” della parte politica avversa: solo 61 post hanno raggiunto 1 milione quattrocentamila italiani, solo 100 post hanno raggiunto 850.000 francesi e in Germania con 75 post sono stati raggiunti mezzo milione di tedeschi
 
3.Si inviano insulti, diffamazioni, pregiudizi attraverso i social network credendodi restare anonimi; lo schermo elimina la naturale empatia che proviamo quando vediamo faccia a facia fisicamente un nostro simile, con il suo volto e le sue emozioni, uguali alle nostre. Il nostro corpo sente l’altro, lo riconosce,ci rispecchiamo gli uni negli altri. Soprattutto, a sopprimere la naturale empatia umana provvedono strategie di gruppi organizzati efficaci nel sottrarre solidarietà e vicinanza a “loro”, al nemico, o allo straniero.Ma a chi serve diffondere ostilità? gli algoritmi che governano l’odio fanno guadagnare le grandi piattaforme private dato che tutto il sistema dello scambio online, apparentemente gratuito, si poggia su massicci inserimenti pubblicitari. Tutto ciò che comporta intensità emotiva cattura l’attenzione e sposta gli utenti inducendoli a cliccare su certe pagine. L’odio paga e serve anche a manipolatori, a ideologi o politici che sfruttano in modo razionale le potenzialità della rete per diffondere fake news e costruire il consenso più facile: quello contro “loro”, il “nemico”, che spesso è il profugo, il povero senza casa, il rom, la donna.Forse non tutti sanno che alcune big tech nell’ultimo anno hanno dimezzato i provvedimenti di contrasto ai contenuti di hate speech.
 
Le religioni in generale sono tra le più colpite dall’hate speech.
• In generale il credo religioso si colloca al secondo posto (dopo i motivi etnici) tra i
fattori di discriminazione. L’hate speech prende a bersaglio le persone, e incita ad
attacchi a sinagoghe, moschee e chiese o altri luoghi di culto o cimiteri. I sistemi algoritmici delle piattaforme online possono essere usati per amplificare incitamento all'odio, radicalizzazione e estremismo. Recentemente attraverso X è circolato l’odio razzista contro gli immigrati in Gran Bretagna
 
Farò 3 esempi:
L’antisemitismo online è in forte crescita, specie dopo l’attacco terroristico del 7
ottobre 23 di Hamas e la guerra a Gaza. In Francia è aumentato del mille per cento nei tre mesi successivi, in Germania quasi raddoppiato, in Italia triplicato
Vi è la tendenza a legittimare l’antisemitismo – che dopo la Shoah sembrava indebolirsi - nelle sue varie forme: l’antigiudaismo tradizionale di matrice cristiana, cioè l’ostilità verso l’“ebreo deicida”, o l’odio verso l’“ebreo di razza inferiore”, tipica del nazi-fascismo, o ancora la “giudeo-fobia” risultante dall’amalgama polemico tra “ebreo”, “israeliano” e “sionista”.
Online circolano immagini di complotti. Si vedono immagini di ebrei che diffondono il virus del Covid-19 come avrebbe avvelenato i pozzi per diffondere la peste, nel Medio evo. Il web moltiplica all’infinito immagini che disumanizzano le minoranze paragonandoli a animali : topi, ragni, serpenti.
-Discriminazione e ostilità verso i musulmani sono cresciute dopo l’11 settembre 2001, almeno del 16% nel 2022 (Council on American-Islamic Relations). . Le comunità musulmane sono vittime di una retorica che spesso le associa al terrorismo e all'estremismo. I musulmani sono frequentemente rappresentati come un gruppo monolitico, la cui religione e cultura (specie a proposito delle donne) sono incompatibili con i concetti di diritti umani e democrazia.
-In molti Stati asiatici e africani gli attentati alle chiese e le uccisioni dei cristiani sono trasmessi e preparati online.
Nel 2023 in base a una ricerca sul canale Telegram in Italia abbiamo individuato 92
canali che condividevano contenuti di odio anticristiano e complottista con vari profili
che additano il Papa come eretico, caratterizzati da derisione e disprezzo.
 
È possibile agire contro l’hate speech online. Le politiche dell’Unione Europea per limitare il discorso d’odio vanno appoggiate. La stessa Intelligenza artificiale può essere usata per dialogare con chi crede ai complotti e si è visto che riesce a convincere il 20% di quelli che credono ad esempio che lo sbarco sulla Luna non sia mai esistito. L intelligenza artificiale può creare contro narrazioni per contrastare l’odio, non censurando ma facendo riflettere.
Ma tutti noi possiamo agire.
Le comunità religiose devono impegnarsi per combattere i crimini contro altri gruppi,
non solo il proprio. L’odio colpisce ora l’uno ora l’altro gruppo come capro espiatorio,
ma tutti uniti possiamo difendere le persone colpite. Non deve consolare il fatto che l’odio sia rivolto contro “altri” perché può rivolgersi in qualsiasi momento contro di noi. Dovremmo mettere in rete i nostri social in ambito religioso e sociale per moltiplicare una contro-narrazione di pace. Invitiamo tutti i giovani qui presenti a usare i social media per cambiare il linguaggio ostile.
L’impegno che ci aspetta è immaginare la pace in un mondo sempre più frammentato e diviso
 
Grazie