Mario Caspani •
Pochi mesi fa scrivevo di ignoranza naturale e intelligenza artificiale. Oggi mi imbatto in una notiziola curiosa: il Nobel per la fisica 2024 è stato attribuito a due scienziati, l’americano John Opfield e il canadese Geoffrey E. Hinton, entrambi premiati per i loro studi sulle reti neurali applicati alle macchine per l’intelligenza artificiale.
La curiosità sta nel fatto che il secondo dei due, già “mente” di Google per le applicazioni di IA, lo scorso anno diede le dimissioni dall’incarico per sentirsi più libero di discutere e affrontare pubblicamente i “troppi pericoli” di questa tecnologia.
Quindi, a voler trarre conclusioni semplicistiche, l’Accademia svedese ha premiato uno scienziato che si è posto in modo polemico rispetto agli utilizzi e alle applicazioni concrete dei propri studi in materia di IA.
Considerazione semplicistica, certo, perché gli studi, le scoperte, le invenzioni sono asettiche, nel senso che è sempre l’uomo che determina la bontà o meno dei passi avanti in campo scientifico attraverso l’uso che se ne fanno. Un esempio per tutti la tecnologia nucleare, che potrebbe risolvere i problemi energetici del mondo, ma se usata in modo distruttivo lo può annientare, come purtroppo hanno sperimentato sulla propria pelle i giapponesi di Hiroshima e Nagasaki.
Si fa un gran parlare di intelligenza artificiale e di tutti i suoi possibili, e in parte già reali, utilizzi. Il problema è che nessuno credo sia in grado di capire fin dove si possa arrivare.
Il tema è sempre lo stesso. Tutte le scoperte e le invenzioni umane offrono molteplici applicazioni, positive e negative. In sé un coltello è utile per tagliare la carne e affettare il salame, ma diventa terribile quando conficcato in pancia a un’altra persona. E come sempre il problema non è il coltello, ma chi e come lo usa.
Non fa eccezione l’IA, che con la sua mostruosa capacità di calcolo garantisce velocizzazione e risparmi incredibili, ma pone seri interrogativi in merito alla possibilità che mani o menti “sbagliate” possano appropriarsene.
Recentemente si è imposto il dibattito sulla necessità di una sua regolamentazione condivisa a livello internazionale, se ne è parlato anche durante gli incontri del G7 in Puglia e in numerosi bilaterali tra i potenti della terra e la ristretta élite che sta sviluppando e affinando sempre di più lo strumento.
Ma ne parlano anche, dal loro punto di vista, diversi studiosi in campo umanistico i quali, ovviamente, non hanno alcuna pretesa tecnologica, ma si preoccupano delle ricadute sulla vita reale. Vengono posti interrogativi su quali possano essere i limiti “accettabili” per una tecnologia dalle potenzialità teoricamente infinite e, soprattutto, ci si chiede fino a che punto potrebbero in un certo senso “umanizzarsi” le applicazioni di IA generativa.
Non bisogna però mai dimenticare che, per quanto evoluti, complessi e raffinati, al punto da trascendere la comprensione dell’uomo comune, gli algoritmi su cui si basano i sistemi di IA sono pur sempre creazioni umane e non possono non rispettare gli indirizzi che i team di persone che li creano decidono di imporre.
Ho letto recentemente due considerazioni che mi hanno colpito. In una un noto pubblicista si chiedeva fino a che punto un sistema di IA potrebbe arrivare nel replicare o imitare i comportamenti umani e se lo domandava in riferimento a un tema ben specifico: l’amore, i sentimenti.
Potrà mai una macchina, qualsiasi essa sia, provare quei sentimenti che caratterizzano l’agire degli esseri umani?
La seconda considerazione era sulla teorica possibilità che una macchina dotata di IA possa mai mentire, ma farlo in modo consapevole, perché anche la menzogna, nelle sue più diverse accezioni, è una peculiarità dell’essere umano.
Non abbiamo risposte, ma possiamo anche nutrire un certo timore sul fatto che in futuro potranno essere sviluppati sistemi con simili caratteristiche.
E dico timori perché, lo sappiamo benissimo, per costruire ci vogliono anni, se non secoli, ma per distruggere basta davvero poco. In fin dei conti anche perché gli errori sono sempre possibili e non c’è intelligenza artificiale che tenga.
Una prova? Qualche settimana fa cercavo una notizia su Zurigo e sono incappato nel sito svizzero di informazioni online “20minuten”, il più diffuso, pare, da quelle parti. Raccontava di un morto nell’ambito della Street Parade, una festa techno tra le più grandi d’Europa, morto rinvenuto il giorno dopo nelle acque del lago di Zurigo. Non conoscendo il tedesco ho impostato la traduzione automatica per capire bene la notizia. Eccone uno stralcio.
“La polizia dell’acqua ha quindi effettuato immersioni di ricerca a Utoquai. La polizia ha rinvenuto il disperso senza vita a una profondità di circa 6 metri. Il defunto è stato tratto in salvo e trasferito al commissariato dei carabinieri per ulteriori accertamenti.”
Secondo la traduzione, di certo impostata su qualche algoritmo di intelligenza artificiale, un defunto può essere “tratto in salvo”…. e a Zurigo ci sono i Carabinieri!
No comment, anzi, sì. Se tutto va così andremo bene.