Mentre l'attenzione della stampa, dei commentatori e di molti appassionati si concentra periodicamente su dibattiti che riguardano un presunto raggiungimento di una intelligenza artificiale generale dotata di qualità umane, nel mondo vengono implementati sempre più processi automatizzati con effetti reali sulle persone e sulla società.
L'esempio recente più famoso è quello di Black Lemoine, un ingegnere che lavorava all’intelligenza artificiale di Google, e nello specifico al Language Model for Dialogue Applications (LaMDA), un software programmato per generare parole imitando il linguaggio umano. Dopo lunghe chiacchierate con LaMDA, Lemoine è giunto a una sua personale conclusione: il software con cui stava interagendo era un essere senziente, raccontando in un’intervista al Washington Post che "Riconosco una persona quando ci parlo. Non importa se ha un cervello fatto di carne. O se ha un miliardo di linee di codice".
Nonostante i suoi colleghi e superiori non siano rimasti impressionati dalle sue scoperte (tanto da congedarlo dalla posizione), le affermazioni di Lemoine che attribuiscono al modello una forma di coscienza hanno diffuso fantasie, entusiasmo e alimentato timori, oltre a facilitare una discussione mediatica sull’intelligenza artificiale. Principalmente, perché il suo ruolo di programmatore e ingegnere che ha costruito il software ha portato le persone, che normalmente non seguono il dibattito sui large language models, a fidarsi delle sue affermazioni. Proprio il tema della fiducia, invece, ha fatto emergere molte domande e riflessioni da parte di accademici e scienziati che lavorano quotidianamente con l’intelligenza artificiale. Joanna J. Bryson, professoressa di Etica e Tecnologia presso la Hertie School di Berlino, dove ha co-fondato il Centro per la Governance Digitale ed esperta di politica e regolamentazione dell'IA, si chiede: se persino ingegneri esperti possono ingannare se stessi individuando una coscienza in un modello che imita il linguaggio naturale, come possiamo proteggerci da prodotti negligenti o malevoli? (Articolo: One Day, AI Will Seem as Human as Anyone. What Then?)
L’impatto nel mondo delle decisioni automatizzate
I settori privati e pubblici in tutto il mondo stanno sempre più spesso sperimentando le decisioni automatizzate, delegando almeno una parte dei processi decisionali a software e modelli matematici. Ciò avverrà, con regole diverse, in qualsiasi ambito: dalla logistica ai servizi bancari, dall’urbanistica alle risorse umane, fino alle pensioni e alle cure mediche. La promessa è generalmente quella di aumentare l'efficienza e l'obiettività del loro processo decisionale, potendo analizzare contemporaneamente una quantità di dati molto più ampia di come potrebbe fare un qualsiasi essere umano, rintracciando pattern, similarità e cluster su larga scala. Tecniche molto richieste, perché permettono di risparmiare tempo e offrire una grande quantità di servizi personalizzati. Proprio questa capacità di generalizzazione però sta portando a interrogarsi con crescente attenzione sui possibili effetti problematici di alcune di queste applicazioni. Intelligenza artificiale applicata che, nei casi peggiori, può produrre effetti problematici e molto concreti sulla vita delle persone.
A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle (Suresh e Gutag, 2021)