giovedì, Maggio 16, 2024

TECNOLOGIA E RESPONSABILITÀ: UNO SNODO DECISIVO

The Science of Where Magazine incontra Federico Cabitza, professore associato presso l’Università di Milano-Bicocca (Milano, Italia) dove insegna interazione uomo-computer, interaction design e sistemi informativi, e dove dirige il nodo locale del laboratorio nazionale CINI su Informatica e Società.

E’ autore, con Luciano Floridi, del libro Intelligenza artificiale. L’uso delle nuove macchine (Bompiani 2021).

– Prof. Cabitza, ci interessa molto ragionare del tema dell’innovazione tecnologica come “fatto umano”. Può parlarne ai nostri lettori ? 

Cominciamo con due considerazioni, oramai tanto note quanto ritenute solide: la tecnologia non è nè buona, nè cattiva; ma neppure neutra, perché ogni strumento offre e suggerisce sempre un insieme di usi potenziali e ne inibisce altri: come dice il mio amico Marco Gui, un sociologo molto attento all’impatto della tecnologia sulla nostra società, “le tecnologie non sono del tutto aperte rispetto agli usi che i fruitori decidono di farne”. Inoltre, gli strumenti tecnologici incorporano interessi, finalità, e concezioni di chi le progetta, costruisce e commercializza: questi attori fanno tutti parte della società in cui viviamo, certo non sono esterni ad essa, ma sono spesso portatori di interessi diversi rispetto a quelli degli utenti. Gli strumenti tecnologici, anche quelli digitali, reificano, cioè rendono prima oggetto materiale e poi “cosa”, modi specifici di fare qualcosa e di raggiungere uno scopo; ma così facendo essi rendono anche quegli scopi raggiungibili e quindi integrabili nelle pratiche e intenzioni di chi li usa. Si può quindi dire che è vero che la progettazione di ogni tecnologia è influenzata dalla società e dalla cultura in cui essa è  concepita e usata, almeno quanto è vero che ogni tecnologia influenza i suoi utenti e forma in essi percezioni, attitudini e abitudini specifiche. Nel mio settore si chiama “fattore umano” ogni relazione che si costituisce tra esseri umani e la loro occupazione, gli strumenti e l’ambiente in cui operano, soprattutto quando riconosciamo che in tale relazione vi è la duplice caratteristica di essere sia formata dall’uso che in grado di dare forma all’uso (cf. Brown e Hendrick). Quindi è importante riconoscere che la tecnologia è un fatto umano (cioè qualcosa che è sempre prodotta da esseri umani per altri esseri umani), ma che è anche in grado di creare qualcosa per noi e dentro di noi: è letteralmente sia un fatto che un fattore umano!

– E’ molto importante il tema della responsabilità sia nell’utilizzo delle tecnologie da parte degli utenti che da parte dei progettisti delle tecnologie emergenti e “disruptive”, in particolare l’intelligenza artificiale. Torna spesso, nel libro, il nome di Hans Jonas. Qual’è la Sua opinione ? 

Hans Jonas è un pensatore che, tra gli altri ma direi più chiaramente di altri, ha espresso una posizione netta e decisa affinché si potesse uscire da un discorso etico che è unicamente incentrato su valori e principi astratti, e quindi un discorso condizionato dal rischio di essere o di difficile comprensione, o di difficile applicazione o peggio, di poter essere imposto da qualcuno a qualcun altro (“fare così è giusto”, “fare così è sbagliato”), perché sia possibile adottare (o almeno parlare di) una posizione pragmatica e volta alle conseguenze delle nostra azioni, e per questo definita consequenzialista. Con la crescente complessità dei dilemmi e delle scelte che dobbiamo affrontare in un contesto sempre più globale e imprevedibile, reputo infatti che sia opportuno passare dalla cosiddetta ‘etica dell’intenzione’, di chi è convinto della esistenza e correttezza di principi assoluti, ad una ‘etica della responsabilità’, che in prima analisi cerca di valutare gli effetti del proprio agire. Una tale posizione è volta, da una parte, a capire come certe scelte e decisioni di oggi possono contribuire a realizzare, consolidare o normalizzare un certo futuro; e, dall’altra, a valutare se nella realizzazione di questo futuro gli effetti positivi siano superiori o più importanti delle conseguenze negative che inevitabilmente ci portiamo dietro. Le faccio un esempio: l’Internet delle Cose oggi, e forse il Metaverso domani, sono strumenti e piattaforme che ci intrattengono e ci semplificano la vita, con la loro cornucopia di servizi e opportunità di accesso ad informazioni e prodotti; ma la loro adozione e diffusione implica necessariamente scenari di crescente profilazione e sorveglianza (altrimenti non funzionano). Siamo disposti a scambiare qualcosa della nostra libertà e autonomia, per incrementi più o meno forti per quanto riguarda sicurezza e comodità? Nella transizione ci guadagniamo o perdiamo qualcosa di irrecuperabile e prezioso? Dobbiamo cioè cominciare a chiederci se una certa innovazione, oltre ad essere appunto una novità, è anche associata ad un reale e stabile progresso lungo le dimensioni che più ci interessano, quali quelle della giustizia sociale, della sostenibilità ecologica, della prosperità e del benessere. L’etica della responsabilità, riproposta da Jonas dopo le intuizioni di Weber e di tanti altri che l’hanno preceduto, ci impone di farci domande che danno concretezza, ma estendono anche, domande quali “fare questo è giusto?” “quello che voglio realizzare è buono?”, quali, ad esempio: “a chi gioverà veramente questa cosa?”, “a chi arrecherà danno?”, “cosa voglio veramente realizzare in questo modo?”; “perché?”

– Kate Crawford, nel libro “Né intelligente né artificiale. Il lato oscuro dell’IA”, scrive dell’uso dell’IA come potere. E’ un tema immenso. Come lo spiegherebbe a chi non è esperto in materia ? 

Le tecnologie a supporto di compiti cognitivi, come sono quelle che possiamo annoverare sotto il vago e generale termine di “intelligenza artificiale”, esprimono la loro funzione principale nel proporci suggerimenti in grado di influenzare (ovviamente positivamente) le nostre scelte e giudizi: in questo senso hanno (e diamo loro) il potere di condizionarci in compiti che, per definizione, sono complessi e richiedono doti non comuni e intelligenza. Lo fanno sulla base degli schemi e dei pattern che queste tecnologie hanno “imparato” a partire da una mole enorme di giudizi e interpretazioni passate, più o meno giuste e attendibili. Allora possiamo rifrasare un famoso detto concepito da Orwell in 1984: “chi controlla il presente controlla il passato”, cioè chi imposta e impone un certo metodo per determinare quali siano le decisioni giuste fatte in passato crea la verità di riferimento (ground truth) dei sistemi di intelligenza artificiale. E “chi controlla il passato controlla il futuro”, cioè chi concepisce e diffonde una tecnologia che può suggerire certi schemi del passato per interpretare il presente di fatto si propone come un suggeritore di azioni che determinano, o contribuiscono a realizzare, un certo futuro e non un altro. Questo lo dicono anche Elena Esposito e Mireille Hildebrandt quando fanno notare come i “futuri presenti” (cioè le predizioni della macchina) possono contribuire a realizzare “presenti futuri”, cioè le situazioni che vivremo in futuro, che senza quelle predizioni non si sarebbero mai concretizzate: gli esseri umani possono cioè prodigarsi ad “avverare” le predizioni dell’l’intelligenza artificiale anche quando questa si sbaglia, soprattutto se essi falliscono nell’esercitare autonomia di giudizio e non applicano sufficiente riflessione critica e prudenza ai suggerimenti che ricevono. Se è vero che “conoscenza è potere”, chi controlla come la conoscenza può muovere i nostri assistenti e robot, e come questi contribuiscono a creare nuova conoscenza, ha un potere enorme e, ad oggi, ancora del tutto privo di controllo normativo; e, soprattutto, un potere di cui è ignara la maggior parte degli utenti e dei soggetti coinvolti, ad esempio chiunque usi un motore di ricerca per trovare una certa informazione, o acquisti un assistente vocale per controllare gli elettrodomestici di casa sua.

– C’è poi la grande partita dei dati. Noi approfondiamo la “scienza del dove”, soluzioni tecnologiche che lavorano sulla geolocalizzazione per l’organizzazione e il governo dei dati. Il tutto a favore del miglioramento della governance delle città e dei territori, con implicazioni in vari settori fino allo spazio. Cosa pensa di uno sviluppo data-driven ? 

Posso citare lo scrittore Stan Lee quando scrive in un suo famoso fumetto che “con un grande potere viene anche una grande responsabilità”: i dati sono una straordinaria fonte di conoscenza, in quanto sono la traccia di innumerevoli interpretazioni e azioni, molte delle quali possono essere riconosciute, con il senno di poi, come giuste od opportune, e quindi assunte come modello e riferimento per il futuro. Il termine ground truth, che abbiamo menzionato poco fa, nasce in topografia e denota una verità di riferimento che è necessaria per poter costruire mappe affidabili: anzi, denota “la” verità di riferimento, che elimina tutte quelle alternative in quanto più imprecise, inaccurate o meno adeguate allo scopo per la quale tale verità è raccolta e definita. Ma le mappe non sono solo strumenti rappresentazionali: sono soprattutto strumenti per dare forma alla prassi, cioè per abilitare, e quindi influenzare, scelte che determinano linee di azione, letteralmente dei percorsi: consultando una mappa io vedo – quindi capisco – che la strada che costeggia la dorsale montuosa è sì più lunga di quella che passa per il passo tra due vette, ma è anche quella meno in pendenza e quindi più adatta al veicolo che ho a disposizione, e quindi scelgo di percorrere quella strada, anziché qualsiasi altra alternativa. Quando noi integriamo una mappa in uno strumento in grado di suggerirci la via da percorrere, ad esempio un navigatore satellitare, stiamo anche proponendo, in maniera tanto dolce quanto convincente, un modo di giudicare possibili alternative e di fare scelte “razionali” o ottimali riguardo ad un percorso da compiere per raggiungere il punto B partendo da A. Ad esempio tale strumento integra anche un metodo e un insieme di criteri per i quali può essere considerata più importante la percorribilità rispetto ad altre dimensioni, quali ad esempio la durata del viaggio, oppure la sua lunghezza, oppure la sua impronta ecologica, oppure ancora il suo costo; e i criteri possono essere combinati insieme in molti modi diversi, per tener conto di ciascuno criteri rispetto a determinati pesi, che sono, ancora una volta, stabiliti da qualcuno, con qualche finalità in mente e rispetto a qualche idea di valore e “ottimalità”. Con questi suggerimenti io posso evitare congestioni stradali o, paradossalmente, produrle (anche involontariamente); posso portare ad un aumento del giro di affari in una certa regione, oppure allontanare potenziali avventori da una certa località. Posso farlo di proposito, oppure perseguendo altri obiettivi in nome della efficienza o della comodità; oppure come conseguenza indiretta della inaccuratezza del mio processo di raccolta e definizione della verità. Insomma, come si è detto spesso, gli approcci basati sui dati sono molto potenti dal punto di vista della accuratezza predittiva e sono in grado di trovare correlazioni suggestive dove altrimenti vedremmo solo una complicatezza inestricabile. ma sono anche metodi ciechi e sordi ai meccanismi causali che sottendono un certo fenomeno e, soprattutto, sono straordinari pretesti per digitalizzare quanto più possibile della nostra vita e dei nostri territori (anche in senso metaforico). Cosa che non è necessariamente un bene (sempre secondo l’ottica consequenzialista di cui abbiamo parlato sopra).

– Infine, tra le Sue competenze vi è il tema delle tecnologie applicate al settore della salute. Come vede questo rapporto “strategico” nel periodo post-pandemico ? 

La pandemia ci ha fatto capire, ancora una volta, quanto le attuali tecnologie digitali possono essere utili per mettere in relazione e comunicazione le persone al di là dei vincoli fisici esistenti, sia temporali che spaziali. Però ci ha anche fatto capire come la presenza fisica e la frequentazione reale sia una componente importante della socialità e della relazione umana, anche per produrre nuova conoscenza, o coordinarsi, o semplicemente capirsi e mettersi d’accordo; non tutto è riconducibile ad un testo, o ad una immagine a mezzo busto, un video o una registrazone. Allo stesso modo, negli ultimi 4 anni le tecnologie digitali basate su tecniche e metodiche dell’apprendimento automatico hanno dimostrato di poter esprimere un potenziale enorme per aiutare medici e operatori sanitari nelle loro azioni quotidiane e nei compiti di interpretazione e predizione che possono impattare maggiormente l’esito delle cure, quali la diagnosi, la prognosi e la pianificazione terapeutica. Ciò detto, il dato medico non è molto diverso da quello geografico: se non investiamo adeguatamente in attività per raccogliere una verità di riferimento davvero attendibile e rappresentativa della complessità dell’ambiente in cui questi strumenti operaranno, finiremo per non realizzare il potenziale di questi strumenti, nè potremo prevenire o mitigare rischi importanti per la stessa qualità della pratica medica e per l’appropriatezza e la sicurezza delle cure; tra cui qui ricordiamo il deskilling, o perdita di competenze da parte degli operatori sanitari; e l’automation bias, o l’eccesso di fiducia e sovradipendenza di questi nei confronti delle tecnologie che dovrebbero renderli più efficaci, più accurati ed efficienti. Come si è detto sopra: non bisogna pensare a queste tecnologie come a dei fattori che possono migliorare il nostro lavoro sempre e comunque, a prescindere da come sono progettate, costruite e usate; al contrario, il potenziale di queste tecnologie può dispiegarsi in maniera positiva, o almeno con un bilancio netto positivo rispetto a ciò che perdiamo (competenze, forse empatia) e guadagniamo (cure più accessibili e sostenibili, forse accuratezza), solo se sono progettate consapevolmente, rispettando normative e regolamenti (quali, ad esempio, il GDPR), e se sono governate adeguatamente e responsabilmente (ad esempio, considerando il loro impatto sul capitale umano di una organizzazione o di un settore produttivo), e sottoponendole ad una continua e scrupolosa valutazione (tanto che si parla per queste tecnologie di istituire una vera e propria tecno-vigilanza, similmente a quanto si fa già per i dispositivi medici e i farmaci); una valutazione, lo voglio chiarire meglio, del loro impatto e dei loro effetti nel medio e lungo periodo. Una operazione complessa, questa, per cui non esistono sconti o scorciatoie, ma che richiede conoscenze e competenze ben precise (appunto nell’ambito dell’ergonomia cognitiva, dei fattori umani e di altre scienze della progettazione), oltre che la volontà politica di applicarle e di investirci adeguatamente, con il contributo essenziale, in termini di responsabilità e consapevolezza, di tutti i soggetti coinvolti, medici e pazienti inclusi.

 

Ultimi articoli