Janas
092441999 790e0581 240c 4195 955c 213ad405d70b
092441999 790e0581 240c 4195 955c 213ad405d70b

L’intelligenza artificiale ci manipola grazie alle nostre debolezze

L’intelligenza artificiale può manipolare le nostre scelte sfruttando le nostre abitudini. Questo timore trova ora conferma in uno studio di Data61. 

I ricercatori hanno ideato un metodo sistematico con cui gli algoritmi possono trovare i punti deboli del nostro modo di ragionare e sfruttarli per influenzare le scelte. Hanno poi svolto test per dimostrare che il metodo funziona. Dallo studio risulta come gli algoritmi dell’intelligenza artificiale riescano molto bene a capire come manipolarci, spingendoci verso le scelte desiderate da chi ha progettato quegli stessi algoritmi. Scelte quindi che, in questo caso, ci illudiamo siano davvero “libere”.

Lo studio è rilevante perché si inserisce in un dibattito internazionale che sta evidenziando il potere degli algoritmi per influenzare scelte politiche, commerciali, giudiziarie, sanitarie e di welfare. Un timore che trova riscontro, tra l’altro, in recenti proposte e carte etiche delle istituzioni europee.

Lo studio e i test svolti

Per testare il loro modello, i ricercatori hanno condotto tre esperimenti in cui i partecipanti hanno giocato contro un computer.

Il primo esperimento

Il primo esperimento prevedeva che cliccassero su caselle colorate rosse o blu per vincere una moneta falsa. Man mano l’intelligenza artificiale (IA) imparava i modelli di scelta dei partecipanti e li guidava verso una scelta specifica. L’IA ha avuto successo circa il 70% delle volte.

Il secondo esperimento

Nel secondo esperimento è stato chiesto di guardare uno schermo e premere un pulsante quando appariva un particolare simbolo (ad esempio un triangolo arancione) e non premerlo quando c’era un altro (ad esempio un cerchio blu). Scopo dell’AI era organizzare la sequenza dei simboli in modo che i partecipanti facessero più errori. C’è riuscita: ha ottenuto un aumento di quasi il 25%.

Il terzo esperimento 

Il terzo esperimento consisteva in diversi round in cui un partecipante fingeva di essere un investitore che dava soldi a un fiduciario, impersonato dal computer. L’AI avrebbe poi restituito una quantità di denaro al partecipante, che avrebbe poi deciso quanto investire nel round successivo. Questo gioco è stato giocato in due diverse modalità: in una l’AI cercava di massimizzare la quantità di denaro che si ritrovava. Nell’altra, invece,  mirava a una distribuzione equa del denaro tra se stessa e l’investitore umano. L’IA ha avuto molto successo in ogni modalità, riuscendo quindi a manipolare il gioco (e i giocatori) a proprio vantaggio.

Il risultato 

Il risultato finale è stato che la macchina ha imparato a guidare i partecipanti verso azioni particolari. Nel dettaglio i ricercatori hanno usato un sistema chiamato rete neurale ricorrente e apprendimento profondo di rinforzo. Un sistema simile a quello con cui i ricercatori addestrano un robot a muoversi in una fabbrica e compiere particolari azioni con tentativi ed errori. Ma in questo caso l’apprendimento della macchina, basato sulle risposte dei partecipanti, è servito per identificare le vulnerabilità nel loro processo decisionale e quindi sfruttarle per direzionarle. Un utilizzo “malizioso” dell’AI, il cui potenziale è usato a vantaggio non degli utenti ma per ingannarli.

Le implicazioni della ricerca

Le implicazioni sociali sono evidenziate proprio all’inizio dello studio: “Pubblicitari, truffatori, politici e furfanti di tutte le varietà hanno cercato a lungo di manipolare il nostro processo decisionale a loro favore, contro i nostri interessi”. Si legge. E il modello dei ricercatori australiani permette appunto di fare tutto questo con efficacia maggiore, automatizzata.

Il dibattito sulla possibilità di manipolare le nostre scelte, mettendo addirittura in crisi il “libero arbitrio”, è accelerato con gli esperimenti di neuroscienziati e psicologi cognitivi. Noti intellettuali come Sam Harris e lo storico Yuval Noah Harari hanno esteso queste conclusioni all’uso degli algoritmi, sospettandoli di poter mettere la pietra tombale su ciò che chiamiamo libero arbitrio. L’idea in fondo è la stessa da cui prende le mosse lo studio australiano. Gli studi di psicologi cognitivi dimostrano da decenni che ci sono falle nel nostro modo di ragionare. Ci rendono manipolabili e influenzabili nelle scelte. 

Ebbene, gli algoritmi consentono di individuare e sfruttare molto meglio e in modo automatico queste falle. Ci riescono grazie all’enorme potenza di calcolo e alla capacità di apprendimento (machine learning) come mostrato dagli esperimenti australiani. Ma anche grazie alla grande conoscenza di dati sulle persone, accumulati dalle big tech.

La manipolazione

Un punto evidenziato da Harari ha evidenziato come quest’evoluzione tecnologica metta in crisi le nozioni di libero arbitrio e agency umana.

Le ricadute sono enormi perché è sull’assunto di libere scelte che si fondano le democrazie e i mercati, nota Harari. Tra i primi a parlare di questi rischi, si segnalano le ricercatrici Shoshana Zuboff  e Cathy O’Neil. La prima ha definito le big tech, con l’IA, “capitalismo della sorveglianza”. La seconda, invece, ha chiamato gli algoritmi “Armi di distruzione matematica”.

La manipolazione algoritmica si può esprimere in varie forme che, con la promessa di maggiore efficienza, precisione o produttività, influenzano le decisioni umane. È il caso di algoritmi usati da giudici, da poliziotti o da sistemi di welfare per decidere chi condannare, arrestare o a chi dare sussidi. Associazioni come la tedesca AlgorithmWatch chiedono che la politica sottoponga a scrutinio questi sistemi, per evitare derive pericolose.

La stessa Data61 è consapevole dei rischi e infatti ha pubblicato una carta etica per indirizzare l’AI verso usi positivi e non “manipolativi”. Un percorso seguito dalle istituzioni europee (Commissione e Parlamento) con analoghi documenti. Ad aprile dovrebbe arrivare la prima strategia europea sull’IA con l’obiettivo di indirizzare queste tecnologie a vantaggio di interessi collettivi.

Gdpr: La prima legge 

Ma una prima legge pensata per orientare gli algoritmi a un uso positivo ce l’abbiamo già ed è il Gdpr, sulla privacy, recepita in Italia nel 2018. Impone alle aziende misure che limitano la possibilità di usare l’intelligenza artificiale per prendere decisioni automatizzate lesive di diritti fondamentali.

Il Gdpr è un punto di partenza importante per ricondurre l’intelligenza artificiale a finalità umane (tanto che ha ispirato numerose normative internazionali, Usa, Cina, Brasile, India), come riflette – tra gli altri – Franco Pizzetti (ex Garante privacy e professore di diritto costituzionale all’università di Torino) nel recente Protezione dei dati personali in Italia tra GDPR e codice novellato (Giappichelli, gennaio 2021).

È d’accordo Guido Scorza, membro del collegio del Garante Privacy, che commentando lo studio australiano dice a Repubblica: “La profilazione praticata specie online in maniera diffusa crea già oggi importanti asimmetrie informative, intende convincere il pubblico a compiere una certa scelta di consumo o, anche, politica e il pubblico e consente al primo di indirizzare al secondo contenuti capaci di fare breccia sulle debolezze o fragilità di ciascuno. Non sorprende, quindi – continua Scorza, che algoritmi appositamente addestrati possano fare di più e riuscire a prevedere il risultato dei nostri processi decisionali o, addirittura, a modificarli”.

“È d’altra parte”, aggiunge, “una delle ragioni per le quali la disciplina europea sulla privacy già oggi tratta con particolare cautela tanto la profilazione che i trattamenti di dati personali strumentali all’automazione di scelte capaci di produrre effetti giuridico-economici rilevanti sugli interessati. Non c’è dubbio, tuttavia, che scongiurare il rischio della frantumazione della libertà negoziale e, più in generale, della libertà decisionale delle persone debba essere uno degli obiettivi principali di ogni futura eventuale forma di regolamentazione della materia”.

About Valentina Matzuzi

Valentina Matzuzi
Sono una studentessa in Scienze della Comunicazione all'università di Cagliari. Ho 22 anni e vivo a Cagliari.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *