VISITE TOTALI: 75

Oggi vi presentiamo una nuova puntata del nostro viaggio introduttivo all’interno dell’universo dell’intelligenza artificiale.

Nel precedente articolo ci siamo detti quanto l’IA possa compiere errori nel fornire dati incompleti, di bassa qualità o slegati dal contesto socio economico contingente, almeno allo stato attuale dei fatti.

Sebbene il panorama dell’intelligenza artificiale sia vastissimo ed in continua “crescita”, in termini di applicazioni e di ottimizzazione dei dati forniti, possiamo dire che, ad oggi, molti sono i casi in cui essa ha fornito risposte basate su dati non corretti o interpretazioni imprecise in vari contesti. Siamo all’inizio di una rivoluzione nel nostro modo di approcciarci al mondo dei dati? Lo vedremo nel tempo. Per ora, la nostra facoltà di astrarre, d’intuire, di percepire la soluzione adatta in un contesto complicato, è da considerarsi una ricchezza di cui far buon uso.

Ecco alcuni fra i casi più significativi di errori dell’IA:

Microsoft Tay (2016): questo chatbot di Microsoft, ovvero un software che simula ed elabora le conversazioni umane, progettato per apprendere dalle interazioni con gli utenti di Twitter, ha iniziato a pubblicare tweet offensivi e razzisti dopo poche ore, riflettendo il linguaggio e i comportamenti inappropriati degli utenti online. Microsoft ha dovuto ritirare Tay dopo meno di 24 ore.

Amazon Recruiting Tool (2018): Amazon ha sviluppato uno strumento di intelligenza artificiale per selezionare i candidati, ma il sistema ha mostrato una distorsione di valutazione contro le donne. Il modello si basava sui dati dei curriculum inviati ad Amazon negli ultimi dieci anni, che riflettevano una predominanza di candidati maschi, portando l’IA a penalizzare i curriculum con parole chiave associate alle donne.

gli errori delle IA

IBM Watson for Oncology (2018): IBM Watson è stato utilizzato in diversi ospedali per aiutare a formulare piani di trattamento per i malati di cancro. Tuttavia, è emerso che Watson forniva raccomandazioni non corrette o pericolose, in parte perché i dati di addestramento erano limitati e non rappresentativi della popolazione generale di pazienti oncologici.

Apple Credit Card (2019): l’algoritmo di IA utilizzato per determinare i limiti di credito della Apple Card è stato accusato di discriminazione di genere, con casi in cui le donne ricevevano limiti di credito significativamente inferiori rispetto agli uomini, anche con situazioni finanziarie simili.

Google Photos (2015): un caso famoso in cui Google Photos ha etichettato erroneamente persone di colore come “gorilla”. Google ha successivamente rimosso del tutto la categoria “gorilla” dall’app per evitare ulteriori incidenti del genere.

COMPAS (2016): il sistema di intelligenza artificiale COMPAS, utilizzato negli Stati Uniti per valutare la probabilità di recidiva criminale, è stato trovato avere un pregiudizio razziale. Un’indagine ha rivelato che l’IA sovrastimava il rischio di recidiva per i neri e lo sottostimava per i bianchi.

GPT-3 Toxicity (2020): GPT-3, un modello di linguaggio sviluppato da OpenAI, ha mostrato una tendenza a generare testo con distorsioni e pregiudizi, quando innescato da certi input.

Google Health AI (2020): un’IA sviluppata da Google per rilevare il cancro al seno ha mostrato performance inferiori quando utilizzata su popolazioni diverse da quelle su cui era stata addestrata. Ad esempio, l’accuratezza era significativamente inferiore per le donne di origine asiatica e africana.

Facebook AI (2021): l’algoritmo di moderazione dei contenuti di Facebook ha erroneamente etichettato come “inappropriate” diverse immagini di famiglie indigene dell’Amazzonia che celebravano cerimonie culturali. Ciò riflette i limiti dei modelli di intelligenza artificiale nel comprendere il contesto culturale.

Questi sono solo alcuni esempi utili per comprendere quanto parlare di IA oggi significhi parlare di un mondo vastissimo in continua evoluzione che, per il momento, in alcuni casi, al pari di un cucciolo, sta imparando dai suoi errori e dai nostri input, non sempre così puntuali.

Il tutto, per dire che se esistono applicazioni di enorme utilità in tutti i settori operativi, meglio che l’essere umano non dimentichi la propria capacità di valutare con lungimiranza, di fare collegamenti, di comprendere la sensatezza di una risposta fornita dall’IA, l’opportunità di porsi domande ed approfondire i temi di suo interesse.

Condividi