Cos‘è un algoritmo e cosa succede quando sbaglia | Milena Gabanelli

Così un algoritmo influenza la nostra vita quotidiana | L’inchiesta

12/02/2020 13.44.00

Così un algoritmo influenza la nostra vita quotidiana | L’inchiesta

Dal reclutamento del personale alle assicurazioni sanitarie, sono tanti i casi di discriminazione da algoritmo

l’equivalente di una ricetta che i computer seguono passo dopo passoper ottimizzare e semplificare i processi: Internet è mosso da algoritmi, così come i motori di ricerca, i social network, le app, i navigatori, l’intelligenza artificiale, i videogiochi, i siti di dating e quelli che consigliano viaggi, libri o vini.

Gli azzurri hanno deciso: mai più divisi, tutti inginocchiati o tutti in piedi. Giovedì la scelta Gabriele Paolini in carcere: la condanna definitiva a 8 anni da scontare nella casa circondariale di Rieti I due ragazzi contro i genitori No Vax: «Vaccinateci, vogliamo essere liberi»

Tutte queste cose, senza algoritmi, non esisterebbero, e noi pensiamo che si muovano con precisione assoluta. Siccome sono «programmi» costruiti da uomini,succede che possano sbagliareun’analisidel 2017 del Pew Research Center spiega comeun utilizzo errato può dare a governi e grandi corporation troppo controllo sulla vita degli utenti, creare le cosiddette «filter bubble»

che offrono agli utenti continue conferme delle loro opinioni e, soprattutto,perpetrare le discriminazioni.La carta di credito sessista di AppleL’ultimo esempio lo abbiamo avuto a inizio novembre, quando un noto sviluppatore di software danese, David Heinemeier Hansson, si è scagliato contro Apple Card: «Io e mia moglie facciamo la dichiarazione dei redditi congiunta, ma l’algoritmo di Apple è sessista, perché headtopics.com

crede che io mi meriti una linea di credito 20 volte superiore alla sua».Il sospetto dell’informatico è stato confermato da molti utenti, fra cui il co-fondatore di Apple Steve Wozniak. Il dipartimento dei servizi finanziari dello Stato di New York ha aperto un’indagine, e a quel punto Apple ha accusato Goldman Sachs — che gestisce la carta di credito di Cupertino — e la banca d’investimento a sua volta ha accusato un algoritmo.

La verità assolutaIl problema è che l’algoritmo in questione non agisce spontaneamente, maè stato costruito su serie storiche di dati, che non tengono in considerazione i cambiamenti della società. «Se devi massimizzare il grado di solvibilità e guardi ai dati storici, storicamente gli uomini hanno sempre guadagnato più delle donne», ci spiega la professoressa della New York University Meredith Broussard, autrice del libro

Artificial Unintelligence: How Computers Misunderstand the World. Dai dati, infatti, gli algoritmi imparano le regole per classificare un nuovo casobasandosi su quelli già etichettati, che si definiscono «gold truth»(una sorta di verità assoluta): l’algoritmo capisce come comportarsi in base ai dati di cui dispone, trasformando ogni caso in un insieme di variabili, e apprendendo quali di queste influenzano la classificazione. L’obiettivo è riprodurre

la «gold truth», che però a volte può essere influenzata da un pregiudizio statisticoche confonde l’apprendimento.L’algoritmo che scarta i curriculum delle donneUn caso analogo si è verificato con un algoritmo messo a punto da Amazon nel 2014 per headtopics.com

Un mese alle Olimpiadi: le paure dei giapponesi, i sogni degli italiani. Il podcast Sala risponde a Paragone: 'Io 'fighetto'? Ci vuole coraggio a dirlo di uno che da 40 anni lavora come un pazzo' Migranti, Draghi: 'Gestione dei flussi non può essere solo italiana. Va superato Regolamento di Dublino, appartiene a un'altra fase storica' - Il Fatto Quotidiano

selezionare le persone da assumere attraverso la scrematura dei curriculum ricevuti. Il programma si basava sui dati estrapolati dai curriculum delle persone assunte negli ultimi dieci anni — quasi esclusivamente uomini — e di conseguenzascartava automaticamente le donne

. Quando l’ha capito, Amazon — i cui ruoli manageriali sono nel 74% dei casi ricoperti da uomini — ha abbandonato il progetto. Nonostante questo,di Pwc, le organizzazioni internazionali americane, europee, e asiatiche continuano ad affidare agli algoritmi circa il 40% delle funzioni che riguardano le risorse umane.

L’automatizzazione dei processi decisionaliLa discriminazioneavviene spesso nei settori che si affidano alla tecnologia per automatizzare alcuni processi decisionali. Secondouno studiodella Brookings Institution, ad esempio, la valutazione dei rischi usata dai giudici americani per stabilire se rilasciare su cauzione un detenuto in attesa di processo (il programma Compas) discrimina di default

gli afroamericani che, a parità di rischio con un detenuto bianco, si ritrovano cauzioni più alte e periodi più lunghi di detenzione. Se fino a qualche anno fa il giudice decideva valutando caso per caso, ora si affida ad un voto deciso da un algoritmo costruito su serie storiche di dati. Risultato: sono stati segnalati ad alto rischio, senza aver commesso nuovi crimini, il 44,9% degli afroamericani, contro il 23,5% dei bianchi. headtopics.com

I pazienti afroamericani più sani dei bianchiSempre negli Stati Uniti, la rivista Sciencecome un algoritmo usato comunemente dalle assicurazioni sanitarie consideri i pazienti neri più sani di quelli bianchi: invece di basarsi sui dati clinici delle singole patologie,

i programmatori hanno utilizzato come indicatore di riferimento i dollari spesida ogni singolo paziente assicurato per curarsi. Quello bianco spende mediamente di più e quello nero di conseguenza viene considerato più sano, quindi le assicurazioni gli passano meno cure.

In Edicola sul Fatto Quotidiano del 23 Giugno: - Il Fatto Quotidiano Covid in Campania, tutti gli aggiornamenti di oggi in diretta Le 'star' di Twitter potranno proporre contenuti a pagamento - Ultima Ora

Se non ci fosse un criterio di razza, i pazienti neri che ricevono trattamenti medici passerebbero dal 17,7% al 46,5%.Il digital welfare state aumenta le disuguaglianzeTutto questo succede perché gli algoritmi non hanno la flessibilità e la capacità di giudizio umana e,

basandosi su modelli statistici e matematici di lungo periodo, finiscono per incentivare stereotipi o discriminazioni. Un allarme lo ha lanciato l’Osservatorio sulla povertà estrema delle Nazione Unite: la digitalizzazione selvaggia dei servizi sociali nella pubblica amministrazione —

il cosiddetto «digital welfare state» — in molti casi aumenta le disuguaglianze e colpisce le fasce più povere della popolazione, sia nei Paesi industrializzati che in quelli in via di sviluppo, trasformando i bisogni dei cittadini in numeri.

La decisione del tribunale dell’AjaProprio per questa ragione il 5 febbraio il tribunale dell’Ajal’immediata sospensione dell’algoritmo Syri, adottato a partire dal 2014 dal ministero per gli Affari sociali olandesi. Incrociava i dati di 17 database — fra cui quelli fiscali, medici, dei servizi sociali e delle utenze — per

capire se chi percepisce sussidi o altre forme di welfare poteva essere incline a commettere frodi, ma veniva utilizzato nei quartieri più poveri e ad alta densità di immigrati dei Paesi Bassi.Secondo il tribunale si trattava di una violazione dei diritti umani

. «Una sentenza storica, che impedisce al Governo di spiare i poveri», ha commentato Philip Alston, il rappresentante speciale dell’Onu sulla povertà.Il caso italiano dell’IsaIn Italia l’algoritmo Isa che calcola quanto ogni cittadino deve al fisco è in corso di revisione,

: era stato programmato sulla dichiarazione dei redditi degli ultimi dieci annisenza considerare le variabili dell’anno sul quale paghi le tasse.Sull’utilizzo degli algoritmi si sono espressi sia il Tar del Lazio che il Consiglio di Stato: possono far parte del processo amministrativo, hanno scritto, ma

a condizione che siano comprensibili e soggetti all’intervento umano.La revisione esterna dell’algoritmoSecondo la professoressa Broussard, per vent’anni si è pensato che algoritmi fossero migliori dell’uomo, ma ora ci stiamo rendendo conto che non è così. E infatti

sta nascendo una nuova industria di specialisti pagati per prevedere ed eludere le falle tecnologiche, come la O’Neil Risk Consulting & Algorithmic Auditing, che è stata la prima a sottoporre gli algoritmi a una revisione esterna. Valuta la trasparenza con la quale è costruito il software, l’equità, l’accuratezza, e aiuta i propri clienti a individuare le conseguenze dei propri algoritmi

. Questa pratica è diventata un trend comune, al punto che anche colossi come Deloitte hanno un settore dedicato alla gestione dei rischi degli algoritmi dei loro clienti. A pagamento, ovviamente. Leggi di più: Corriere della Sera »

Covid, stop mascherine all'aperto: ecco quando potrebbe arrivare

Leggi su Sky TG24 l'articolo Covid, stop mascherine all'aperto: ecco quando potrebbe arrivare

Telefoni cellulari e tumori al cervello: cosa dicono 20 anni di ricerche. La diretta di Milena GabanelliCellulari e tumori al cervello: cosa dicono 20 anni di ricerche? La diretta di Milena Gabanelli

Telefoni cellulari e tumori al cervello: cosa dicono 20 anni di ricerche. La diretta di Milena GabanelliCellulari e tumori al cervello: cosa dicono 20 anni di ricerche? La diretta di Milena Gabanelli

Air Italy, cosa succede adesso a chi ha comprato biglietti e ai lavoratoriL'operatività della compagnia aerea sembra al capolinea. A meno di stravolgimenti dell'ultim'ora, Air Italy ha già ufficialmente abbandonato i cieli. Il fermo tecnico sui voli è stato applicato a partire dall’11 febbraio. Ma c’è una data che farà da spartiacque in questo frangente, ed è quella del 25 febbraio

Budapest, Marrakech, Helsinky: mete e rituali per il benessere al maschileSecondo una ricerca eDreams il 34% degli uomini italiani quando sceglie la meta di un viaggio cerca soprattutto il dolce far niente e il relax Helsinki ;-) hellseenki

Precipita un ultraleggero nel Siracusano, due vittime - La StampaIl velivolo ha preso fuoco quando si è schiantato al suolo

Brasile. La guerra-santa dei Narcos evangelici contro i culti tradizionali di origine africanaTra i gruppi criminali neo-pentecostali più attivi ci sono i 'banditi di Gesù' accusati di atti di terrorismo religioso Brasile