Dicembre 30, 2020 0

Coronavirus: La distribuzione dei vaccini contro il coronavirus si basa su algoritmi per decidere chi li riceve

Coronavirus: La distribuzione dei vaccini contro il coronavirus si basa su algoritmi per decidere chi li riceve

La colpa dell’algoritmo da parte dei funzionari di Stanford ha ignorato il fatto che il sistema stava semplicemente seguendo una serie di regole messe in atto dalle persone. I progettisti di algoritmi temono che dare la colpa a quelle che in realtà sono formule matematiche create da esseri umani alimenterà la diffidenza del pubblico nei confronti del lancio dei vaccini.

Il vero problema, sostengono, è un processo decisionale arbitrario e opaco che non coinvolge le persone che sarebbero più interessate dalle decisioni. Se il modo in cui funzionava l’algoritmo fosse stato discusso in anticipo in modo più trasparente, sostengono, i professionisti medici sarebbero stati più fiduciosi nei risultati o, forse, avrebbero addirittura individuato la svista in anticipo.

Studenti, insegnanti e genitori la scorsa settimana hanno protestato dopo che i loro risultati di livello A sono stati declassati da un algoritmo governativo.Credito:Getty Images

Gli algoritmi, sostengono, potrebbero svolgere un ruolo importante nell’aiutare in modo rapido ed equo a distribuire scorte limitate del vaccino alle persone che ne avrebbero più bisogno. A differenza dei loro progettisti umani, gli algoritmi non possono essere sottoposti a pressioni, intimidazioni, intimidazioni o corruzioni e applicano le stesse regole a tutti i partecipanti, imparziali da qualsiasi relazione personale o rancore.

Ma con una guida limitata per la salute pubblica e così tanti fattori in gioco, gli algoritmi potrebbero anche finire per essere incolpati quando le cose andranno male. La loro applicazione a medicine potenzialmente in grado di alterare la vita serve solo ad aumentare la posta in gioco.

“Su questa enorme scala globale, la risposta non può essere che le persone agiscono solo in base ai propri istinti istintivi e ai propri giudizi”, ha detto Cat Hicks, un ricercatore senior che scrive algoritmi e costruisce modelli predittivi presso la Khan Academy, un’organizzazione non profit nel settore dell’istruzione.

Questi dati “ci danno la possibilità di concordare qualcosa, di definire uno standard di prova e dire che questo corrisponde a ciò su cui tutti eravamo d’accordo”, ha aggiunto. “Ma non puoi escludere gli esseri umani dal processo. Devono essere testati, verificati, rafforzati la fiducia in modo da avere più trasparenza … e possiamo pensare: quali persone potrebbero essere escluse?”

Gli algoritmi sono fondamentali per i risultati di ricerca.

Gli algoritmi sono fondamentali per i risultati di ricerca. Credito:AP

Questi scontri sulla trasparenza dei vaccini potrebbero svolgere un ruolo crescente man mano che le forniture si spostano dagli ospedali ai datori di lavoro privati ​​e poiché le persone hanno voglia di riprendere la loro vita normale. La scorsa settimana un comitato consultivo dei Centri per il controllo e la prevenzione delle malattie ha raccomandato che gli anziani e i lavoratori dei settori essenziali, inclusi gli agenti di polizia, gli insegnanti e gli addetti ai negozi di alimentari, abbiano accesso ai vaccini prima di soddisfare le esigenze di assistenza sanitaria.

Ma gli algoritmi stanno già giocando un ruolo chiave nel decidere le distribuzioni dei vaccini. Alcune delle prime persone a essere vaccinate negli Stati Uniti, all’inizio di questo mese al George Washington University Hospital, sono state selezionate da un algoritmo che ha segnato la loro età, condizioni mediche e rischio di infezione, ha detto un funzionario federale al New York Times.

Gli algoritmi stanno anche guidando la distribuzione di massa del vaccino da parte del governo federale a livello nazionale. L’operazione Warp Speed ​​dell’amministrazione Trump utilizza Tiberius, un sistema sviluppato dalla società di data mining Palantir, per analizzare i dati sulla popolazione e sulla salute pubblica e determinare le dimensioni e la priorità delle spedizioni di vaccini ai singoli stati. Lo sforzo è già stato vanificato da problemi di comunicazione e ritardi nelle spedizioni.

L’algoritmo del “punteggio della sequenza di vaccinazione” di Stanford ha utilizzato una manciata di variabili limitate, tra cui l’età di un dipendente e la prevalenza stimata dell’infezione da COVID-19 in base al ruolo professionale, per assegnare un punteggio a ciascun dipendente e stabilire il suo posto in linea. Le persone di età pari o superiore a 65 anni, o 25 o più giovani, hanno ricevuto un bonus di 0,5 punti.

Ma il problema, hanno detto alcuni progettisti algoritmici, era nel modo in cui venivano calcolati i diversi punteggi. Un dipendente di 65 anni che lavora da casa otterrebbe 1,15 punti aggiunti al proprio punteggio, basato esclusivamente sulla sua età. Ma un dipendente che ha lavorato in un lavoro in cui la metà dei dipendenti è risultata positiva al coronavirus otterrebbe solo 0,5 punti aggiuntivi.

Quel difetto del sistema di punteggio, tra gli altri, ha lasciato i medici confusi e frustrati quando hanno visto che amministratori di alto livello e medici che lavoravano da casa venivano vaccinati ogni giorno davanti ai professionisti medici nelle stanze dei pazienti. Solo sette medici residenti nell’ospedale erano tra i primi 5000 in linea.

A differenza di algoritmi più sofisticati, il punteggio di Stanford non sembra aver aggiunto ulteriore “peso” a fattori più importanti, che avrebbero potuto impedire a qualsiasi punto di dati, come l’età, di distorcere eccessivamente i risultati. Ad aggravare ulteriormente il problema: alcuni residenti hanno detto ProPublica che erano svantaggiati perché lavoravano in più aree dell’ospedale e non potevano designare un singolo reparto, il che ha abbassato il loro punteggio.

Quando dozzine di residenti e altri hanno invaso il centro medico in segno di protesta, un direttore di Stanford ha difeso l’ospedale dicendo che esperti di etica ed esperti di malattie infettive avevano lavorato per settimane per preparare un sistema equo, ma che il loro “algoritmo molto complesso chiaramente non funzionava”. In un video della scena, si possono sentire alcuni manifestanti dire “F — l’algoritmo” e “Gli algoritmi fanno schifo”.

Caricamento in corso

In una e-mail a residenti e borsisti pediatrici ottenuta da Il Washington Post, i funzionari hanno detto che “l’algoritmo del vaccino di Stanford non è riuscito a dare la priorità al personale domestico”, come i giovani medici e i residenti delle scuole di medicina, e che “questo non sarebbe mai dovuto accadere né si sarebbe svolto in questo modo”.

Da allora la Stanford Medicine ha affermato in una dichiarazione che si assume la “completa responsabilità” per gli errori nel piano di distribuzione del vaccino e che si sarebbe mossa per fornire rapidamente vaccinazioni per la sua forza lavoro in prima linea.

(Stanford non è il solo ad affrontare il contraccolpo: al Barnes Jewish Hospital di St.Louis, gli infermieri in prima linea hanno lanciato una petizione per criticare la decisione dell’ospedale di dare la priorità ai lavoratori in base all’età, piuttosto che al rischio di esposizione. Gli amministratori dell’ospedale hanno detto che stanno solo seguendo linee guida federali.)

Un algoritmo è una parola di fantasia per un semplice insieme di regole: è una formula, come una ricetta, che utilizza dati o altri ingredienti per produrre un risultato prevedibile. Per molti, il termine evoca il tipo di software di apprendimento automatico utilizzato per tradurre lingue, guidare automobili o identificare volti nelle immagini senza l’intervento umano.

Questi algoritmi possono perfezionare il loro funzionamento nel tempo utilizzando una forma base di intelligenza artificiale. Interagiamo con loro ogni giorno, perché decidono l’ordine dei risultati di ricerca e dei post sui social media che vediamo online.

Ma gli algoritmi prendono decisioni complesse senza spiegare alle persone esattamente come ci sono arrivate – e quella “scatola nera” può essere snervante per le persone che potrebbero mettere in dubbio il risultato finale. Problemi con il modo in cui sono stati progettati gli algoritmi o con i dati che vengono forniti possono finire per distorcere il risultato, con conseguenze disastrose, come i pregiudizi razziali, le imprecisioni e i falsi arresti dei sistemi di riconoscimento facciale utilizzati dalla polizia.

Per gli algoritmi, è solo matematica che, in quanto strumenti informatici, possono fare eccezionalmente bene. Ma troppo spesso vengono incolpati di quelli che sono, in sostanza, problemi umani. Le persone scrivono il codice in algoritmi. Costruiscono i database utilizzati per “addestrare” gli algoritmi da eseguire. E in casi come quello di Stanford, trascurano o ignorano i potenziali punti deboli che potrebbero minare in modo critico i risultati degli algoritmi.

La maggior parte dei data scientist e dei ricercatori di intelligenza artificiale afferma che l’unica soluzione è una maggiore trasparenza: se le persone possono vedere come è progettato il mix di algoritmi, dati e potenza di calcolo, possono rilevare gli errori in modo più affidabile prima che le cose vadano male.

Ma poiché le aziende che progettano algoritmi vogliono proteggere il loro lavoro proprietario, o perché i sistemi sono troppo complicati per delineare facilmente, tale trasparenza è piuttosto rara. Alle persone le cui vite dipendono dalle conclusioni dell’algoritmo viene chiesto semplicemente di credere che il sistema, comunque funzioni, funzioni come previsto.

I critici temono che l’uso di algoritmi per il processo decisionale in ambito sanitario possa portare a risultati pericolosi.

Secondo la rivista, i ricercatori lo scorso anno hanno scoperto che un algoritmo medico della società sanitaria Optum aveva inavvertitamente svantaggiato i pazienti neri classificandoli meno bisognosi di cure aggiuntive rispetto ai pazienti bianchi, secondo la rivista Scienza. Lo ha detto un portavoce dell’azienda Il Washington Post poi che “gli algoritmi predittivi che alimentano questi strumenti dovrebbero essere continuamente rivisti e perfezionati”.

E quest’estate, gli studenti nel Regno Unito sono scesi in piazza per protestare contro un altro algoritmo che era stato utilizzato per classificarli per il collocamento all’università. Poiché i test sono stati interrotti durante la pandemia, il regolatore degli esami del paese ha automaticamente classificato gli studenti in base ai voti passati e al rendimento scolastico e, nel processo, ha inavvertitamente promosso gli studenti delle scuole d’élite, penalizzando quelli con background meno privilegiati. Il governo britannico ha invertito la rotta poco dopo.

“Se vivessimo in una società fiorente ed economicamente giusta, le persone potrebbero fidarsi degli algoritmi. Ma noi (per lo più) non lo facciamo”, ha scritto Jack Clark, il direttore delle politiche per il laboratorio di ricerca OpenAI, in una newsletter la scorsa settimana. “Viviamo in società che utilizzano sistemi opachi per prendere decisioni che influenzano la vita delle persone, il che sembra sempre più ingiusto per la maggior parte delle persone”.

Il contraccolpo di Stanford, ha aggiunto, è solo “un presagio di cose a venire”.

Washington Post

I più visti al mondo

Caricamento in corso

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

© Copyright 2018. 99CoronaVirus.com. Designed by 99CoronaVirus.com.