data science

L’intelligenza artificiale contro il razzismo

L’Intelligenza Artificiale potrebbe aiutare a combattere il razzismo in ambito medico negli USA, ma occorre eliminare i pregiudizi nella programmazione.

Uno sguardo spassionato.

È indiscutibile che essere razzisti significhi mancare d’intelligenza, ma non è in questo senso che va lo studio recentemente pubblicato su The Lancet Digital Health (vedi) sull’uso dell’Intelligenza Artificiale per combattere il razzismo in ambito sanitario in cui, poiché il razzismo sistemico presente negli USA è un fenomeno culturale molto difficile da trattare, si mostra come il vero potenziale dell’IA risieda nel rivelare i pregiudizi esistenti per spingere al cambiamento sociale e correggere le disparità nell’assistenza sanitaria. Per esempio, la disparità nella gestione del dolore tra i pazienti neri e bianchi è sistemica, guidata da pregiudizi privi di basi scientifiche; tuttavia, razza ed etnia sono ancora utilizzate come fattori per gli indicatori di salute. È stato sviluppato un modello di intelligenza artificiale per misurare la gravità dell’osteoartrite legata al dolore al ginocchio e si è scoperto che le previsioni dell’IA erano più strettamente correlate con il dolore riferito dai pazienti che con la diagnosi dei radiologi, in particolare nei pazienti neri. Lo studio ha evidenziato la capacità dell’algoritmo di ridurre le disparità inspiegabili radicate nella diversità razziale e socioeconomica dei dati. Gli autori affermano che l’IA può catturare meglio il dolore dei pazienti sotto serviti e potenzialmente correggere le disparità nell’accesso a ulteriori trattamenti.

Sebbene gli esempi di intelligenza artificiale che fanno emergere la disparità nell’assistenza sanitaria siano in crescita, questi studi sono ancora rari. Inoltre, l’omissione storica di dati medici su popolazioni minoritarie e le disuguaglianze nei determinanti sociali e strutturali della salute non possono essere annullate da un algoritmo. Tuttavia, sin dall’inizio del suo mandato, il Presidente Biden ha mostrato di puntare sulla tecnologia, per combattere il razzismo.

Programmatori.

Il primo passo per ottenere un’intelligenza artificiale che abbia il potenziale per contribuire a creare l’uguaglianza razziale nella salute è l’aumento della eterogeneità nella forza lavoro che crea algoritmi sanitari, fondamentale per lo sviluppo di un’IA in grado di superare le disparità sanitarie (vedi). Le aziende e gli istituti di ricerca devono investire nelle donne e nelle persone di colore per garantire che la prossima generazione di intelligenza artificiale in medicina serva tutti noi, allo stesso modo, poiché al momento, è lo stesso sistema di raccolta dati e di interpretazione a essere influenzato da pregiudizi razziali.

La scarsa diversità all’interno delle compagini di scienziati che studiano i dati e i loro sistemi interpretativi fa sì che la ricerca potrebbe non essere di vantaggio in modo equo per le persone con background che sono sottorappresentati nella forza lavoro e nei set di dati. Al contrario, una forza lavoro digitale eterogenea potrebbe essere incline al pensiero di gruppo, comprendere e interpretare meglio i problemi del mondo reale, come i bisogni insoddisfatti di una più ampia gamma di parti interessate, e potrebbe aiutare a mitigare i pregiudizi intrinseci derivanti dai processi tecnologici e digitali.

Circolo vizioso.

Se così non fosse, gli stessi algoritmi di raccolta dei dati contribuirebbero a perpetrare le ingiustizie che li hanno influenzati.

Ci sono una serie di passaggi che la comunità scientifica che si occupa di dati sanitari può intraprendere per combattere il razzismo strutturale e i suoi effetti. Innanzitutto, occorre istruirsi sui modi in cui la scienza dei dati perpetua il razzismo e incorporare questa comprensione nella formazione dei futuri scienziati dei dati. Esempi di questo approccio potrebbero includere l’annullamento del modo in cui la razza è concettualizzata sul campo, l’introduzione di moduli sulle disuguaglianze etniche e di altro tipo nei programmi di insegnamento della scienza dei dati e il sostegno alla ricerca e al dibattito sulla relazione tra scienza dei dati e disuguaglianze sanitarie.

Coinvolgimento.

A quel punto si potranno cercare prospettive diverse e rappresentative dai pazienti e dal pubblico in generale e integrare queste prospettive nei piani di governance, etica e analisi della ricerca.

Questo approccio include l’impegno a garantire che la nuova tecnologia soddisfi i bisogni delle comunità svantaggiate, attraverso la collaborazione, per esempio, con organizzazioni basate sulla comunità per concordare l’uso etico dei set di dati e la definizione delle categorie etniche utilizzate.

Esistono molte risorse utili per i ricercatori che desiderano coinvolgere il pubblico nel modo in cui identificano, assegnano priorità, progettano, conducono e diffondono la loro ricerca (per esempio, il gruppo consultivo nazionale INVOLVE del National Institute for Health Research).

Distinguere per proteggere.

Infine, si possono scegliere routine di raccolta e di segnalazione di dati disaggregati per etnia. Quando si registrano i dati sull’etnia, la stratificazione delle analisi per etnia può garantire che le tendenze nella popolazione più ampia non mascherino quelle dei sottogruppi. Senza questi dati e analisi disaggregate per etnia, le persone provenienti da gruppi svantaggiati non saranno in grado di fare pressioni efficaci per il cambiamento e i servizi non saranno progettati tenendo conto delle esigenze di questi gruppi.

I data scientist hanno la responsabilità di affrontare le diverse forme di razzismo che si manifestano nel settore. È necessario l’impegno a intraprendere più azioni per affrontare il razzismo e garantire che i benefici derivanti dall’uso dei dati sanitari siano condivisi equamente.

Fonti.

https://www.thelancet.com/journals/landig/article/PIIS2589-7500(21)00023-6/fulltext

https://www.thelancet.com/journals/landig/article/PIIS2589-7500(21)00019-4/fulltext

Photo by Markus Spiske on Unsplash

Condividi su facebook
Facebook
Condividi su twitter
Twitter