banner
Centro notizie
Design accattivante

Analisi del tono della pelle per la rappresentazione nei materiali didattici (STAR

Jun 30, 2023

npj Medicina Digitale volume 6, numero articolo: 151 (2023) Citare questo articolo

640 accessi

26 Altmetrico

Dettagli sulle metriche

Le immagini raffiguranti tonalità della pelle scure sono significativamente sottorappresentate nei materiali didattici utilizzati per insegnare ai medici di base e ai dermatologi a riconoscere le malattie della pelle. Ciò potrebbe contribuire alle disparità nella diagnosi delle malattie della pelle tra diversi gruppi razziali. In precedenza, gli esperti del settore valutavano manualmente i libri di testo per stimare la diversità delle immagini della pelle. La valutazione manuale non si adatta a molti materiali didattici e introduce errori umani. Per automatizzare questo processo, presentiamo il framework Skin Tone Analysis for Representation in EDeducational materials (STAR-ED), che valuta la rappresentazione del tono della pelle nei materiali didattici medici utilizzando l'apprendimento automatico. Dato un documento (ad esempio, un libro di testo in formato .pdf), STAR-ED applica l'analisi del contenuto per estrarre testo, immagini ed entità di tabella in un formato strutturato. Successivamente, identifica le immagini contenenti pelle, segmenta le porzioni di tali immagini contenenti pelle e stima il tono della pelle utilizzando l'apprendimento automatico. STAR-ED è stato sviluppato utilizzando il set di dati Fitzpatrick17k. Abbiamo quindi testato esternamente STAR-ED su quattro libri di testo medici di uso comune. I risultati mostrano ottime prestazioni nel rilevamento delle immagini della pelle (0,96 ± 0,02 AUROC e 0,90 ± 0,06 punteggio F1) e nella classificazione delle tonalità della pelle (0,87 ± 0,01 AUROC e 0,91 ± 0,00 punteggio F1). STAR-ED quantifica la rappresentazione sbilanciata delle tonalità della pelle in quattro libri di testo di medicina: le immagini delle tonalità della pelle marrone e nera (Fitzpatrick V-VI) costituiscono solo il 10,5% di tutte le immagini della pelle. Immaginiamo questa tecnologia come uno strumento per educatori medici, editori e professionisti per valutare la diversità del tono della pelle nei loro materiali didattici.

I libri di testo di medicina, le dispense e gli articoli pubblicati utilizzati nei programmi delle principali scuole di medicina mancano di un'adeguata rappresentazione dei toni della pelle nelle immagini utilizzate per dimostrare le manifestazioni delle malattie della pelle1,2,3. Ad esempio, una recente valutazione manuale dei libri di testo medici di uso comune ha rilevato una significativa sottorappresentazione delle tonalità della pelle Fitzpatrick (FST) V e VI, che rappresentano le tonalità della pelle marrone e nera1,2. La pandemia di COVID-19 ha ulteriormente evidenziato questa disuguaglianza: l’annotazione manuale delle foto pubblicate delle manifestazioni cutanee di COVID-19 ha rivelato una sottorappresentazione delle immagini raffiguranti la pelle scura4.

Poiché le malattie della pelle appaiono in modo diverso a seconda della tonalità della pelle, per un personale sanitario ben formato sono necessari materiali didattici che descrivano le diverse tonalità della pelle1,2,3,4,5. Louie e Wilkes suggeriscono che le disuguaglianze razziali nell'assistenza sanitaria (accessibilità, fornitura e qualità) sono influenzate dalla mancanza di rappresentanza diversificata nei materiali curriculari1. Ad esempio, le diagnosi di cancro della pelle (ad esempio, melanoma, carcinoma a cellule squamose) sono significativamente ritardate nei pazienti di colore, con conseguente aumento della morbilità e della mortalità6.

Precedenti analisi di materiali accademici relativi alla dermatologia (riviste e libri di testo) hanno mostrato una sottorappresentazione di FST V e VI; tuttavia, le immagini sono state annotate e analizzate manualmente, ovvero un esperto del settore ha individuato ciascuna immagine in un libro di testo/giornale e ha etichettato la tonalità della pelle. Sfortunatamente, questo approccio manuale non è trattabile per un corpus di grandi dimensioni a causa della sua natura ad alta intensità di lavoro, dell’affaticamento visivo dell’operatore e dell’errore intra-inter-osservatore nell’etichettatura del tono della pelle1,2,4. La valutazione automatica della rappresentazione del tono della pelle utilizzando l’apprendimento automatico (ML) promette di aiutare in modo significativo a identificare i bias nei materiali didattici medici e non è stata eseguita in precedenza sui materiali didattici.

Gli approcci basati sull'apprendimento automatico all'analisi del tono della pelle in dermatologia sono stati precedentemente applicati solo a set di dati selezionati (ad esempio, ISIC 20187 e SD-1988), ma non a materiali accademici del mondo reale. Un approccio precedente utilizzava l'angolo di tipologia individuale (ITA) calcolato dai valori di intensità dei pixel9,10,11; i valori ITA sono stati quindi mappati su FST12. Tuttavia, in precedenza, un modello di machine learning addestrato per classificare la FST direttamente dalle immagini della pelle ha ottenuto risultati migliori nel classificare la FST rispetto alla stima basata su ITA con conversione in FST13. I metodi basati su ITA dipendono dai valori dei pixel grezzi, rendendoli più sensibili alle condizioni di illuminazione. Questi modelli precedenti hanno identificato che i set di dati di immagini della pelle selezionati utilizzati per lo sviluppo di modelli di apprendimento automatico in dermatologia sottorappresentavano significativamente le tonalità della pelle scura.

0.9 AUROC) is achieved between the classifiers across the four textbooks confirming the robustness of the framework. Specifically, XGB classifier results in an average AUROC of 0.96 ± 0.02 and F1 score of 0.90 ± 0.06 F1 across the textbooks. To summarize, skin image detection could be done satisfactorily using traditional machine learning classifiers (without sophisticated deep networks). XGB was used for the final STAR-ED pipeline due to its slightly better performance, particularly in its AUROC, which, unlike accuracy, is independent of single prediction thresholds./p>