Notizia in archivio

Articolo
Articolo: Ai: come difendersi dagli

 

Fonte: "EJNMMI Springer Nature"

L'evento si terrà a:
dal giorno 01/06/2020 -  al giorno 30/09/2020

 

Uno studio, collaborazione tra IFAC-Cnr e Univ. Pisa, ha evidenziato come il "machine learning", che utilizza gli algoritmi per l

Un articolo, pubblicato sulla rivista European Journal of Nuclear Medicine and Molecular Imaging del gruppo Springer Nature da Andrea Barucci dell'Istituto di fisica applicata "Nello Carrara" del Consiglio nazionale delle ricerche (Cnr-Ifac) e dal radiologo dell'Universita' di Pisa Emanuele Neri, analizza attraverso lo strumento del machine learning[1] la possibilita' di modificare le immagini radiologiche, pilotando l'esito di una diagnosi. Un rischio che solo lo studio dell'Intelligenza artificiale (Ai) puo' consentire di fronteggiare, sventando errori o azioni compiute in malafede.

"Nel mondo digitale, la sanita' 4.0 si muove veloce verso una nuova visione, fondata su dati e integrazione di informazioni. Le analisi basate sull'Ai costituiscono uno strumento sempre piu' diffuso in tutti gli ambiti clinici, suscitando grandi aspettative. Un esempio e' la Radiomica, ossia estrazione di parametri quantitativi dalle immagini radiologiche, con cui creare modelli diagnostici e predittivi: uno strumento ormai ampiamente utilizzato e, negli ultimi anni, rafforzato dall'introduzione delle reti neurali, dando origine alla deep-radiomics", dichiara Andrea Barucci del Cnr-Ifac.

"Il machine learning, su cui principalmente si fonda la potenza di queste analisi informatiche delle immagini, puo' tuttavia essere usato anche in modo negativo, per creare attacchi avversi ai sistemi di analisi delle immagini, cioe' modifiche ad hoc delle immagini, impercettibili anche all'occhio umano esperto, studiate per ingannare gli stessi algoritmi e pilotare l'esito di una diagnosi".

Lo studio dei due ricercatori definisce questo fenomeno in ambito di imaging radiologico come "Adversarial Radiomics": "Un'analogia con il piu' ampio campo di ricerca dell'adversarial machine learning, in cui il fenomeno e' studiato da anni, per esempio, nella cyber-security e nella guida autonoma", aggiunge Neri.

"Gli esempi avversi sono un problema relativamente recente nello studio del machine learning, ma la loro applicazione all'imaging clinico e' un ambito ancor piu' nuovo e con risvolti sociali importanti", prosegue Barucci, "ad esempio nelle frodi assicurative. D'altronde proprio lo studio di questi esempi avversi e' estremamente utile per approfondire la comprensione di algoritmi complessi come le reti neurali e migliorare lo sfruttamento degli strumenti informatici a disposizione".

"L'intuizione del radiologo e' ancora essenziale nel controllo e nell'integrazione delle complesse analisi fornite dagli algoritmi di intelligenza artificiale e il futuro impone una sempre maggiore armonizzazione fra l'analisi informatica e quella umana", conclude Neri.

"Lo studio vuole mettere in luce come i nuovi strumenti di analisi digitale basati sull'Ai dovranno essere sempre piu' volti proprio a migliorare questa interazione (human in the loop)".

Link all'articolo
Per informazioni: Andrea Barucci, Cnr-Ifac
Ufficio stampa Cnr: Rita Bugliosi, Questo indirizzo e-mail è protetto dallo spam bot. Abilita Javascript per vederlo. , te. 06/4993.2021
Responsabile: Marco Ferrazzoli, Questo indirizzo e-mail è protetto dallo spam bot. Abilita Javascript per vederlo. , cell. 333/2796719,
Segreteria: Questo indirizzo e-mail è protetto dallo spam bot. Abilita Javascript per vederlo. , tel. 06/4993.3383 - P.le A. Moro 7, 000185 Roma

 

Torna all'archivio per l'elenco di tutte le news dell'istituto.

Questo sito usa ESCLUSIVAMENTE cookie tecnici, NON installa cookie di terze parti e NON esegue alcun tipo di profilazione utente. Per avere piu' informazioni sui cookie e sul trattamento dati personali, consulta la pagina "Privacy & Cookies".

EU Cookie Directive plugin by www.channeldigital.co.uk