Software e strumenti di sviluppo
Informatica, telefonia
Sicurezza
25.05.2023 13:00

Condividi con gli altri:

Condividere

Gli scienziati stanno facendo ricerche per comprendere l’intelligenza artificiale

I ricercatori hanno sviluppato un metodo innovativo per valutare il modo in cui l’intelligenza artificiale (AI) comprende i dati, migliorando la trasparenza e la fiducia negli strumenti diagnostici e predittivi basati sull’intelligenza artificiale.
Foto: Unsplash
Foto: Unsplash

Questo approccio aiuta gli utenti a comprendere il funzionamento interno delle “scatole nere” degli algoritmi di intelligenza artificiale, soprattutto nell’uso medico e nel contesto dell’imminente atto europeo sull’intelligenza artificiale.

Un gruppo di ricercatori dell’Università di Ginevra (UNIGE), degli Ospedali universitari di Ginevra (HUG) e dell’Università nazionale di Singapore (NUS) ha sviluppato un nuovo approccio per valutare la comprensione delle tecnologie di intelligenza artificiale.

Questa svolta consente una maggiore trasparenza e credibilità degli strumenti diagnostici e predittivi basati sull’intelligenza artificiale. Il nuovo metodo rivela il misterioso funzionamento delle cosiddette “scatole nere” degli algoritmi di intelligenza artificiale, aiutando gli utenti a capire cosa influenza i risultati prodotti dall’intelligenza artificiale e se ci si può fidare di loro.

Ciò è particolarmente importante in scenari che hanno un impatto significativo sulla salute e sul benessere umano, come l’uso dell’intelligenza artificiale in ambiente medico. La ricerca ha un significato particolare nel contesto dell’imminente legge sull’intelligenza artificiale dell’Unione europea, che cerca di regolamentare lo sviluppo e l’uso dell’intelligenza artificiale nell’UE.

I risultati sono stati recentemente pubblicati sulla rivista Nature Machine Intelligence. I tipi di dati temporali che rappresentano l'evoluzione delle informazioni nel tempo sono ovunque: ad esempio, in medicina quando si registra l'attività cardiaca con un elettrocardiogramma (ECG), quando si studiano i terremoti, si monitorano i modelli meteorologici o nell'economia per monitorare le condizioni finanziarie dei mercati. .

Questi dati possono essere modellati utilizzando le tecnologie di intelligenza artificiale per creare strumenti diagnostici o predittivi. I progressi dell’intelligenza artificiale e in particolare del deep learning, che prevede l’addestramento di una macchina con l’aiuto di grandi quantità di dati per interpretarli e apprendere modelli utili, apre la strada a strumenti di diagnosi e previsione sempre più accurati. Tuttavia, la mancanza di informazioni su come funzionano gli algoritmi di intelligenza artificiale e su cosa influenza i loro risultati solleva importanti domande sull’affidabilità della tecnologia di intelligenza artificiale della scatola nera.

"Il modo in cui funzionano questi algoritmi è, nella migliore delle ipotesi, non trasparente", afferma il professor Christian Lovis, direttore del Dipartimento di radiologia e informatica medica presso la Facoltà di Medicina dell'UNIGE e capo del Dipartimento di scienza dell'informazione medica presso l'HUG e uno degli autori dello studio sulla comprensione dell’intelligenza artificiale.

"Naturalmente la posta in gioco, soprattutto quella finanziaria, è estremamente alta. Ma come possiamo fidarci di una macchina senza comprendere le basi del suo ragionamento? Queste domande sono cruciali, soprattutto in settori come la medicina, dove le decisioni guidate dall’intelligenza artificiale possono influenzare la salute delle persone e persino la loro vita, e nella finanza, dove possono portare a enormi perdite di capitale. .«

I metodi di comprensione si sforzano di rispondere a queste domande rivelando perché e come l’IA è arrivata a una determinata decisione e le ragioni di essa. "Conoscere gli elementi che fanno pendere l'ago della bilancia a favore o contro una soluzione in una determinata situazione, che consenta almeno una certa trasparenza, aumenta la nostra fiducia nel funzionamento degli strumenti", afferma il professore associato Gianmarco Mengaldo, direttore del laboratorio MathEXLab dell'Università Facoltà di Design e Ingegneria dell'Università Nazionale di Singapore.

“Tuttavia, gli attuali metodi di comprensione ampiamente utilizzati nelle applicazioni pratiche e nei circuiti industriali producono risultati molto diversi, anche se applicati allo stesso compito e allo stesso set di dati. Ciò solleva una domanda importante: quale metodo è corretto se si suppone che ci sia una risposta unica e corretta? È per questo che la valutazione dei metodi di comprensione sta diventando importante quanto la comprensione stessa?»

comprendere l'intelligenza artificiale ChatGPT Google Bard

Distinguere tra informazioni importanti e irrilevanti

La differenziazione dei dati è fondamentale per sviluppare tecnologie di intelligenza artificiale pienamente comprese. Ad esempio, quando l’intelligenza artificiale analizza le immagini, si concentra su alcune caratteristiche salienti.

Hugues Turbé, dottorando nel laboratorio del professor Lovis e primo autore dello studio sull'intelligenza artificiale, spiega: “L'intelligenza artificiale può, ad esempio, distinguere tra l'immagine di un cane e l'immagine di un gatto. Lo stesso principio vale anche per l'analisi delle sequenze temporali: la macchina deve essere in grado di selezionare gli elementi in base ai quali penserà. Nel caso dei segnali ECG, ciò significa armonizzare i segnali provenienti da diversi elettrodi per valutare possibili fluttuazioni che potrebbero essere un segno di una determinata malattia cardiaca.»

Scegliere un metodo di comprensione tra tutti quelli disponibili per uno scopo particolare non è facile. Diversi metodi di intelligenza artificiale spesso forniscono risultati molto diversi, anche se applicati allo stesso set di dati e allo stesso compito.

Per affrontare questa sfida, i ricercatori hanno sviluppato due nuovi metodi di valutazione per aiutare a comprendere come l’intelligenza artificiale prende le decisioni: uno per identificare le parti più importanti di un segnale e un altro per valutare la loro importanza relativa rispetto alla previsione finale.

Per la valutazione della comprensione, hanno nascosto parte dei dati per vedere se erano rilevanti per il processo decisionale sull’IA. Tuttavia, questo approccio a volte causava errori nei risultati. Per risolvere questo problema, la macchina è stata addestrata su un set di dati più ampio che includeva dati nascosti, che hanno contribuito a mantenere l’equilibrio e la precisione. Il team ha poi creato due modi per misurare il successo dei metodi di comprensione, che hanno mostrato se l’IA stava utilizzando i dati giusti per prendere decisioni e se tutti i dati erano stati adeguatamente considerati.

"Il nostro metodo mira a valutare il modello che utilizzeremo effettivamente nella nostra area operativa e quindi a garantirne l'affidabilità", spiega Hugues Turbé. Per continuare la ricerca, il team ha sviluppato un set di dati sintetici a disposizione della comunità scientifica per valutare facilmente qualsiasi nuova intelligenza artificiale progettata per interpretare sequenze in čas.

Il futuro dell’intelligenza artificiale in medicina

Il team prevede di testare il proprio metodo in un contesto clinico, dove la paura dell’intelligenza artificiale è ancora diffusa. "Costruire la fiducia nella valutazione dell'intelligenza artificiale è un passo fondamentale verso l'accettazione in ambito clinico", spiega il Dott. Mina Bjelogrlic, che guida il team di machine learning nella divisione Lovis ed è coautrice di questo studio. "La nostra ricerca si concentra sulla valutazione dell'intelligenza artificiale basata su sequenze temporali, ma la stessa metodologia potrebbe essere applicata all'intelligenza artificiale basata su altri tipi di dati, come immagini o dati di testo. L'obiettivo è garantire trasparenza, comprensibilità e affidabilità dell'IA per gli utenti.»

Comprendere il funzionamento interno dell’intelligenza artificiale è fondamentale per creare fiducia nel suo utilizzo, soprattutto in settori critici come la medicina e la finanza. La ricerca, condotta da un team di ricercatori dell’Università di Ginevra e dell’Università Nazionale di Singapore, offre un metodo innovativo per valutare la comprensione dell’intelligenza artificiale che aiuta gli utenti a capire perché e come vengono prese le decisioni. Questo approccio è particolarmente importante per le applicazioni mediche, dove le decisioni prese dall’intelligenza artificiale possono salvare la vita.


Ti interessa saperne di più su questo argomento?
ChatGPT Google intelligenza artificiale


Cosa stanno leggendo gli altri?