Softver i razvojni alati
Računalstvo, telefonija
Sigurnost
25.05.2023 13:00

Podijelite s drugima:

Udio

Znanstvenici istražuju kako bi razumjeli umjetnu inteligenciju

Istraživači su razvili inovativnu metodu za procjenu načina na koji umjetna inteligencija (AI) razumije podatke, poboljšavajući transparentnost i povjerenje u dijagnostičke i prediktivne alate temeljene na umjetnoj inteligenciji.
Fotografija: Unsplash
Fotografija: Unsplash

Ovaj pristup pomaže korisnicima da razumiju unutarnji rad "crnih kutija" algoritama umjetne inteligencije, posebno u medicinskoj upotrebi iu kontekstu nadolazećeg Europskog zakona o umjetnoj inteligenciji.

Grupa istraživača sa Sveučilišta u Ženevi (UNIGE), Ženevskih sveučilišnih bolnica (HUG) i Nacionalnog sveučilišta u Singapuru (NUS) razvili su novi pristup za procjenu razumijevanja tehnologija umjetne inteligencije.

Ovo otkriće omogućuje veću transparentnost i vjerodostojnost dijagnostičkih i prediktivnih alata koje pokreće AI. Nova metoda otkriva misteriozno djelovanje takozvanih "crnih kutija" AI algoritama, pomažući korisnicima da razumiju što utječe na rezultate koje AI proizvodi i može li im se vjerovati.

Ovo je posebno važno u scenarijima koji imaju značajan utjecaj na ljudsko zdravlje i dobrobit, kao što je upotreba umjetne inteligencije u medicinskom okruženju. Istraživanje ima posebno značenje u kontekstu nadolazećeg Zakona Europske unije o umjetnoj inteligenciji, koji nastoji regulirati razvoj i korištenje AI-a u EU-u.

Nalazi su nedavno objavljeni u časopisu Nature Machine Intelligence. Vremenski tipovi podataka koji predstavljaju evoluciju informacija tijekom vremena prisutni su posvuda: na primjer, u medicini pri snimanju srčane aktivnosti elektrokardiogramom (EKG), pri proučavanju potresa, praćenju vremenskih obrazaca ili u gospodarstvu za praćenje financijskih uvjeta. tržišta. .

Ti se podaci mogu modelirati pomoću AI tehnologija za izradu dijagnostičkih ili prediktivnih alata. Napredak umjetne inteligencije, a posebno dubinskog učenja, koje uključuje treniranje stroja uz pomoć velikih količina podataka kako bi ih interpretirao i naučio korisne obrasce, otvara put sve preciznijim alatima za dijagnozu i predviđanje. Unatoč tome, nedostatak uvida u to kako AI algoritmi rade i što utječe na njihove rezultate postavlja važna pitanja o pouzdanosti AI tehnologije crne kutije.

"Način na koji ovi algoritmi rade je u najboljem slučaju netransparentan", kaže profesor Christian Lovis, ravnatelj Odsjeka za radiologiju i medicinsku informatiku na Medicinskom fakultetu UNIGE i voditelj Odsjeka za medicinske informacijske znanosti na HUG-u i jedan od autora studije o razumijevanju umjetne inteligencije.

“Naravno da su ulozi, pogotovo financijski, iznimno veliki. Ali kako možemo vjerovati stroju bez razumijevanja osnove njegovog razmišljanja? Ova su pitanja ključna, posebno u sektorima kao što je medicina, gdje odluke vođene umjetnom inteligencijom mogu utjecati na zdravlje ljudi, pa čak i njihove živote, te u financijama, gdje mogu dovesti do velikih gubitaka kapitala. «

Metode razumijevanja nastoje odgovoriti na ova pitanja otkrivajući zašto i kako je umjetna inteligencija došla do određene odluke i razloge za nju. "Poznavanje elemenata koji su preokrenuli vagu u korist ili protiv rješenja u određenoj situaciji, što omogućuje barem malo transparentnosti, povećava naše povjerenje u rad alata", kaže docent Gianmarco Mengaldo, direktor laboratorija MathEXLab na Fakultet dizajna i inženjerstva Nacionalnog sveučilišta u Singapuru.

“Međutim, trenutne metode razumijevanja koje se široko koriste u praktičnim primjenama i industrijskim krugovima daju vrlo različite rezultate, čak i kada se primjenjuju na isti zadatak i skup podataka. Ovo postavlja važno pitanje: koja je metoda točna ako bi trebao postojati jedinstven, točan odgovor? Je li zbog toga vrednovanje metoda razumijevanja jednako važno kao i samo razumijevanje?»

razumijevanje umjetne inteligencije ChatGPT Google Bard

Razlikovanje važnih i nebitnih informacija

Razlikovanje podataka ključno je za razvoj AI tehnologija koje se u potpunosti razumiju. Na primjer, kada umjetna inteligencija analizira slike, fokusira se na nekoliko istaknutih značajki.

Doktorand u laboratoriju profesora Lovisa i prvi autor AI studije Hugues Turbé objašnjava: “AI može, na primjer, razlikovati sliku psa od slike mačke. Isti princip vrijedi i za analizu vremenskih sekvenci: stroj mora moći odabrati elemente na temelju kojih će razmišljati. U slučaju EKG signala, to znači usklađivanje signala s različitih elektroda za procjenu mogućih fluktuacija koje bi bile znak određene bolesti srca.»

Odabrati metodu razumijevanja između svih dostupnih za određenu svrhu nije lako. Različite metode umjetne inteligencije često daju vrlo različite rezultate, čak i kada se primjenjuju na isti skup podataka i zadatak.

Kako bi se uhvatili u koštac s ovim izazovom, istraživači su razvili dvije nove metode evaluacije koje pomažu razumjeti kako umjetna inteligencija donosi odluke: jednu za prepoznavanje najvažnijih dijelova signala i drugu za procjenu njihove relativne važnosti za konačno predviđanje.

Za procjenu razumijevanja sakrili su dio podataka kako bi vidjeli jesu li relevantni za donošenje odluka umjetnom inteligencijom. Međutim, ovaj pristup je ponekad uzrokovao pogreške u rezultatima. Kako bi se to popravilo, stroj je treniran na povećanom skupu podataka koji uključuje skrivene podatke, što je pomoglo u održavanju ravnoteže i točnosti. Tim je zatim stvorio dva načina za mjerenje uspjeha metoda razumijevanja, koji su pokazali je li AI koristila prave podatke za donošenje odluka i jesu li svi podaci ispravno uzeti u obzir.

"Naša metoda ima za cilj procijeniti model koji ćemo stvarno koristiti u našem operativnom području i tako osigurati njegovu pouzdanost", objašnjava Hugues Turbé. Kako bi nastavili istraživanje, tim je razvio sintetički skup podataka koji je dostupan znanstvenoj zajednici za jednostavnu procjenu bilo koje nove umjetne inteligencije dizajnirane za tumačenje sekvenci u čas.

Budućnost umjetne inteligencije u medicini

Tim planira testirati svoju metodu u kliničkom okruženju, gdje je strah od umjetne inteligencije još uvijek raširen. "Izgradnja povjerenja u procjenu umjetne inteligencije ključni je korak prema prihvaćanju u kliničkim okruženjima", objašnjava dr. Mina Bjelogrlic, koja vodi tim za strojno učenje u odjelu Lovis i koautorica je ove studije. "Naše istraživanje fokusirano je na procjenu umjetne inteligencije na temelju vremenskih sekvenci, ali ista metodologija može se primijeniti na umjetnu inteligenciju temeljenu na drugim vrstama podataka, kao što su slikovni ili tekstualni podaci. Cilj je osigurati transparentnost, razumljivost i pouzdanost AI za korisnike.»

Razumijevanje unutarnjeg funkcioniranja umjetne inteligencije ključno je za izgradnju povjerenja u njezinu upotrebu, posebno u kritičnim sektorima kao što su medicina i financije. Istraživanje koje je proveo tim istraživača sa Sveučilišta u Ženevi i Nacionalnog sveučilišta u Singapuru nudi inovativnu metodu procjene razumijevanja umjetne inteligencije koja pomaže korisnicima da razumiju zašto i kako se donose odluke. Ovaj je pristup posebno važan za medicinske primjene, gdje odluke koje donosi umjetna inteligencija mogu spasiti život.


Zanima vas više o ovoj temi?
ChatGPT Google umjetna inteligencija


Što drugi čitaju?