Raziskovalci so razvili inovativno metodo za ocenjevanje, kako umetna inteligenca (AI) razume podatke, in s tem izboljšali preglednost in zaupanje v diagnostična in napovedna orodja, ki temeljijo na AI.
Raziskovalci so razvili inovativno metodo za ocenjevanje, kako umetna inteligenca (AI) razume podatke, in s tem izboljšali preglednost in zaupanje v diagnostična in napovedna orodja, ki temeljijo na AI.
Umetna inteligenca
Osnovno,Vmesno,Napredno
Slovenija
Mednarodna pobuda
Skupina raziskovalcev Univerze v Ženevi (UNIGE), Ženevskih univerzitetnih bolnišnic (HUG) in Nacionalne univerze v Singapurju (NUS) je razvila nov pristop za ocenjevanje razumevanja tehnologij umetne inteligence.
Ta preboj omogoča večjo preglednost in verodostojnost diagnostičnih in napovednih orodij, ki jih poganja AI. Nova metoda razkriva skrivnostno delovanje tako imenovanih “črnih škatel” algoritmov AI, kar uporabnikom pomaga razumeti, kaj vpliva na rezultate, ki jih AI ustvarja, in ali jim je mogoče zaupati.
To je še posebej pomembno v scenarijih, ki imajo pomemben vpliv na človeško zdravje in blaginjo, na primer pri uporabi AI v medicinskem okolju. Raziskava ima poseben pomen v kontekstu prihajajočega Akta o umetni inteligenci Evropske unije, ki si prizadeva regulirati razvoj in uporabo AI v EU.
»Seveda so vložki, še posebej finančni, izjemno visoki. Ampak kako lahko zaupamo stroju, ne da bi razumeli osnovo njegovega sklepanja? Ta vprašanja so ključna, še posebej v sektorjih, kot je medicina, kjer lahko odločitve, ki jih poganja AI, vplivajo na zdravje in celo življenje ljudi, ter v financah, kjer lahko pripeljejo do ogromnih kapitalskih izgub,« pravi profesor Christian Lovis, direktor oddelka za radiologijo in medicinsko informatiko na Medicinski fakulteti UNIGE ter vodja oddelka za medicinsko informacijsko znanost na HUG in eden izmed avtorjev študije o razumevanju AI.
Celoten članek je na voljo v Računalniških novicah.