Uuring näitab, kui kergesti suudab AI ehk tehisaru anda õigeid vastuseid … valedel põhjustel. Tehisaru analüüs on küll ülitäpne, kuid tulemus võib olla eksitav.
Tehisintellekt võib olla kasulik vahend arstidele ja teadlastele diagnostiliste piltide tõlgendamisel. Kui radioloog suudab röntgenpildi abil tuvastada luumurde ja muid kõrvalekaldeid, näeb tehisintellekt mustreid, mida inimesed ei suuda näha. See annab võimaluse parandada meditsiiniliste piltide analüüsi.
Kuid ajakirjas Scientific Reports avaldatud uuring näitab, et tehisintellekti piltide analüüsi võime on trikiga asi. Tehisaru analüüs on küll ülitäpne, kuid tulemus võib olla eksitav. Põhjuseks on tehisaru õppimisprotsess, mida inglise keeles nimetatakse shortcut learning ehk eesti keeles võiks öelda otsetee-õpe.
Õlle- ja ubaderöntgen
Uurijad analüüsisid enam kui 25 000 põlvedest tehtud röntgenülesvõtet ja leidsid, et tehisaru võib sealt leida meditsiiniga ja tervisega mitteseotud ja ebausutavaid tunnuseid – näiteks seda, kas patsiendid sõid küpsetatud ube või jõid õlut. Kuigi neil järeldustel pole meditsiinilist alust, on need üllatava täpsustasemega, “lugedes” andmetest peeneid mustreid ja tehes seda soovimatult.
“Kuigi tehisintellektil on potentsiaali muuta meditsiinilist kuvamist, peame olema ettevaatlikud,” ütleb uuringu vanemautor dr Peter Schilling, Dartmouthi tervisekeskuse Dartmouthi Hitchcocki meditsiinikeskuse ortopeediakirurg ja Dartmouthi Geiseli instituudi ortopeedia abiprofessor.
Photo by Bianca Salgado
Inimesed seda ei näe
“Need mudelid näevad mustreid, mida inimesed ei näe, kuid mitte kõik nende tuvastatud mustrid pole tähenduslikud ega usaldusväärsed,” ütleb Schilling. “Nende riskide mõistmine on ülioluline, et vältida eksitavaid järeldusi ja tagada teaduslik terviklikkus.”
Teadlased uurisid, kuidas tehisaru tugineb sageli esinevatele segavatele muutujatele, nagu erinevused röntgeniseadmetes või kliinilise saidi markerites, et teha järeldusi, millel pole meditsiinilist tähendust. Katsed neid probleeme kõrvaldada olid vaid vähesel määral edukad – tehisaru lihtsalt “õppis” muude peidetud andmemustrite põhjal.
“See läheb kaugemale rassist või soost tulenevatest eelarvamustest,” ütleb uuringu kaasautor ja Dartmouth Hitchcocki masinõppeteadlane Brandon Hill. “Leidsime, et algoritm võib isegi õppida määratlema röntgenpildi tegemise aastat. Kui takistate tal ühe elemendi järgi õppimast, õpib see hoopis teise järgi, mida ta varem ignoreeris. On oht, et see võib viia mõne väga veidra väiteni ja teadlased peavad olema teadlikud sellest, kui kergesti see selle tehnika kasutamisel juhtub.”
Tehisaru ei näe ega arutle inimese moodi
Tulemused rõhutavad vajadust rangete hindamisstandardite järele tehisintellektil põhinevates meditsiiniuuringutes. Liigne tuginemine standardsetele algoritmidele ilma põhjalikuma kontrollita võib viia ekslike kliiniliste arusaamade ja raviviisideni.
“Tõendamiskoormus lihtsalt tõuseb, kui on vaja kasutada tehisaru mudeleid uute mustrite avastamiseks meditsiinis,” ütleb Hill. “Osa probleemist on meie endi eelarvamus. On uskumatult lihtne langeda lõksu, eeldades, et mudel “näeb” samamoodi, nagu meie. Tegelikult ta ei näe samamoodi.”
“Tehisaru on peaaegu nagu tulnuka intelligentsiga tegelemine,” jätkab Hill. “Kui tahate öelda, et mudel “petab”, kuid see antropomorfiseerib tehnoloogiat. Tehisaru õppis, kuidas talle antud ülesannet lahendada, kuid mitte tingimata nii, nagu inimene seda teeks. Seal pole loogikat ega arutluskäiku, nagu me tavaliselt seda mõistame.”
Uuring https://www.nature.com/articles/s41746-021-00438-z
Loe ka Kas Jumal oli Maad ja elu luues pigem bioloog või filosoof?