< eelmine | 1. OSA sisukord | järgmine > |
1.3 Tehisintellekti piirangud ning väljakutsed autor: Elena Sügis
Samuti ei saa sama tehisintellekti mudel hästi hakkama mitme erineva ülesandega. Lisaks parima tõhususe tõestamisele peavad uued tehnoloogiad olema integreeritud ka praeguste tavadega. See tähendab sobitamist iga rakendusvaldkonna spetsiifiliste tegevustega ning saama asjakohase regulatiivse heakskiidu. Samal ajal toob tehisintellekt kaasa mitmeid võimalikke riske ning nende lahendamisega seotud väljakutseid, nagu läbipaistmatute otsuste tegemine, soopõhine või muud tüüpi diskrimineerimine, sissetung meie eraellu või tehisintellekti kasutamine kuritegevuses.
Struktureeritud hea kvaliteediga andmed õppimiseks
“Prügi sisse, prügi välja” (ingl “garbage in, garbage out”) on masinõppe valdkonnas väga populaarne väljend, mis kirjeldab, et halva kvaliteediga sisend annab vigase väljundi. Masinõppe mudelite arendamine nõuab hästi struktureeritud näidisandmeid, mis kirjeldavad modeleeritavat protsessi aja jooksul suhteliselt stabiilselt. Mudel õpib ainult andmetest, mida me sellele anname. Näiteks 2008. aastal üritas Google ennustada gripi hooajalist levikut, kasutades ainult oma otsingumootorisse sisestatud otsingusõnu. Kuna inimeste otsimisharjumused muutuvad iga aasta, ennustas mudel tulevikku nii halvasti, et selle kasutamine lõpetati.
Masinõpe võib nõuda inimeste ajakulu juhendatud õppimiseks vajalike treeningandmete sildistamiseks. Mudelite heaks õppimiseks on oluline koguda piisavalt suuri ja kvaliteetseid andmestikke. Algoritm ei saa õppimisprotsessis mingit andmestiku osa mitte arvestada ja on sunnitud õppima nii, et vigane näide (st valesti sildistatud) on lihtsalt erand. Kui selliste vigaste erandlike näidete hulk on suur, siis mudel enam nii hästi ei õpi. Näiteks tervishoiuteenuste tulemuste täpsemaks ennustamiseks on vaja piisavalt kliiniliste uuringute andmeid, mille kogumine on sageli keeruline.
Usaldus ja tulemuste tõlgendatavus
Tehisintellekti laialdast rakendamist piirab see, et tema viis otsuseid teha on inimestele arusaamatu. Ta on nagu must kast, mis maagiliselt õige vastuse annab. Inimesed ei tunne end mugavalt, kui nad ei saa aru, kuidas mingi otsus tehti. See on eriti oluline rakendustes, kus usalduse vajadus ja ühiskondlik mõju on suur (nt õigussüsteem, laenud, tervishoid). Näiteks, pangad ja meditsiiniasutused kasutavad lihtsamaid masinõppe ja statistilisi mudeleid, mille puhul on võimalik selgitada, kuidas nad sisendist väljundini jõudsid. Kuna digitaaltehnoloogia mõjutab inimeste elu igas aspektis, peaks üldise printsiibina olema inimestel võimalik seda usaldada. Usaldusväärsus on selle tehnoloogia kasutuselevõtu eeltingimus.
Nutikamate algoritmide loomine
Kolmas väljakutse on üldise tehisintellekti (ingl Artificial General Intelligence (AGI)) loomine, kuna praegustel tehisintellekti mudelitel on jätkuvalt raskusi oma oskuste üldistamisel ühest olukorrast teise.
Hetkel arendavad teadlased ja masinõppeinsenerid selliseid mudeleid, mis on võimelised õppima teatud ülesannet täitma, aga mida saab rakendada sarnasele, kuid eristuvale tegevusele. Selliste mudelite väljatöötamise valdkonda kutsutakse siirdeõppeks (ingl transfer learning). Siirdeõppe näitena võib tuua isejuhtiva auto mudeli, mis on treenitud sõitma arvutimängus või simulatsioonis ning mida rakendatakse päris maailmas. Ülesanne on sarnane, aga pisut teistsugune, sest päris elu keerukust simulatsioonis luua pole võimalik.
Nutikamate meetodite loomisega on seotud ka uute masinõppeülesannete väljamõtlemine. Masinõppe algoritmidel pole loovuse omadust, mis tähendab, et inimesed peavad pakkuma loovust, mis muudab masinõppe mudelite tulemusi paremaks. Isegi algoritmid, mis loovad teisi algoritme, on võimelised parandama ainult teatud ülesandes saavutatavate tulemuste tõhusust ja täpsust. Nad ei suuda luua algoritme, mis täidavad täiesti uut tüüpi ülesandeid. Inimesed peavad andma vajalikku sisendit uute ülesannete püstitamiseks ja nende lahendamiseks vajalike protsesside määratlemiseks.
Inimlikkus
Algoritmidel puuduvad inimlikud omadused nagu empaatia ja kaastunne. Need omadused on heaks kommunikatsiooniks aga väga olulised, eriti meditsiinivaldkonnas. Seepärast ongi tehisintellekti süsteemid tihti toetava rolliga ja täidavad olulisi, kuid piiratud ülesandeid. Näiteks meditsiinis võivad tehisintellekti süsteemid täita otsustustoe rolli, kuid esmane vastutus patsiendi ravi juhtimise eest jääb siiski arstile.
Andmete privaatsus ja turvalisus
Enamik tehisintellekti rakendusi kasutavad õppimiseks suuremahulisi andmehulki. Masinõppe süsteemid sõltuvad sageli tundlikest ja isiklikest andmetest. Piiramatu isiklike andmete kasutamine võib viia privaatsuse rikkumiseni ja identiteedivargusteni. Euroopa Liit on kehtestanud isikuandmete kaitse üldmääruse (ingl General Data Protection Regulation (GDPR)), mille eesmärk on tagada isikuandmete kaitse. Selleks, et oleks ikkagi võimalik näiteks terviseandmeid uurida ja analüüsida, arendavad tehisintellekti valdkonna eksperdid meetodeid, mida nimetatakse detsentraliseeritud õppeks (ingl federated learning). Detsentraliseeritud õpe on masinõppe vorm, kus õpe toimub jagatud mudeliga. Tundlikke andmeid ei panda kokku ühte andmestikku, vaid hoiustatakse eraldi iga asutuse serveris. Õppimine kõigi nende andmestike peal toimub eraldi ilma andmete vahetuseta. Mudel liigutab ennast ühest serverist teise, õpib seal olevate andmete peal ning uuendab ennast. Nii ei välju andmed ise kunagi turvalisest serverist ja see protsess ei mõjuta kasutaja andmete turvalisust ning konfidentsiaalsust.
Regulatsioonid ja seadused
Kuigi tehisintellektil on võim muuta maailma paremaks, toob ta kaasa ka lahendamist vajavaid regulatiivseid küsimusi, nagu kõik innovatiivsed tehnoloogiad. Üheks küsimuseks võib näiteks olla, kes vastutab, kui algoritm teeb vigu? Üks hea illustratiivne situatsioon on see, kus isejuhtiv auto on peaaegu sattunud õnnetusse teise sõidukiga. Auto nagu inimjuht võib otsustada kaitsta kas oma reisijaid või teises sõidukis asuvaid inimesi. Selle otsuse teeb ükskõik kumb, kas autotootja või omanik. Praktiline küsimus on see, kes vastutab autoõnnetusega seotud inimeste saatuse eest. Praegune lahendus on anda kriitilisel hetkel autojuhtimine üle inimjuhile, seega vastutus jääb temale.
Tehisintellekti universaalset reguleerimist on keeruline välja töötada. Tehisintellekti rakendatakse väga erinevates valdkondades, alates infrastruktuuri rajamisest ja riigikaitsest ning lõpetades hariduse, spordi ja meelelahutusega. Peame arvestama ka kultuurist ja rakendusalast sõltuvate erinevustega. Näiteks ühes kultuuriruumis võib inimeste pildistamist pidada vastuvõetavaks, kuid teises kultuuris ei tohi fotosid teha religioossetel põhjustel.
Tehisintellekt ja eelarvamused
Eelarvamused on vältimatu elu osa ja inimkonna piiratud maailmavaate tulemus. Tehisintellekti rakendused võivad kajastada ning võimendada sotsiaalseid ja tehnilisi eelarvamusi. Esimene oht tuleneb eelarvamustest andmetes - kui mudel on loodud mingil viisil kallutatud andmetel on ka mudel ise kallutatud. Näiteks Massachusettsi tehnoloogiainstituudi Gender Shades projekti tulemused näitasid, et IBMi, Microsofti (Joonis 11) ja Hiina ettevõtte Migveli väljatöötatud inimeste soo tuvastamise mudelid suutsid inimese soo fotolt õigesti tuvastada 99 protsendi täpsusega. Paraku olid ülitäpsed tulemused kättesaadavad ainult valgete meeste tuvastamiseks. Tumedanahaliste naiste puhul langes algoritmi täpsus kuni 35 protsendini. See suurendab naiste ja vähemuste valesti tuvastamise riski ja seega pole see tehnoloogia nende jaoks tegelikult kasutatav. See täpsuste erinevus on tõenäoliselt seotud andmetega, mille põhjal algoritme treenitakse: kui andmestik sisaldab rohkem valgete meeste kui tumedanahaliste naiste pilte, on saadud mudel valgete meeste tuvastamises parem. Selle soo tuvastamise mudeli loonud firmad teatasid kiiresti, et uuendasid oma mudeleid kasutades uusi täiendatud andmestikke. Andmete eelarvamuse üks lahendus ongi koostada esinduslikke andmestikke, kus erinevad rassid, sood ja sotsiaalsed grupid on võrdselt esindatud.
Teine eelarvamuste algpõhjus on algoritmid ise. Tehisintellekti algoritmide eesmärk on leida reeglistik, mis võimaldaks sisendi põhjal täpselt ennustada väljundit. Kui andmetes on mingi lihtne seos, mis võimaldab seda teha, siis mudel ka leiab selle. Illustreerime seda näite abil. Kahes haiglas tehakse kopsupilte erinevate masinatega ja ühes neist (nt onkoloogiahaiglas) on kopsuvähiga isikute hulk väga suur, samas kui teises (nt tavahaiglas) väike. Nendest kahest haiglast pärit piltidel treenitakse mudel, mis peaks ennustama, kas pildil on vähk või mitte. Sellisel juhul võib mudel õppida lihtsalt ära tundma, millise masinaga on pilt tehtud. Nii on võimalik algoritmil saavutada märkimisväärne täpsus antud andmetel, ilma, et ta tegelikult midagi kasulikku teeks või kopsupildilt mustreid või detaile märkaks. Algoritm teeb midagi, mis näeb välja hea, kuid teeb seda tegelikult valedel põhjustel. Selline mudel oleks loomulikult täiesti kasutu vähi diagnoosimiseks ükskõik kumma masinaga.
Üldisemalt öeldes on tehisintellekti algoritmid nii võimsad, et nad võivad leida admetes seoseid, mille peale andmestiku looja pole tulnud, ja võivad lõppkokkuvõttes mitte õppida ülesannet lahendama, vaid jäävad kinni mingitesse kallutatustesse või nihetesse andmetes. Nende olukordade tuvastamiseks ja lahendamiseks peab kindlasti algoritmi testima režiimis, mis on sarnane reaalses maailmas kasutatavale.
Järgmises loengu osas arutleme tehisintellekti kasutuselevõtuga seotud eetiliste küsimuste üle.
< eelmine | 1. OSA sisukord | järgmine > |