< eelmine | 1. OSA sisukord | järgmine > |
1.4 Tehisintellekti eetika ning robotite õigused autor: Elena Sügis
Intellektuaalse võimekusega algoritmidel või robotitel (või agentidel tehisintellekti terminoloogias) on potentsiaal kasutada oma intellekti kahjude ärahoidmiseks ja riskide minimeerimiseks erinevates valdkondades. Tehisintellektil peab olema võime kasutada eetilisi põhjendusi, et teha maailmas paremaid valikuid. Eetika valdkonna teadusuuringud hõlmavad näiteks tehisintellekti eetikat, tehisintellekti moraali ja sõbraliku tehisintellekti loomist. Eetika määratleb indiviidi või grupi moraalseid printsiipe, st reegleid või otsuseid, mis aitavad kindlaks teha, mis on hea või õige ja mis on vale või halb.
Termin robotite või tehisintellekti eetika viitab moraalsetele printsiipidele, kuidas inimesed peaksid roboteid kujundama, looma ja kasutama ning nende või teiste tehisintellekti agentidega suhtlema. Tehisintellekti eetika arvestab, kuidas tehisintellekti võib kasutada nii inimeste kahjustamiseks kui ka inimeste hüvanguks.
Populaarsed arutelud tehisintellekti-põhises filosoofiast keskenduvad eetilistele probleemidele, mille võib jagada nelja kategooriasse:
- Ohutus ja “trammiprobleem” (ingl trolley problem);
- Tehisintellekti kasutamise eetika;
- Tehisintellekti eksistentsiaalne oht inimkonnale;
- Privaatsus ja andmete turvalisus seoses tehisintellekti süsteemide kasutamisega
Ohutus ja “trammiprobleem”
Rakendused, mis kasutavad masinõppe meetodeid, viivad tehisintellekti objektide (nt robotid) ja inimese interaktsiooni täiesti uuele tasemele. Autonoomsed isejuhtivad robotid ehk robotid, mis töötavad ilma reaalajaliste või sagedaste juhisteta inimeste poolt (nt autod, droonid, tolmuimejad, juturobotid jne), mõjutavad ja muudavad meie töökeskkonda. Autonoomne otsuste tegemine eeldab, et automatiseeritakse võimekust ohutuse hindamisel, et kahju prognoositavalt ära hoida.
Mitte kõik tehisintellektiga seotud probleemid pole tehisintellektispetsiifilised, vaid põhinevad tavalistel inimese eetilistel probleemidel. Trammiprobleem on mõtteeksperiment, mille eesmärk on panna teid mõtlema moraalsele erinevusele, mis eristab aktiivset tapmist ja surra laskmist. Algses näites tapab tramm viis töötajat, välja arvatud juhul, kui juht teadlikult muudab suunda, ning sel juhul tapab tramm ainult ühe töötaja. Trammiprobleem on isejuhtivate autode loomisega muutunud aktuaalsemaks kui kunagi varem. Näiteks, juhul kui keegi jookseb ootamatult teele, kas auto peaks oma trajektoori muutma, põhjustades mitmete autode massilist kahjustamist ning potentsiaalselt autosviibijat? Või peab ta suunda muutmata pidurdama, teades ise, et pidurdamisest enam ei piisa ja et tulemuseks on tõenäoliselt jalakäija hukkumine. Selles dilemmas ei ole õiget vastust, sest filosoofidel pole üksmeelt ka selles, kas trammijuht peaks trammiprobleemis kurssi muutma või mitte. Autonoomsete sõidukite näide on sama keerukas ja samuti lahendamata probleem.
Kui mõelda positiivselt, siis tõeliselt head isejuhtivad süsteemid hoiaksid selliseid “trammiprobleemi” olukordi tõenäoliselt kõige paremini ära, sest nad saaksid teha paremaid ennustavaid arvutusi ning reageerida palju kiiremini kui inimene.
Tehisintellekti kasutamise eetika
Tehisintellektiga seotud eetilised probleemid on sarnased nendega, mis on üldiselt seotud tehnoloogia kasutamisega ning arendamisega. See tähendab, et tehnoloogia kasutamine on eetiline, kui selle kasutamise eesmärk on eetiline, ja mitte-eetiline, selle eesmärk on ebaeetiline. Näiteks kui profiilide põhjal diskrimineerimine või inimeste tapmine on ebaeetiline, siis oleks see ebaeetiline ka kasutades tehisintellekti tehnoloogiat. See printsiip võib laieneda ka militaarrakendustele - kui tehnoloogia loomise eesmärk on heidutada potentsiaalset vaenlast ja ära hoida sõjalist konflikti, siis võib tehisintellektiga militaartehnoloogia loomine olla eetiline. Siiski on paljud tuntud tehisintellektiuurijad kinnitanud, et nemad sõjalistes projektides ei osale.
Tehisintellekti eksistentsiaalne oht inimkonnale
Enamik uurijaid nõustub, et pole tõenäoline, et tulevikus omandab superintelligentne tehisintellekt inimlikke emotsioone nagu armastus või vihkamine ja pole põhjust eeldada, et ta muutub heatahtlikuks või pahatahtlikuks. Selle asemel võib tehisintellekt inimestele ohtlikuks muutuda kahes olukorras - ta on loojate poolt programmeeritud tegema midagi laastavat või tehisintellekti rakendus on loodud tegema midagi kasulikku, kuid ta kasutab hävitavat meetodit selle eesmärgi saavutamiseks.
Privaatsus ja andmete turvalisus seoses tehisintellekti süsteemide kasutamisega
Kui väärtustame privaatsust ja andmete turvalisust, ei tohiks tehisintellekti kasutada sellisel viisil, mis neid õõnestab. Tehisintellekti rakendusi on võimalik ümber suunata või isegi tahtlikult kavandada inimeste jälgimiseks. Inimesed peavad otsustama, millised peaksid olema selliste tööriistade loomise eetilised kaalutlused ning kas neid peab üldse ehitama.
Privaatsus on sotsiaalne konstruktsioon, mis areneb aja jooksul ja mida mõjutavad kultuurinormid. Kuigi privaatsuse määratlemine on mitmetahuline, on selle rikkumise tuvastamine intuitiivne. Kui keegi saab ligipääsu teie arvutile ilma teid teavitamata, tunnete, et teie privaatsus on rikutud. Tehisintellekti maailmas, mis kasutab digitaalseid suuri andmeid, pole privaatsuse rikkumised otsesed ega nii ilmsed. Privaatsusest loobumise oht võib olla seotud mugavuse ja isikupärastamisega. Näiteks näotuvastustehnoloogia on privaatsuse rikkumisega seotud kergelt kättesaadav tehnoloogia. Tehisintellekti algoritmid võivad teha näo-, naha tekstuuri-, kõne- ja emotsioonituvastust. Kõike ilma inimeste loata või kooskõlastamiseta.
Robotite õigused
Kuigi robotite ja tehisintellekti algoritmide vastutusele on juba pühendatud märkimisväärset tähelepanu, muutuvad nende õigustega seotud küsimused veel aktuaalsemaks. Kunagi mõeldamatu kontseptsioon on huvitav ja väärib meie tähelepanu. Robotite või tehisintellekti moraalse ja õigusliku seisundi küsimuse võib sõnastada järgmiselt - kas arvestada, et arvuti on võimeline olema juriidiliselt tunnustatud isik või pole see midagi muud kui tööriist või vara? Robotid ja tehisintellekti algoritmid on objektid, millest ei saa mõelda kasutades olemasolevaid moraalseid ja juriidilisi kategooriaid. See tähendab, et tulevikus võibolla peame mõtlema robotite sotsiaalsest staatusest ning nende kohast õigussüsteemis.
Kokkuvõttes võib öelda, et tänapäeval on kõige aktuaalsemad tehisintellekti rakendamise väljakutsed seotud privaatsusega, turvalisusega ning eetikaga. Väljakutsed seotud robotite õigustega ja sellega, kuidas inimene peaks tehisintellekti suhtes käituma, kui on võimalik, et tehisintellektil on tunded, ei ole veel nii päevakajalised.
Järgmistel nädalatel tutvustame teile, milliseid tehisintellekti meetodeid kasutatakse erinevates valdkondades ning tutvustame järgmisi teemasid:
- masinõpe, tehisnärvivõrgud;
- pilditöötlus, objektituvastus;
- isesõitvad autod;
- loomuliku keele töötlus;
- ärianalüütika;
- inimese ja roboti interaktsioon;
- tehismõistus meditsiinis ja terviseandmete analüüs.
Kursuse loengud koostasid Tartu Ülikooli teadlased erinevatest uurimisrühmadest, kes on oma valdkonna eksperdid. Tutvu kursuse korraldajatega siin.
Kui Teil on soov süveneda lemmikusse tehisintellektiga seotud teemasse, tutvuge arvutiteaduse instituudi ning teiste instituutide poolt pakutavate kursustega siin.
< eelmine | 1. OSA sisukord | järgmine > |