Risto Uuk: mida Eesti peaks tegema, et TI-innovatsioon päriselt õnnestuks

Kas Eesti on valmis maailmaks, kus tehisintellekt suudab kirjutada pahatahtlikku koodi, luua veenvat propagandat ja automatiseerida miljoneid töökohti? Rahvusvaheline ekspertide kogukond võtab neid riske üha tõsisemalt ja Eestil tasub sellest õppida, kirjutab Risto Uuk.
2023. aastal, varsti pärast ChatGPT avalikustamist, hakkas ekspertide mure TI pärast kasvama, sest areng oli väga kiire, kuid turvalisus polnud sugugi kõige olulisemate küsimuste seas.
Üks suurimaid TI turvalisusega tegelevaid rahvusvahelisi organisatsioone Future of Life Institute, kus ma töötan, koostas avaliku kirja, mis kutsus kõiki tehisintellektiettevõtteid viivitamatult peatama vähemalt kuueks kuuks GPT-4-st võimsamate süsteemide treenimise.
Kiri viitas riskidele nagu TI loodud propaganda, töökohtade äärmuslik automatiseerimine ja ühiskonnaülene kontrolli kaotus. Kiri kogus üle 30 000 allkirja, sealhulgas teadlastelt ja tegevjuhtidelt nagu Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak ja Yuval Noah Harari.
Pärast seda on TI turvalisuse valdkond märkimisväärselt arenenud. Euroopa Liit on vastu võtnud maailma esimese tervikliku tehisintellektiseaduse, asutatud on rahvusvaheline tehisintellekti ohutuse instituutide võrgustik ning toimunud on mitu valitsustevahelise tasandi tippkohtumist Ühendkuningriigis, Koreas, Prantsusmaal ja Indias. Järgmised tippkohtumised korraldab Šveits 2027. aastal ja Araabia Ühendemiraadid 2028. aastal.
Üks olulisem areng on rahvusvaheline tehisintellekti ohutuse aruanne, mida on kaks aastat juhtinud Kanada masinõppe pioneer ja enimtsiteeritud teadlane Yoshua Bengio. See on nagu valitsustevahelise kliimamuutuste nõukogu raport TI turvalisuse valdkonnas. Esimene aruanne avaldati 29. jaanuaril 2025, teine 3. veebruaril 2026. Viimase aruande koostas üle saja tehisintellekti eksperdi ning seda toetab üle 30 riigi ja rahvusvahelise organisatsiooni. See on seni suurim ülemaailmne koostöö tehisintellekti ohutuse vallas.
Aruanne keskendub kõige võimekamatele üldotstarbelise tehisintellekti süsteemidele ja nendega seotud riskidele. Mõned riskid on juba realiseerumas ja dokumenteeritud, teised võivad realiseerumisel osutuda äärmiselt tõsisteks.
Milliseid riske aruanne täpsemalt käsitleb? Riskid jagunevad kolme kategooriasse.
Esimene on TI pahatahtlik kasutus. TI-süsteeme kasutatakse pettuste, väljapressimise ja nõusolekuta intiimpiltide loomiseks. Tehisintellektisüsteemid suudavad avastada tarkvara haavatavusi ja kirjutada pahatahtlikku koodi. Lisaks võivad nad pakkuda teavet bioloogiliste ja keemiarelvade arendamise kohta.
Teine on tõrked. TI-süsteemidel esineb tõrkeid nagu informatsiooni väljamõtlemine, vigase koodi genereerimine ja eksitava nõu andmine. TI-agendid on kõrgendatud riskiga, sest tegutsevad autonoomselt.
Niinimetatud kontrolli kaotuse stsenaariumides tegutseksid süsteemid väljaspool igasugust kontrolli. Praegustel süsteemidel selline võimekus puudub, kuid nad arenevad autonoomse tegutsemise alal pidevalt edasi ning suudavad üha enam leida hindamistes lünki, mis võib nende ohtlikud võimekused jätta märkamata.
Kolmas on süsteemsed riskid. TI automatiseerib tõenäoliselt laia valiku kognitiivseid ülesandeid, eriti teadmustöös. Praegused tõendid viitavad, et mõnedes ametites on vaja praegusest tunduvalt vähem nn juuniortöötajaid, kes alles karjääri alustavad ja kellel töökogemust napib. TI-tööriistadele toetumine võib nõrgendada kriitilise mõtlemise oskusi ja soodustada kalduvust usaldada tehisintellektisüsteemi väljundeid ilma piisava kontrollita.
"Tehisintellektikaaslase" rakendustel on juba praegu kümneid miljoneid kasutajaid, kellest väikese osa puhul võime tähendada, et nende üksildus on tegelikult suurenenud ja sotsiaalne kaasatus vähenenud.
Kuidas nende riskidega toime tulla? Eelmisel aastal avaldasid või uuendasid 12 ettevõtet oma TI-ohutusraamistikke. Tehnilised kaitsemeetmed paranevad, kuid nii mõnigi kord selgub, et kasutajad on õppinud turvapiirangutest mööda minema, sõnastades päringuid ümber või jagades neid väiksemateks sammudeks.
Omaette küsimus on avatud mudelid ehk sellised, kus piiranguid ja kaalusid saab ise sättida. Need pakuvad märkimisväärseid uurimis- ja ärilisi eeliseid ja tihti suurtest nn ametlikest mudelitest odavamalt. Siiski ei saa neid pärast avaldamist tagasi kutsuda, nende kaitsemeetmeid on lihtsam eemaldada ja neid saab kasutada väljaspool jälgitavaid keskkondi, muutes väärkasutuse ennetamise ja jälitamise raskemaks.
Ühiskondlik vastupidavus on oluline, sest riskijuhtimise meetmed ei suuda kõiki intsidente ära hoida. Tuleb tugevdada kriitilist taristut, arendada TI loodud sisu tuvastamise tööriistu ja luua institutsionaalset võimekust: näiteks küberrünnakutele reageerimise protokolle, meediakirjaoskuse programme ja inimjärelevalve raamistikke.
Riskide mõistmine ei pidurda innovatsiooni, vaid teeb selle tegelikult võimalikuks. Riigid, mis suudavad TI-d turvaliselt rakendada, saavad selle kasudest rohkem osa kui need, kes peavad hiljem tagajärgedega tegelema.
Näiteks Singapur on loonud ettevõtetele praktilise testimisraamistiku TI Verify ning avaldas selle aasta alguses maailma esimese raamistiku TI-agentide vastutustundlikuks kasutamiseks. Eelmisel aastal tõi Singapur kokku üle 100 eksperdi 11 riigist, kaasa arvatud USA-st ja Hiinast, ühiste TI ohutuse prioriteetide kokkuleppimiseks.
Eesti kui üks maailma digitaalsemaid riike peaks olema TI turvalisuse aruteludes aktiivne osaleja, mitte kõrvaltvaataja. See tähendab nii rahvusvahelistes võrgustikes osalemist kui ka kodumaise ekspertiisi arendamist. Hea on näha, et juba praegu astub selles suunas samme Sisekaitseakadeemia oma TI turvalisusele keskenduva teadmuskeskuse initsiatiiviga.
Võimalused tegutseda on juba käes. Juulis on Eesti ÜRO ülemaailmse tehisintellekti valitsemise dialoogi kaasläbiviija. Võiksime kutsuda juhtivaid TI teadlasi ja ettevõtjaid pakkuma praktilisi demosid tehisintellekti riskidest ja kasudest.
Samuti on varsti ettevalmistamisel järgmine rahvusvaheline TI ohutuse aruanne ja Eesti ekspert võiks seal laua taga olla. Ja kodus võiks Eesti.ai strateegia käsitleda riske põhjalikumalt, alustades lihtsast praktikast: iga projekt peaks läbi mõtlema, mis võib valesti minna ja kuidas seda ennetada.
Toimetaja: Kaupo Meiel




