Õppimine ja õpetamine tehisintellekti ajastul: kuidas kasutada tekstiroboteid õppetöös
Millised on praegu TI kasutamisega seotud piirangud ja puudused?
Kuigi tänapäeva TI rakendused on väga võimsad ja suudavad lahendada paljusid ülesandeid inimesega samaväärsel tasemel või isegi paremini, on neil siiski mitmesuguseid tehnilisi, ühiskondlikke ja eetilisi piiranguid ning puudusi.
- Tekstirobotid ei mõtle ideede ja lahenduste peale nii nagu inimene, vaid lihtsalt ennustavad iga järgmist sõna, mistõttu võivad need teha vigu ja anda väärinfot.
- Tekstirobotite kasutamine võib parandada tudengi ja töötaja sooritust ning vähendada ülesandele kuluvat aega, kuid nende kasutamine töö ärategemiseks ei toeta õppimist.
- TI mudelid on tugevalt mõjutatud treeningandmete kvaliteedist. Kuna praegu on treeningandmed kogutud suures mahus internetist, leidub seal ka kallutatust ja eelarvamusi, olgu need seotud siis rassi, soo, sotsiaal-majandusliku staatuse, kultuuriliste eripärade, poliitiliste vaadete või mõne muu aspektiga. Näiteks eelistab ChatGPT tööle kandideerijaid hinnates pigem inimesi, kelle elulookirjelduses ei ole mainitud puuet.
- Selleks et TI toimiks, on vaja tohutut arvutusvõimekust, ent superarvutuskeskuste energiakulu on suur, mistõttu on TI-l ka suur ökoloogiline jalajälg.
- TI treenimiseks kulub palju elektrit. Näiteks ChatGPT-3 mudeli treenimine tekitas ligikaudu 502 tonni CO2 heidet ja iga ChatGPT-le esitatud küsimus tekitab keskmiselt 4,3 g CO2 heidet. TI andmekeskused põhjustavad ligikaudu 2,5–3,7% globaalsest kasvuhoonegaaside heitkogusest, mis ületab isegi kogu maailma lennunduse mõju.
- TI mudelite loomiseks ja töös hoidmiseks tarvilike arvutuskeskuste jahutamine kulutab palju puhast vett. Näiteks 10–50 viiba jooksutamine ChatGPT-3-s võtab ligikaudu pool liitrit vett. Kui jahutusvee kulule lisada kaudne veekulu protsessorite, arvutuskeskuste mikroprotsessorite ja teiste komponentide valmistamiseks (ühe mikroprotsessori valmistamiseks kulub ligikaudu 8 l vett), on TI keskkonnamõju märkimisväärne.
- Kuigi TI mudelite tööpõhimõtted süvanärvivõrkude ja transformerite näol on selged, siis see, kuidas täpselt jõuab mudel konkreetse tulemuseni, on justkui „must kast“ ja isegi arendajad ei oska asjasse alati selgust tuua. See on problemaatiline eelkõige äärmist täpsust eeldavates valdkondades, nagu tervishoid, õigus ja rahandus, kus on tähtis teada otsusteni jõudmise aluseid.
- Üks keerulisemaid küsimusi on TI rakenduste, sh tekstirobotite läbipaistvus või ka seletatavus. Me ei tea päris täpselt, millisest allikast või milliste kriteeriumide alusel on kogutud TI rakenduste treenimisel kasutatavad andmed ja kuidas töötavad TI rakenduste algoritmid. Mainitakse küll, et näiteks OpenAI ChatGPT saab alusandmed erinevatest internetiallikatest, sh e-raamatutest, sotsiaalmeediast, Wikipediast, uudistest, teaduspublikatsioonidest, foorumitest ja paljudest muudest kohtadest. Esmapilgul tundub see valik hea, kuid samas ei saa eitada, et mõni autor, kirjastaja, meediamaja vms võib osutuda usaldusväärsemaks või asjakohasemaks kui mõni teine.
- TI rakenduste treenimisel kasutatavate allikate hulgas on tihti infot, mis on tegelikult kaitstud autoriõigustega: kindlasti on selline varem avaldatud info kasutamine vastuolus akadeemiliste põhimõtetega, mille kohaselt tuleb teiste autorite töödele korrektselt viidata. Tõenäoliselt oled kuulnud ka mõnest kohtusse jõudnud juhtumist, kus autorid on vaidlustanud oma loomingu kasutamise TI rakenduste treenimisel – see on loomeinimeste hulgas tõsine mure.
- TI rakenduste puhul tuleb kindlasti arvestada ka turvalisuse ja privaatsuse küsimustega: andmete haldamisele rakenduvad mitmesugused andmekaitse põhimõtted ning selleks et neid andmeid julgelt viipa sisestada, on vaja võtta eraldi meetmeid. Turvaline valik on näiteks Tartu Ülikooli kasutajatunnustega kasutatav Microsoft Copilot. Kommertspõhimõtetel arendatavate enamlevinud TI rakenduste puhul tasub aga lähtuda põhimõttest, mida mainis üks üliõpilasest intervjueeritav Elika Kotsari magistritöös: „Ära jaga mitte ühtegi asja, mida sa ei tahaks enda T-särgi peale trükkida ja sellega avalikult ringi käia“.
TI rakenduste toel otsuseid langetades või TI rakendusi ise uue sisu loomiseks kasutades võivad niisiis kaasneda olulised ühiskondlikud mõjud, mis hõlmavad tekstirobotite läbipaistvuse ja kallutatuse küsimusi ning autoriõiguste rikkumise probleeme ning mis mõjutavad poliitilist, kultuurilist, majanduslikku ja sotsiaalset valdkonda. Selle vältimiseks teevad TI arendajad pidevalt tööd, rakendades andmete peal paremat eeltöötlust ja andmeid rohkem puhastades.
Loe lisaks:
- Akgun, S. & Greenhow, C. (2022). Artificial intelligence in education: Addressing ethical challenges in K-12 settings. AI Ethics 2, 431–440. https://doi.org/10.1007/s43681-021-00096-7
- Farina, M. & Lavazza, A. (2023). ChatGPT in society: emerging issues. Front. Artif. Intell. 6:1130913. https://doi.org/10.3389/frai.2023.1130913
- Kotsar, E. (2004). Tehisintellektil põhineva vestlusrobot ChatGPT kasutamise kogemused Tartu Ülikooli sotsiaalteaduste valdkonna üliõpilaste näitel. Magistritöö. Tartu Ülikool. https://dspace.ut.ee/items/9abc8662-7bff-497d-842f-c5097f0ec383
- Sherman, N. (2024, September 20). Microsoft chooses infamous nuclear site for AI power. BBC News. https://www.bbc.com/news/articles/cx25v2d7zexo