Kas robotite loodud kirjandus vallutab maailma?
Ajaloolistele paralleelidele toetudes teame üsna kindlalt, et uue tehnoloogia kasutamisel on ka varjuküljed. Kuidas võiks vestlusrobotite tarvitamine muuta kirjandusvälja?
Ma olen nõus Klaus-Eduard Runneli seisukohaga, et uued vestlusrobotid (ChatGPT jt) on hüpe tundmatusse. Nagu iga uue tehnoloogiaga, on siin võita ja kaotada. Mida me võidame ja mida kaotame, ei ole alati päris selge – eriti siis, kui tehnoloogia on nii värske.
Midagi võib siiski oletada ajalooliste paralleelide põhjal. Näiteks saab 16. sajandil toimunud reformatsiooni seostada trükikunsti leiutamisega, 20. sajandi natsismi levikut raadioga ning teatud tänapäevaste parem- ja vasakpoolsete populistlike liikumiste populaarsust sotsiaalmeediaga. Põhimõtteliselt teame üsna kindlalt, et iga uut tehnoloogiat hakatakse ühel hetkel kasutama ka ebameeldivatel eesmärkidel.
Mida me ei tea, on see, kuidas täpselt seda tehnoloogiat kasutama hakatakse. See tõdemus tähendab, et oleme suhteliselt kaitsetud, sest me lihtsalt ei kujuta ette, milleks tuleb valmis olla. Oleme kõik justkui kummipaadis järjest kiireneva vooluga jões, käes vilets aer, millega saab ainult hädapärast tüürida. Meil jääb üle vaid loota, et ees pole liiga suurt kärestikku või hoopis koske. Aga kogemus ütleb meile, et kiireks muutunud vool midagi ikka tähendab – raputus tuleb kindlasti.
Siinjuures ei olegi tähtis, kas vestlusrobot on juba ise teataval määral teadvusel olev üksus, mille üle on arutlenud näiteks filosoof David Chalmers[1], või lihtsalt stohhastiline papagoi, nagu väidab lingvist Emily M. Bender[2]. Küsimus on selles, kuidas seda tööriista kasutama hakatakse.
Me teame päris hästi, et iga tööriist mõjutab seda, kuidas ja mida me ehitame – teisisõnu, inimesele, kelle käes on haamer, kipub iga asi tunduma naelana. See tähendab, et miljonid inimesed hakkavad tegema seda, mida uued tehisintellektisüsteemid võimaldavad. Me teame ka seda, et need on kureeritud süsteemid ja neile püütakse peale panna teatavaid moraalseid piiranguid või neid vähemalt suunatakse mitte andma otseselt kahjulikku nõu.
Kureerimine ja tsensuur
Kureerimine tähendab teisisõnu seda, et masina õpetamiseks on vaja teha väga palju inimtööd, hinnata tema küsimusi, valida välja viisakad vastused ja märkida ära need, mis on halvad, rassistlikud, levitavad konspiratsiooniteooriaid jms. OpenAI võttis selleks tööle ühe Keenia ettevõtte, mille eesmärk oli märgistada näiteid vägivallast, vihakõnest ja seksuaalsest väärkohtlemisest. Nii võiks ChatGPT ära tunda andmete ja vastuste toksilisuse ning filtreerida need välja enne, kui need jõuavad kasutajani.[3]
Sarnasel moel on kureeritud ka pildigeneraatoreid, nagu Dall-e, Midjourney jt. See tähendab esiteks, et alati on võimalik, et midagi on jäänud märgistamata, midagi lipsab sellest filtrist läbi, ning kasutajad on võimelised eksitama roboteid filtrist kõrvale hiilima. Neid juhtumeid on teada juba hulgaliselt.
Teiseks tekib küsimus tsensuurist. Kuna eelsildistamine ja kureerimine tähendab, et kasutajateni jõudev info on kellegi poolt juba filtreeritud, siis on kellegi moraalsed hinnangud juba sinna sisse kirjutatud. Niisiis ei ole see tööriist ideoloogiavaba, vaid just kergelt suunav, mõjutav, vihjav.
Selliselt annab kasutajate hinnanguid kindlasti kergemini mõjutada kui sotsiaalmeedia postituste järjekorra muutmisega, millega Facebook jt on (edukalt) katsetanud. Niisiis koguneb robotite loojate kätte tohutu võim, mida kindlasti hakatakse kuidagi kuritarvitama – kiusatus on lihtsalt liiga suur.
Kas robot on võimeline looma?
Kolmandaks tekib küsimus loovusest. Kuna vestlusrobotid on põhimõtteliselt statistikamasinad, mis opereerivad tõenäosusega (lihtsustatult: valivad küsimusele treeningmaterjali hulgast kõige tõenäolisema vastuse), tekib küsimus, kas nad on suutelised looma midagi uut või originaalset.
Vestluses ChatGPT-ga tuli välja, et sel puuduvad võimalused hinnata teksti kirjanduslikku kvaliteeti. Nii ei suuda robotid teha põhimõtteliselt vahet mingisugusel nurgatagusel sopakirjandusel ja viimase nobelisti teosel, kui nad peaksid neid tekste ilma igasuguse eelmärgistuseta analüüsima.
Nii ütleb ka ChatGPT ise: „Automatiseeritud vahendid üksi ei suuda täielikult hinnata kirjutamise kvaliteeti, eriti romaani puhul. Inimene peab hindama ka kirjutamise subjektiivsemaid aspekte, näiteks tegelaste arengut, süžeestruktuuri, dialoogi, tempot ja emotsionaalset resonantsi. Need kirjutamise aspektid nõuavad nüansirikkamat ja subjektiivsemat hindamist, mida automatiseeritud vahenditega on raske korrata.“
See tähendab, et vestlusrobotite loodud romaanide kvaliteedi üle peaks lõpuks otsustama ikkagi inimene.
ChatGPT vastab küsimusele nii: „LLM-romaani (LLM – ingl Large Language Model, nn suurel keelemudelil baseeruva romaani – toim.) kvaliteedi hindamiseks oleks vaja kombineerida automatiseeritud hindamisvahendeid ja inimhinnangut. Automaatseid vahendeid võiks kasutada kirjutamise objektiivsete omaduste hindamiseks, samas kui inimhindajad võiksid hinnata kirjutamise subjektiivsemaid aspekte. See võiks hõlmata inimhindajate rühma, kes loeksid romaani ja annaksid tagasisidet kirjutamise eri aspektide, näiteks tegelaste arengu, tempo jne kohta.“
Siinkohal tulebki välja see, miks on olnud lihtsam alustada pildigeneraatorite või lühikeste tekstijuppide loomisega. Pikema ja keerulisema teksti koostamiseks puudub lihtsalt inimressurss, kes oleks võimeline adekvaatselt masinate loodud tekste kureerima ja parandama. Võtab ju ühe romaani lugemine inimesel aega tunde, kuid pildi kohta võib otsuse langetada mõne sekundiga.
Põhimõtteliselt on võimalik treenida roboteid ka enam-vähem sidusaid romaane kirjutama, aga ka ChatGPT ise arvab, et kogu protsessi töömahukust arvestades ei toimu see niipea.
Kuna süsteeme kureeritakse ja püütakse muuta turvaliseks ning need süsteemid püüdlevad keskmiselt kõige tõenäolisema vastuse poole, võib arvata, et roboti kirjutatud romaanid tulevad samasugused: keskmised, turvalised, ideoloogiliselt kergelt suunavad. Arvatavasti on sellistele romaanidele turg täiesti olemas.
Muidugi ei saa siinjuures üksi mingit robotit usaldada – kujutan ette, et sarnaselt tänapäeva suunamudijatele tekivad mõjukad lugejad, kes loevad läbi hulgaliselt robotkirjandust ning soovitavad siis tekste, mis kõlbavad enam-vähem lugeda. Sest lõpuks peab vastutuse teksti eest võtma ikkagi inimene, ja ma arvan, et see ongi kõige olulisem.
[1] David J. Chalmers, Could a large language model be conscious? – PhilPapers.
[2] Vt Runneli artikkel.
[3] Billy Perrigo, OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. – Time, 18.01.2023.
Meelis Friedenthal
TÜ Läänemere regiooni intellektuaalse ajaloo kaasprofessor ja mõtteloo kaasprofessor, kirjanik
Lisa kommentaar