Darius Amilevičius. Dirbtinis intelektas ir besiformuojančių technologijų etika (NŽA nr. 5)

 

Jūratė Jarulytė. Irracionalūs pjūviai. VI . 2013. Drobė, aliejus
Jūratė Jarulytė. Irracionalūs pjūviai. VI . 2013. Drobė, aliejus

Darius Amilevičius (g. 1966) – humanitarinių mokslų daktaras, dėsto ir mokslinius tyrimus vykdo Vytauto Didžiojo universiteto Informatikos fakultete ir Humanitarinių mokslų kompiuterinės lingvistikos centre, Lietuvių katalikų mokslo akademijos ir Lietuvos kompiuterininkų sąjungos narys. Studijavo VDU ir Popiežiškajame Biblijos institute (Roma, Italija). Bendradarbiauja su Vilniaus universiteto Komunikacijos fakultetu. Dalyvauja Europos kalbos išteklių ir technologijų tyrimų infrastruktūros (CLARIN ERIC) veikloje. Mokslinių interesų sritys: dirbtinis intelektas, skaitmeninė humanitarika, skaitmeninės kalbos technologijos, diskurso retorinė analizė.

Iššūkiai technologijų etikai

Gyvename sparčiai tobulinamų technologijų laikais. Gali būti, kad stebime, kaip realybe tampa Franciso Bacono “Naujosios Atlantidos” ar George‘o Orwello vizija. Technologijų kaitos greitis ir jų globalus poveikis toks ryškus, kad vos įsibėgėjusią trečiąją pramonės revoliuciją jau pakeitė ketvirtoji. Naujos ir besiformuojančios (angl. emerging) technologijos, tarp kurių svarbią vietą užima dirbtinis intelektas, jau paveikė ir esmiškai keičia didžiąją dalį verslo ir pramonės. Sparčiai kinta ir pats technologijų vaidmuo visuomenėje: naujos technologijos jau nėra vien įrankis, kuriuo gerinama žmogaus gyvenimo kokybė. Tai jau būtinybė ir neišvengiamybė, kuri keičia žmogaus ir visuomenės socialinę elgseną ir žmonių santykius. Todėl kyla poreikis skubiai spręsti žmogaus ir mašinos koegzistavimo klausimus.

Padedama technologijų žmonija vykdo biblinę tvarinijos valdymo užduotį. Popiežius Jonas Paulius II yra sakęs, kad mokslas ir technologijos yra nuostabi Dievo žmogui suteikto gebėjimo kurti pasekmė. Popiežius Benediktas XVI teigė, kad nuo pat pasaulio pradžios žmogui būdinga keisti gamtą ir aplinką tinkamiems tikslams pasiekti, o technologijų raida rodo žmogaus vidinę įtampą, kuri skatina įveikti medžiagines materialumo ribas.

Popiežius Pranciškus enciklikoje Laudato si‘ taip pat teigiamai vertino technologijas ir jų tobulinimą, tačiau kartu jis nurodė, kad mokslas ir technologijos nėra neutralios. Pranciškus įžvelgė galimas neigiamas socialines pasekmes ir įspėjo: „Vis dėlto negalime ignoruoti, kad branduolinė energija, biotechnologija, informatika, mūsų pačių DNR pažinimas ir kiti gebėjimai, kuriuos įgijome, suteikia mums labai didelės galios. Tiksliau, tiems, kurie tai išmano ir pirmiausia turi ekonominės galios, tai suteikia įspūdingą galią valdyti visą žmoniją ir visą pasaulį. Niekada žmonija neturėjo tiek galios savo pačios atžvilgiu ir, regint, kaip ja naudojamasi dabar, niekas negarantuoja, kad ji bus panaudota deramai“[1] ir „Būtina pripažinti, kad technikos produktai nėra neutralūs, nes sukuria tinklą, galiausiai lemiantį gyvensenas ir socialines galimybes pakreipiantį tam tikrų įtakingų grupių interesų linkme. Kai kurie vien dalykiški atrodantys sprendimai iš tikrųjų yra sprendimai, susiję su socialinio gyvenimo tipu, kurį ketinama plėtoti“[2].

Mokslinių tyrimų ir inovacijų kūrimo procesus labai sudėtinga tinkamai valdyti, nes juose dažnai glūdi nežinios, netikėtumo ir neapibrėžtumo veiksnys. Greita ir kompleksiška technologijų pažanga kelia daug etikos problemų. Dar praėjusio amžiaus septinto dešimtmečio pradžioje Jungtinėse Amerikos Valstijose atsirado sąvoka „technologijų vertinimas“ (angl. Technology assessment). 1976 m. JAV Technologijų vertinimo tarnyba šią sąvoką apibrėžė kaip „visapusiškos, tinkamos politikos formavimo metodą, kuris tiria trumpojo ir ilgojo laikotarpio technologijų naudojimo pasekmes visuomenei (socialines, ekonomines, etines, teisines ir t. t.)“. Tuometės technologijų etikos atstovai teigė, kad technologijos etikos svarstymų objektu tampa tik po to, kai įžengia į komerciją. Bet nūdienos technologijų raida ir jų specifika verčia persvarstyti ir patį technologijų tapsmo etikos svarstymų objektu procesą.

Pasaulio ekonomikos forumo dokumente, skirtame aptarti svarbiausias 2016 m. besiformuojančias technologijas, konstatuota, kad jos tikriausiai yra pagrindinis šiuolaikinio pasaulio pokyčius lemiantis veiksnys, ir nors egzistuoja tam tikra rizika, technologijų plėtra žada novatoriškus sprendimus iššūkiams, su kuriais susiduria šiuolaikinis pasaulis. Dokumente pateiktas dešimties svarbiausių besikuriančių technologijų sąrašas: 1) nanosensoriai ir daiktų internetas, 2) naujos kartos baterijos, 3) didieji duomenys ir paskirstytos duomenų bazės (angl. The Blockchain), 4) 2D medžiagos, 5) savaeigės transporto priemonės, 6) mikroprocesoriai, simuliuojantys žmogaus organų veiklą, 7) saulės energijos elementai, 8) dirbtinio intelekto sistemos (angl. Open AI Ecosystem), 9) optogenetika ir 10) sistemų metabolizmo inžinerija[3].

Jau kurį laiką dirbtinis intelektas yra įsiskverbęs į visuomenės gyvenimą ir daugelį ekonominės veiklos sričių. Pavyzdžiui, finansų institucijos naudojasi dirbtinio intelekto sistemomis, ieškodamos optimalių investavimo sprendimų, siekdamos atskleisti finansinio sukčiavimo atvejus ir analizuodamos rinkos tendencijas; ligoninėse diegiamos sistemos, kurios slaugo pacientus, atlieka diagnostinius tyrimus; pramonė dirbtinio intelekto sistemas ir robotus naudoja naujoms gamybos linijoms kurti; aviacijoje ir logistikoje tokiomis technologijomis grindžiamos autopilotų ir savaeigių transporto priemonių valdymo sistemos; karinė pramonė kuria autonominius ginklus; Google dirbtinį intelektą taiko vartotojų elgsenai analizuoti ir prognozuoti. Sąrašą būtų galima tęsti be galo.

Dirbtinis intelektas gali turėti naudingų ir (arba) žalingų padarinių. Atsižvelgiant į dabartinius jo raidos tempus, mokslininkai prognozuoja, kad per keletą dešimtmečių ši technologija gali tapti savarankiška ir superintelektuali. Teigiama, kad dirbtinio intelekto evoliucijos tempai stipriai pranoksta žmogaus ir visuomenės evoliucijos tempus. Stephenas Hawkingas interviu BBC įspėjo, kad „visuotinio dirbtinio intelekto sukūrimas gali reikšti žmonijos pabaigą“[4]. Akivaizdu, kad šiame kontekste būtina iš naujo įvertinti ir nuolat analizuoti dirbtinio intelekto etinį poveikį ir keliamas grėsmes, nes būtent etiniai klausimai turėtų lemti sprendimų priėmimus.

Lietuvoje dėmesys dirbtiniam intelektui ir jo etiniam poveikiui yra neadekvačiai menkas. Google paieškos sistemoje pagal užklausą „artificial intelligence“ nuo 2010 m. iš viso randama daugiau nei 85,7 mln. dokumentų anglų kalba. Šis masyvas apima pačią plačiausią temų įvairovę: nuo techninių straipsnių ir mokslo politikos dokumentų iki svarstymų apie sielos santykį su dirbtine gyvybe ir dirbtine sąmone. Lietuviškos užklausos rezultatai stebina: per tą patį laikotarpį randama tik 226 000 dokumentų lietuvių kalba. Didžioji jų dalis yra siauros technologinės tematikos ir kaupiami technologinės pakraipos interneto svetainėse.

Naujos technologijos ir jų revoliucija

Technologijų etika (arba technoetika) yra etikos mokslo sritis, nagrinėjanti specifinę, technologijų eroje atsiradusią etikos problematiką. Technologijos yra žmogaus sukurta realybė, kuri neturi moralės, etikos ir vertybių sando. „Naujos technologijos“ plačiąja prasme yra bendrinė sąvoka, apibūdinanti aibę technologijų, kurios tam tikrame istoriniame kontekste reikšmingai patobulina tam tikrus procesus (didina produktyvumą, mažina sąnaudas ar pan.). Tačiau pati „technologijų“ sąvoka yra dviprasmė. Kartais ji vartojama kalbant apie technologijos paradigmą, t. y. konkrečią technologiją apibūdinančių sąvokų, teorijų ir metodų visumą (pavyzdžiui, informacinės technologijos), o kartais – kalbant apie konkretų įrenginį (pavyzdžiui, kompiuterį). Pasitaiko, kad kalbama ir apie abu dalykus iš karto: štai kompiuteris su įdiegta programine įranga gali būti laikomas kompiuterijos mokslo technologine paradigma; kita vertus, kompiuteris su įdiegta programine įranga yra riboto pajėgumo prietaisas.

Nors technologijų raidos procesas yra senas kaip pasaulis, tačiau kartais technologijos taip smarkiai veikia visuomenės gyvenimą, kad prasideda vadinamoji technologinė revoliucija. Technologinės revoliucijos kartais skirstomos į tris etapus: įžangą, prasiskverbimą ir įsitvirtinimą. Jameso H. Mooro nuomone, informacinių technologijų revoliucijos šį trijų etapų modelį atspindi geriausiai[5]. Jis pasiūlė hipotezę: kuo aukštesnis technologijos inovacijos (arba naujumo) lygis, kuo didesnis technologinės revoliucijos poveikis visuomenei, tuo daugiau etinių problemų kyla. Kitaip tariant, etikos problemų daugėja, kai technologinė revoliucija artėja prie įsitvirtinimo etapo. Mooro teigimu, tokį dėsningumą lemia ne tai, kad įsibėgėjant revoliucijos procesui technologijos paveikia vis didesnę visuomenės dalį, o tai, kad visuomenė susiduria su naujomis situacijomis, kurioms nauji etinės elgsenos modeliai dar nesukurti. Įžangos etapas pasižymi ezoteriškumu ir mokslininkų smalsumu. Šiame etape nauja technologija panašesnė į eksperimentinę žaidimų aikštelę. Tuomet naujos technologijos dažniausiai reikalauja didelių finansinių, laiko ir žmogiškųjų išteklių, todėl jų integracija į visuomenės gyvenimą yra minimali. Antrame etape kuriami technologijos standartai, atskleidžiami konkretūs panaudojimo būdai, todėl poveikis visuomenei didėja arba tampa aiškesnis. Trečiame etape technologija jau užima konkrečią vietą visuomenėje ir pramonėje – visu mastu prasideda tiesioginis ir netiesioginis poveikis visuomenei arba jos daliai. Mooras teigia, kad jo pasiūlyti dėsningumai galioja tik demokratinėje valstybėje, kurioje vyksta atvira technologinė revoliucija. Jei valdantysis elitas arba karo pramonė kuria ir tobulina technologijas, paslėptas po grafa „visiškai slaptai“, kalbame apie uždarą technologijų revoliuciją, kuri vyksta pagal visiškai kitą logiką.

Per revoliuciją susikūrus naujiems elgsenos modeliams, visuomenė susiduria su norminiu vakuumu (reglamentavimo, taisyklių, standartų stoka). Jei kuriamų technologijų rezultatai lengvai prognozuojami, socialinėms ir etinėms problemoms galima užbėgti už akių, iš anksto parengiant tinkamus norminius dokumentus ir modelius. Bet kartais normų kūrėjams tenka bėgti iš paskos, stengiantis kiek įmanoma sumažinti žalingą poveikį visuomenei. Reaktyvaus veikimo atveju reglamentų ir strategijų rengėjai susiduria su koncepcine sumaištimi, situacija gali būti įvertinta neadekvačiai, todėl problemų sprendimas gali būti lėtas, sudėtingas ir nepakankamai veiksmingas.

Besiformuojančios technologijos ir jų etika

Besiformuojančios technologijos yra viena iš naujų technologijų poklasių[6]. Galima sakyti, kad tai technologijos, kurios gali pakeisti status quo. Jos yra naujos, bet kartu apima ir ankstesnes. Dažnai tokios technologijos yra vertinamos prieštaringai, nes jų galimybės nėra iki galo atskleistos.

Sasekso universiteto mokslininkai yra pasiūlę besiformuojančias technologijas įvertinančių penkių kriterijų sistemą. Pasak jų, tokias technologijas apibrėžia šie kriterijai: 1) radikali naujovė, 2) sąlyginai greitas augimas, 3) technologinis nuoseklumas, 4) ryškus poveikis, 5) neaiškumas ir dviprasmybė (angl. uncertainty and ambiguity)[7]. Taigi šioms technologijoms būdinga tam tikro lygmens nuosekli raida, galimas didelis poveikis visoms arba atskiroms socioekonominėms sritims, bet didžiausias poveikis laukiamas ateityje, todėl formavimosi etape jos pasižymi neaiškumu ir dviprasmybe.

Vertinant besiformuojančias technologijas, problemiškiausias yra radikalios naujovės kriterijus[8]. Mokslas ir technologijos sparčiai kinta. Be kruopščios lingvistinės analizės jau tampa sudėtinga žiniasklaidoje, mokslinėse publikacijose, citavimo indeksuose suprasti, ar tam tikra technologija yra absoliuti naujovė, ar ankstesnės technologijos tąsa, ar jos modifikacija. Pavyzdžiui, kompiuterinės lingvistikos tyrimuose atliekamas nekaltas stabilių frazių automatinis nustatymas kalbos technologijų inžinerijoje įgyja virtualaus asistento didesnio veikimo tikslumo formą, kuri, panaudota kuriant dirbtinį intelektą, gali įgyti dar kitokią formą.

Midlsekso universiteto mokslininkai 2011 m. sukūrė naujų ir besiformuojančių technologijų etinio vertinimo meta-metodiką kodiniu pavadinimu DIODE[9]. Tai pirmas bandymas sukurti meta-metodiką, kaip priemonę ir pagalbą plataus išsilavinimo neturintiems technologams, kurią jie galėtų naudoti įvairialypių naujų technologijų vertinimui visuose jų raidos etapuose. Iki tol buvo kuriamos metodikos atskirų sričių technologijoms vertinti (pavyzdžiui, sveikatos apsaugos, aplinkosaugos ir t. t.), bet tokios metodikos buvo ir yra labai specifinės ir tinkamesnės patiems technologijų etikos specialistams nei technologams.

Koncepciniu meta-metodikos pagrindu kūrėjai laiko etikos pragmatikos autoriteto Johno Dewey teiginius, kad nėra esminio skirtumo tarp etikos sprendimų priėmimo proceso ir kitos srities sprendimų proceso, nes visais atvejais priimami svarbūs sprendimai. Meta-metodikoje nesvarstomi moralės ir vertybių sistemos klausimai, nes dominuoja įsitikinimas, kad moralės ir vertybių teorijos turi atsispindėti profesinės etikos kodeksuose, mokslininkų etikos kodeksuose, akademinės etikos kodeksuose ir panašiai, todėl atsiduria už DIODE ribų. Daroma prielaida, kad meta-metodikos vartotojas veikia sklandžiai funkcionuojančių minėtų kodeksų kontekste, todėl pačioje meta-metodikoje didžiausias dėmesys skiriamas deontologijai ir teleologijai (kaip klasikinėms etikos teorijoms).

Tokio pobūdžio filosofinė analizė neišvengiama, norint atskleisti visus svarbius arba problemiškus etinius aspektus, nes kai kurie iš jų gali būti nepakankamai akivaizdūs. Meta-metodikoje fundamentaliais atramos taškais laikomi Jungtinių Tautų Visuotinių žmogaus teisių deklaracija ir Europos Sąjungos Pagrindinių teisių chartija, taip pat atsižvelgiama į UNESCO dokumentą „Besiformuojančių technologijų etinės pasekmės“. Remiantis šiais dokumentais, meta-metodikoje išryškinami pagrindiniai technologijų etikos dėmesio centrai: 1) asmenų teisės, 2) laisvės ir teisė į išsilavinimą, 3) rūpestis aplinkosauga, 4) teisingumas.

Meta-metodikos kūrėjai taip pat suformavo keturis fundamentalius klausimus, į kuriuos turi atsakyti technologijų kūrimo vadyba ir mokslininkai: 1) kas yra agentas? (kaip matysime toliau, agentas yra svarbus dirbtinio intelekto komponentas); 2) kokių veiksmų buvo imtasi arba kokie veiksmai svarstomi, kaip vykdytini? 3) kokie lauktini tokių veiksmų rezultatai? 4) ar pasiekti rezultatai yra moraliai tinkami (angl. fair) ir teisingi (angl. just)?

Dėl straipsnio apimties čia detaliau neanalizuosime meta-metodikos techninių detalių. Apsiribosime jos vertinimu, kuris nėra vienalypis. Viena vertus, labiau specializuotą išsilavinimą turintiems technologams dažnai sunku tinkamai įvertinti jų kuriamų technologijų etinį poveikį, o sėkmingą dialogą su kitų sričių specialistais apsunkina pastarųjų ribotos technologinės žinios, todėl tokia į proaktyvų technologijų vertinimą orientuota meta-metodika yra sveikintinas ir naudingas įrankis, papildantis mokslinių tyrimų instrumentus. Kita vertus, menkas dėmesys moralės ir vertybių sistemoms yra silpnoji DIODE meta-metodikos pusė, nes veiksmingai funkcionuojantys etikos kodeksai gali būti tik teorinė galimybė.

Apibendrinant darytina išvada, kad besiformuojančios technologijos užima svarbią ir specifinę vietą technologijų etikos svarstymuose, mokslo politikos formuotojai joms turi skirti išskirtinį dėmesį dėl jose glūdinčio potencialo keisti status quo, o tai ilgainiui gali suveikti kaip uždelsto veikimo mechanizmas. Todėl būtina proaktyvi besiformuojančių technologijų analizė, kuri turi vykti glaudžiai bendradarbiaujant įvairių sričių mokslininkams ir technologams. Be to, vertėtų suteikti naujos kartos technologams platų bendrąjį išsilavinimą ir kurti meta-metodikas kaip tardalykinę pagalbą naujų technologijų kūrėjams.

Dirbtinis intelektas – technologijų etikos tyrimo objektas

Kas yra dirbtinis intelektas, kuris priskiriamas besiformuojančių technologijų grupei? Viena vertus, tai mokslo sritis, kuri tyrinėja kompiuterio ar įrenginio galimybes elgtis protingai arba tokią elgseną simuliuoti. Kita vertus, tai kompiuterio ar įrenginio gebėjimas elgtis protingai arba tokią elgseną simuliuoti. Norint sukurti dirbtinį intelektą, reikia dviejų dalykų: suformuotos intelektikos ir artefakto.

Aristotelis pirmasis bandė sukurti žmogaus logikos algoritmą. Ankstyvieji dirbtinio intelekto tyrimai rėmėsi filosofijos, logikos, matematikos, neuromokslų, kognityvinės psichologijos pasiekimais ir tyrinėjo intelektinę elgseną bei mąstymo procesus. Kai 1938 m. buvo sukurtas pirmasis kompiuteris, jis buvo pasirinktas dirbtinio intelekto artefaktu. Nuo to laiko pagrindinis šių mokslinių tyrimų tikslas ­– sukurti kompiuterinį intelektinį agentą, kuris galėtų įveikti Turingo testą, pavadintą 1950 m. jį sukūrusio mokslininko vardu. Kompiuteris šį testą išlaiko, jei raštu klausimus pateikęs žmogus negali atskirti, kas į jo klausimus atsakė – žmogus ar mašina. Norint išlaikyti visą Turingo testą, kompiuteriui reikia keletos susijusių technologijų: kalbos technologijos, leidžiančios mašinai suprasti žmogaus rašytinę ir sakytinę kalbą bei ją generuoti; žinių atvaizdavimas, leidžiantis tinkamai išsaugoti sukauptą informaciją; automatinis protavimas, leidžiantis tinkamai panaudoti išsaugotą informaciją atsakymams formuoti ir išvadoms daryti; mašininis mokinimasis, leidžiantis prisitaikyti prie naujų sąlygų; kompiuterio matymas, leidžiantis atpažinti aplinkos objektus; robotika, leidžianti mašinai manipuliuoti objektais ir judėti[10].

XX a. viduryje prasidėjęs kompiuterinės technikos raidos proveržis paspartino ir dirbtinio intelekto kūrimą. Dabar jis jau skirstomas į dvi rūšis: tam tikros srities ir visuotinį. Tam tikros srities dirbtinis intelektas yra riboto funkcionalumo, todėl jo teikiama nauda dalinė. Jis susidoroja tik su tam tikros srities užduotimis. Pavyzdžiui, kompanijos IBM sukurtas dirbtinis intelektas (kodinis pavadinimas Deep Blue) yra šachmatais mokanti žaisti kompiuterinė sistema. 1997 m. ji nugalėjo šachmatų didmeistrį Garį Kasparovą. Bet Deep Blue moka tik žaisti šachmatais ir nieko daugiau. Tam tikros srities dirbtinio intelekto sistemos jau kurį laiką kuriamos ir naudojamos praktiškai, pavyzdžiui, finansų srityje pataria, kur apsimoka investuoti, medicinos srityje padeda nustatyti ligas arba gydymo metodus, jos taip pat simuliuoja atomų struktūrų modelius, prognozuoja orus ir t. t. Ženklų optinio atpažinimo sistemose jau net neminima, kad atpažinimo procesas vyksta pasitelkiant dirbtinio intelekto mechanizmus, nes tai jau kasdienybė.

Visuotinis dirbtinis intelektas (dar vadinamas superintelektu) – tai kompiuterinė sistema, galinti tinkamai elgtis situacijose, kuriose anksčiau nebuvo atsidūrusi, arba spręsti uždavinius, kurių spręsti nebuvo apmokyta. Tokia sistema gali pati mokytis, kurti naujas žinias, priimti sprendimus, simuliuoti žmogaus intelektinę elgseną, tačiau ji nebūtinai pasielgs taip, kaip tokioje situacijoje pasielgtų žmogus. Taip yra dėl dviejų priežasčių: 1) žmogaus intelektinei elgsenai įtaką daro vertybių sistema ir moralė, 2) žmogaus racionalumas gali stipriai skirtis nuo mašinos racionalumo (dažnai artimo homo economicus modeliui[11]).

Visuotinis dirbtinis intelektas vis dar nesukurtas, nes kompiuterinė technika nepakankamai pajėgi atlikti reikiamą kiekį skaičiavimų reikiamu greičiu, o taip pat nesukurti tinkami sprendimų priėmimo algoritmai. Nors kompanijos IBM sukurta sistema (kodiniu pavadinimu Watson) 2011 m. nugalėjo JAV „protų mūšio“ čempionus televizijos žaidime „Jeopardy“, dėl riboto funkcionalumo ji vis dar negali būti priskirta visuotinio dirbtinio intelekto klasei. Paminėtina, kad Watson kompiuterinė sistema įdiegta dešimties tarnybinių stočių infrastruktūroje, joje įrengta 15 TB operacinė atmintis ir 2870 centrinių procesorių branduolių. Vienam atsakymui į klausimą sugeneruoti reikalingas 1 TB informacijos masyvas, kuris saugomas specialiai šiam projektui sukurtoje 21 TB talpos informacijos saugykloje.

Dar viena problema – daugiakalbystė. Šiuo metu beveik visos dalinio dirbtinio intelekto sistemos yra anglakalbės, bet sparčiai įsisavinamos ir kitos komercinės kalbos (vokiečių, prancūzų ir pan.). Lietuvių kalba yra viena iš vadinamųjų nekomercinių Europos kalbų, todėl plėtojant kalbos technologijas susiduriama su sunkumais ir problemomis, būdingomis mažiau vartojamoms kalboms. Kaip rodo pasaulinė praktika, investicijos į nekomercines kalbas greitos tiesioginės finansinės naudos neatneša, todėl verslui jos nepatrauklios. Nekomercinės mažų tautų kalbos tampa viešąja vertybe ir jai kurti reikalinga valstybės parama. Nors pastaraisiais metais lietuvių kalbos technologijų srityje padaryta reikšminga pažanga, ji nėra pakankama, kad kalba būtų visavertiškai vartojama elektroninėje erdvėje, o kalbos technologijos kurtų pridėtinę vertę.

Nors dirbtinio intelekto kūrimas susiduria su daugybe problemų, stambios informacinių technologijų kompanijos (Microsoft, IBM, Google, Facebook) investuoja didžiules lėšas į tyrimus, todėl šios srities plėtra ypač sparti. Kartu sparčiai gausėja ir etinių problemų. Pavyzdžiui, 2016 m. Microsoft sukūrė eksperimentinį pokalbių programinį robotą (kodiniu pavadinimu Tay), kuris turėjo socialiniame tinkle Twitter generuoti ir siųsti žinutes. Praėjus vos šešiolikai valandų nuo paleidimo, kompanija turėjo skubiai sustabdyti Tay veikimą, nes robotas pradėjo siųsti rasistinio, seksistinio, diskriminuojančio ir kitaip įžeidžiančio turinio žinutes. Internetu nuvilnijo protestų banga. Paaiškėjo, kad Tay mechanizmai buvo pagrįsti tekstynu, sudarytu iš viešai prieinamų socialinio tinklo žinučių. Nors tekstynas buvo atsakingai suformuotas, panaikinant netinkamo turinio tekstus, pradėjęs veikti robotas labai greitai užpildė „žinių spragas“ nefiltruoto turinio tekstais. Todėl robotas labai greitai pradėjo elgtis ne kaip pavyzdinis, o kaip tipinis Twitter vartotojas. Tay pavyzdys atskleidė, kad tokių technologijų prevenciniai mechanizmai vis dar menkai išplėtoti, o privačios kompanijos skiria nepakankamai dėmesio ir lėšų tinkamiems sukurti.

2016 m. Portlando universiteto mokslininkų grupė paskelbė mokslinės literatūros, svarstančios dirbtinio intelekto etikos ir rizikų klausimus, apžvalgą[12]. Tyrimo rezultatus jie pateikė keturiais pjūviais: 1) teorinė dirbtinio intelekto etika; 2) taikomoji etika: formavimo rizikos; 3) egzistencinės rizikos; 4) neegzistencinės rizikos. Čia apsiribosime trečio ir ketvirto pjūvio aptarimu.

Egzistencines rizikas autoriai suskirsto į keturias kategorijas: 1) neetiškas sprendimų priėmimas; 2) tiesioginė konkurencija; 3) dirbtinio intelekto mirtis; 4) neprognozuojamos pasekmės. Dirbtinio intelekto sistema gali būti pritaikyta arba nepritaikyta sprendimų priėmimo procese atsižvelgti į moralę, nes ji yra racionalus, o ne moralus agentas. Todėl kyla pavojus, kad sprendimai bus neetiški ir sukels pavojų žmogaus teisių apsaugai. Labai tikėtina, kad daugelyje sričių tokia sistema efektyviau ir pigiau nei žmogus atliks darbus, todėl pastarajam teks trauktis iš darbo rinkos su visomis iš to kylančiomis socialinėmis problemomis. Kartu dirbtinis intelektas gali pradėti geriau atlikti ir vadovaujančias pareigas, kur reikia priimti sprendimus, o tokie sprendimai gali daryti įtaką kultūrai, žmonių gyvensenai, netgi kelti grėsmę žmonijos išlikimui. Sunku prognozuoti, kaip dirbtinis intelektas elgsis konkrečiose situacijose, nes tai priklauso nuo algoritmų kūrėjų.

Portlando universiteto mokslininkų apžvalgoje pateikiamos neegzistencinės rizikos daugiausia susijusius su žmogaus teisėmis į privatumą ir nuosavybę. Privačių kompanijų diegiami veidų atpažinimo, asmens duomenų kaupimo ir analizės algoritmai Orwello „Didįjį brolį“ jau pavertė realybe. Prie neegzistencinių rizikų priskiriami ir klausimai, kaip dirbtinio intelekto sistemų valdymas iškreips verslo konkurenciją, kas atlygins žalą, jei ją padarys vaikus prižiūrintis robotas, savaeigė transporto priemonė, kompiuterinis finansų konsultantas ar paciento slaugytojas.

Mokslininkai pastebi, kad šiuo metu nėra nė vieno nacionalinio arba tarptautinio lygmens norminio teisės akto, kuris reguliuotų dirbtinio intelekto raidą, taip pat nėra nustatyta atskaitomybė ir atsakomybė už tokių sistemų sukeltas pasekmes. Šių technologijų kūrimu vis labiau domisi karinė pramonė, kurią dosniai finansuoja vyriausybės, todėl kyla pavojus, kad civilinės sistemos nesulauks tiek dėmesio ir tai stabdys jų raidą. Galiausiai nenustatyti kontrolės mechanizmai kelia pavojų, kad nekontroliuojamas dirbtinis intelektas gali nuspręsti sunaikinti žmoniją arba pradėti pažeidinėti žmogaus teises. Mokslininkai taip pat išskyrė ir ekonomines grėsmes: konkurencija su žmonėmis darbo rinkoje, žmogaus negebėjimas greitai prisitaikyti prie kintančių rinkos poreikių ir įgyti papildomų kvalifikacijų, žmogaus darbo atsisakymas dėl jo žemo produktyvumo.

Nors dirbtinis intelektas jau seniai yra technologijų etikos svarstymų objektas, daug etikos problemų neišspręsta. Situacija tampa grėsminga, nes prasidedanti ketvirtoji pramonės revoliucija visuomenei ir naujų bei besiformuojančių technologijų etikai jau kelia naujus iššūkius.

Pabaigai

Straipsnio pradžioje pateikti Google paieškos rezultatai rodo, kad pasaulis suvokia dirbtinio intelekto keliamas etikos problemas ir grėsmes visuomenei bei bando ieškoti sprendimų.

2015 m. Hawkingas kartu su aštuoniais tūkstančiais mokslininkų ir ekspertų pasirašė ir paskelbė atvirą laišką, kuriame ragino daugiau dėmesio skirti dirbtinio intelekto technologijų poveikio visuomenei tyrimams[13]. Teigta, kad „dirbtinio intelekto raida pasiekė tokį lygį, kad jau pats laikas pradėti tyrimus, kaip padidinti dirbtinio intelekto naudą visuomenei“. Prie laiško pridėtas dokumentas su laišką pasirašiusių mokslininkų rekomendacijomis.

Tais pačiais metais beveik aštuoniolika tūkstančių žmonių paskelbė kitą laišką, kuriame įspėjo dėl autonominių ginklų kūrimo keliamo pavojaus žmonijai ir ragino nutraukti jų gamybą[14]. Laiške tvirtinama, kad dirbtinis intelektas gali pasitarnauti žmonijai, bet jo panaudojimas ginklavimuisi yra smerktina idėja. Slovėnijos Dirbtinio intelekto asociacija atsiliepė į šiuos raginimus ir pasiuntė laiškus Slovėnijos vyriausybei ir Jungtinėms Tautoms, kuriais ragino uždrausti autonominių ginklų gamybą. Visai neseniai laiškų autoriai kreipėsi į Europos valstybių Dirbtinio intelekto asociacijas (įskaitant Lietuvos kompiuterininkų sąjungą), ragindami sekti jų pavyzdžiu ir organizuoti panašias akcijas.

Nuo 2013 m. visame pasaulyje vyksta tyrimai, kaip valstybių darbo rinkas ir atskiras jų šakas paveiks dirbtinio intelekto sistemų raida. Pavyzdžiui, JAV į rizikos zoną patenka beveik 45 proc. darbo vietų. Viešojoje erdvėje vyksta diskusijos apie dirbtinio intelekto ir žmonių koegzistavimo darbo rinkoje problematiką, taip pat kaip tai paveiks pensijų fondų sistemą, sveikatos apsaugą, valstybės biudžeto surinkimą ir t. t. Lietuvoje nieko panašaus negalime aptikti.

Mūsų šalyje inovacijų plėtra vyksta vangiai. Nesame išlepinti technologinių naujovių. Net Microsoft operacinės sistemos Windows 10 virtualus asistentas Cortana nešneka lietuviškai ir Lietuvoje neveikia. Jau nekalbant apie Apple virtualų asistentą Siri, kuriam lietuvių kalba irgi nesuprantama. Bet tai nereiškia, kad turime nekreipti dėmesio į tai, kas dedasi pasaulyje, ir tylomis laukti, kad pasaulį sukrečiančios, su technologijų plėtra susijusios socialinės problemos mus aplenktų. Kaip moko popiežius Pranciškus, technologijų revoliucijos gali sukurti svarbias priemones, kurios pagerintų žmonių gyvenimo kokybę, bet technologiniai produktai kuria sistemas, kurios keičia visuomenės gyvensenos ir santykių modelius, todėl privalome pasirengti radikaliai kultūrinei revoliucijai.

[1] Šventasis Tėvas Pranciškus, Enciklika „Laudato si“ apie rūpinimąsi bendraisiais namais, Kaunas: Katalikų interneto tarnyba, 2015, [104].

[2] Ibid., [107]

[3] World Economic Forum’s Meta-Council on Emerging Technologies, „Top 10 Emerging Technologies of 2016“, 2016-06, in: http://www3.weforum.org/docs/GAC16_Top10_Emerging_Technologies_2016_report.pdf.

[4] Rory Cellan-Jones, „Stephen Hawking warns artificial intelligence could end mankind“, 2014-12-02, in: http://www.bbc.com/news/technology-30290540.

[5] James H. Moor, „Why We Need Better Ethics for Emerging Technologies“, in: Ethical and Information Technology, 2005, Nr. 7, p. 111–119.

[6] Sąvokos „besiformuojančios technologijos“ vertimas į lietuvių kalbą yra problemiškas. Peržvelgus daugiau nei trisdešimt Europos Sąjungos dokumentų ir jų vertimų į lietuvių kalbą, nustatyta, kad emerging technologies į lietuvių kalbą dažniausiai verčiamos kaip „naujos technologijos“ (žr. http://lt.linguee.com/lietuvi%C5%B3-angl%C5%B3/search?source=auto&query=emerging+technology). Tačiau tuomet problemiškas tampa tokių junginių kaip new and emerging technologies ir future and emerging technologies vertimas. Kartais emerging verčiama kaip „besikuriančios“, nors dažniau – kaip „besivystančios“. Šiame straipsnyje vartojame terminą „besiformuojančios“, nes technologijos negali „kurtis“, tačiau gali „formuotis“ tam tikru pagrindu.

[7] Daniele Rotolo, Diana Hicks, Ben Martin, „What Is an Emerging Technologies?“, in: SPRU Working Papers Series, University of Sussex, 2015-06, p. 1–40, in: https://www.sussex.ac.uk/webteam/gateway/file.php?name=2015-06-swps-rotolohicksmartin.pdf&site=25.

[8] Roger Strand, Matthias Kaiser, Report on Ethical Issues Raised by Emerging Science and Technologies, Bergen: University of Bergen, 2015, p. 12, in: https://rm.coe.int/168030751d.

[9] Ian Harris, Richard C. Jennings, David Pullinger, Simon Rogerson, Penny Duquenoy, „Ethical Assessment of New Technologies: A Meta-methodology“, in: Journal of Information, Communication & Ethics in Society, 2011, t. 9, Nr. 1, p. 49–64.

[10] Stuart Russell, Peter Norvig, Artificial Intelligence: A Modern Approach, 3rd ed., Prentice Hall, 2010, p. 2–5.

[11] Peter J. Hammond, „Rationality in Economics“, in: Rivista Internazionale di Scienze Sociali, 1997, Nr. 3, p. 247–288.

[12] Taylor Meek, Husam Barham, Nader Beltaif, Amani Kaadoor, Tanzila Akhter, „Managing the Ethical and Risk Implications of Rapid Advance in Artificial Intelligence: A Literature Review“, in: Proceedings of PICMET‘16: Technology Management for Social Innovation, 2016, p. 682–693.

[13] „An Open Letter: Research Priorities for Robust and Beneficial Artificial Intelligence“, in: https://futureoflife.org/ai-open-letter.

[14] „Autonomous Weapons: An Open Letter from AI & Robotics Researchers“, in: https://futureoflife.org/open-letter-autonomous-weapons.