Lietuvos Aukščiausiojo Teismo 2024 m. reikšmingiausių darbo…
Lietuvos Aukščiausiasis Teismas (LAT) ir toliau teikia aktualius išaiškinimus Darbo kodekso (DK) normų taikymo klausimais. Nors kasacinio teismo darbo…
Ką reiškia sąvoka „atsakingas dirbtinis intelektas“? Prieš pamėgindami ją apibrėžti bei aptarti jos sudedamąsias dalis, žvilgtelkime į vieną istoriją, kuri gali padėti suvokti šio reiškinio svarbą.
Parmy Olson neseniai pasirodžiusioje knygoje „Supremacy: AI, ChatGPT and the Race That Will Change the World“ aprašo OpenAI ir Deepmind (šiuo metu – Google Deepmind) – dviejų lyderiaujančių pasaulyje dirbtinio intelekto kompanijų – istoriją bei karštligiška tapusią konkurencinę kovą. Viena jos aprašomos istorijos dalis ypač priverčia susimąstyti. Visi žinome, kad OpenAI 2022 m. lapkričio mėn. pirmą kartą viešai pristatė savo produktą ChatGPT [1] ir akimirksniu tapo dirbtinio intelekto rinkos lydere bei paskatino iki tol neregėtą susidomėjimą dirbtiniu intelektu.
Galbūt kiek mažiau žinoma, kad transformerio (angl. transformer, taip pat – transformerio neuroninio tinklo) technologiją [2], kuri įgalino tokių didžiųjų kalbos modelių kaip ChatGPT veikimą, dar 2017 m. buvo sukūrusi „Google“. Šios technologijos pagrindu „Google“ taip pat sukūrė tuo metu pasaulyje pažangiausią didįjį kalbos modelį BERT [3]. Tačiau BERT taip niekada ir nebuvo pristatytas vartotojams. Kodėl taip nutiko?
Atsakymas, ar bent reikšminga jo dalis, slypi ankstesniuose „Google“ mėginimuose į rinką pateikti pažangiausius dirbtinio intelekto sprendimus. 2015 m. „Google“ į rinką išleido programėlę „Photos“, kuri, be kitų funkcijų, galėjo klasifikuoti, t. y. atpažinti, nuotraukose esančius objektus. Netrukus paaiškėjo, kad naujoji „Google“ dirbtinio intelekto programėlė nuotraukose pavaizduotus juodaodžius asmenis klasifikuoja kaip „gorilas“. „Google“ reputacijai tai buvo toks smūgis, kad ši kompanija ilgą laiką neberizikavo pirmoji į rinką išleisti naujausių dirbtinio intelekto produktų.
Dabar galima tik įsivaizduoti, kaip būtų atrodęs dabartinis dirbtinio intelekto industrijos kraštovaizdis, jei „Google“ nebūtų patyrusi „Photos“ programėlės skandalo ir būtų pirmoji vartotojams pristačiusi savo didįjį kalbos modelį. Galbūt didžioji visuomenės dalis apie OpenAI taip ir nebūtų nieko sužinojusi.
Ar „Google“ galėjo išvengti 2015 m. ją ištikusio skandalo? Greičiausiai taip. Jei dirbtiniu intelektu grįstą „Photos“ programėlę būtų sukūrusi ir ištestavusi atsakingiau arba, kitais žodžiais tariant, šį produktą sukūrusi, vadovaudamasi atsakingo dirbtinio intelekto (angl. responsible AI) principais.
Sąvoką atsakingas dirbtinis intelektas būtų galima apibrėžti kaip priemonių, skirtų užtikrinti, kad dirbtinio intelekto sistemos būtų kuriamos bei naudojamos taip, kad dirbtinis intelektas būtų naudingas asmenims, jų grupėms bei visai visuomenei, minimizuojant neigiamų pasekmių riziką, visuma [4].
Atsakingas dirbtinis intelektas taip pat vadinamas etišku dirbtiniu intelektu (angl. ethical AI), patikimu dirbtiniu intelektu (angl. trustworthy AI) ar vertybėmis grįstu dirbtiniu intelektu (angl. values-driven AI).
Visų šių priemonių visuma, nepriklausomai nuo konkrečiame kontekste vartojamo jų pavadinimo, iš esmės gali būti suvokiama kaip dirbtinio intelekto etikos principų įgyvendinimo užtikrinimas, t. y. priemonių, padedančių užtikrinti, kad šie etikos principai bus įgyvendinti praktinėje įmonės veikloje, visumos sukūrimas.
Pastaraisiais metais pasirodė daugybė dirbtinio intelekto etikos principų rinkinių. Vieni geriausiai žinomų, greičiausiai, yra Ekonominio bendradarbiavimo ir plėtros organizacijos (OECD) dirbtinio intelekto principai [5]. OECD nurodo tokius principus: įtraukus augimas, tvari plėtra ir gerovė; žmogaus teisės ir demokratinės vertybės, įskaitant sąžiningumą ir privatumą; skaidrumas ir paaiškinamumas; atsparumas ir saugumas; atskaitomybė.
Žinoma, pats dirbtinis intelektas tėra programinė įranga, kuri pati negali prisiimi jokios atsakomybės. Šią atsakomybę turėtų prisiimti dirbtinio intelekto sistemas kuriantys bei naudojantys asmenys. Tam, kad taikytini etikos principai būtų iš tiesų įgyvendinti, šiame procese turėtų dalyvauti visa organizacija, pradedant nuo programinės įrangos kūrėjų ir baigiant įmonės vadovybe.
Atsakymas į šį klausimą paprastas iš esmės kiekvienai įmonei, kuriančiai ar naudojančiai dirbtinio intelekto sistemas.
Gali pasirodyti, kad aptartas „Google“ pavyzdys yra kiek nutolęs nuo realybės. Atrodytų, tai technologijų milžinė, turinti unikalų poveikį žmonių gyvenimams ir susidurianti su tik tokio dydžio kompanijoms būdingomis problemomis. Bet nėra visiškai taip. Pavyzdžių, kai nekokybiškas dirbtinio intelekto produkto veikimas jį į rinką skubotai bei neapdairiai išleidusiai įmonei sukėlė problemų, būtų galima nesunkiai rasti ir daugiau, ir ne tik tarp didžiųjų technologijų kompanijų. Todėl aptartame pavyzdyje slypi pamoka, aktuali kiekvienai dirbtinio intelekto sistemas kuriančiai (bei naudojančiai) įmonei. Pasidavus konkurenciniam spaudimui (ar dėl kitų, dažnai suprantamų priežasčių) ir į rinką skubotai išleidus dirbtinio intelekto produktą, kuris vienu ar kitu būdu netikėtai pažeidžia vartotojų teises, gali kilti ne tik teisinių pasekmių, bet ir reputacinė žala (o ji tam tikrais atvejais, galbūt, net ir reikšmingesnė), po kurios atsitiesti vartotojų akyse gali būti itin sudėtinga. Todėl kiekviena dirbtinio intelekto sistemas kurianti bei naudojanti įmonė turėtų įdiegti tiek technines, tiek valdysenos priemones, kad jų dirbtinio intelekto sistema būtų atsakinga ir atitiktų tiek taikytinus teisės aktų reikalavimus, tiek keliamus bendresnius etikos reikalavimus.
Parengė advokatų kontoros „Glimstedt“ teisininkas, advokatas Ovidijus Speičys.
[2] Raidė „T“ pavadinime ChatGPT žymi būtent transformerio neuroninį tinklą.
[3] BERT – Bidirectional encoder representations from transformers.
[4]Qinghua Lu, Liming Zhu, Jon Whittle, Xiwei Xu, „Responsible AI. Best practices for creating trustworthy AI Systems“, Addison-Wesley, 2024.
[5] https://www.oecd.org/en/topics/ai-principles.html
[6] Qinghua Lu, Liming Zhu, Jon Whittle, Xiwei Xu, „Responsible AI. Best practices for creating trustworthy AI Systems“, Addison-Wesley, 2024.
[7] 2024 m. birželio 13 d. Europos Parlamento ir Tarybos reglamentas (ES) 2024/1689.