Lapkritį teko dalyvauti net keliose diskusijose, kur buvo aptariamas automatinio „Facebook“ turinio moderavimo mechanizmo problemos:
- lapkričio 8 d. – Debunk.org diskusija su „Meta“ regiono atstovais „Understanding content and misinformation online: conversation with Meta“;
- lapkričio 14 d. – reagavimas į Andriaus Tapino pastebėjimą;
- lapkričio 18 d. – komentaras 15min.lt publikacijoje „Draudžiama kalbėti apie „orkus“ ir karą? Lietuvos valdžia kreipėsi į „Facebook“;
- lapkričio 22 d. – diskusija LRT radijo laidoje „Aktualijų studija. Ar „Facebook“ politika blokuoti antirusiškus įrašus turi būti pakeista?“ (laidos įrašas, tekstinė versija).
Diskusija su „Meta“ atstovais
Vilniaus universiteto vykusioje diskusijoje lietuviai konstatavo problemas, o „Meta“ atstovai nieko konkretaus negalėjo atsakyti.
Aš pateikiau vieną esminį klausimą – ar tiesa, kad automatinis turinio moderavimas vyksta ne autentiško lietuviško, o automatiniu būdu į anglų kalbą išversto turinio pagrindu? Kita klausimo pusė – ar tiesa, kad dirbtinis intelektas (artificial intelligence) mašininis mokymasis vyksta taip pat to su klaidomis išversto angliško turinio pagrindu?
Deja, gavau tik bendrinio pobūdžio patvirtinimą, kad moderavimą vykdo lietuviai moderatoriai. Apie esminę techninę aplinkybę – kokios kalbos turinys moderuojamas – atsakymo nebuvo.
Tai netiesiogiai patvirtina paties „Facebook“ skelbiama schema ir paaiškinimai pagalbos tekste „How does Facebook use artificial intelligence to moderate content?“:
Andriaus Tapino įrašas ir komentarų diskusija
Po savaitės apie problemą iš savo asmeninės patirties parašė Andrius Tapinas – kaip proukrainietiškas turinys nuosekliai sulaukia FB sistemos sankcijų.
Į tai sureagavau tokiu komentaru:
prieš savaitę vykusiame susitikime su Meta atstovais Vilniuje (ping Jakub Turowski & Co.) uždaviau konkrečius klausimus ir iš gautų atsakymų tik sustiprėjo įtarimai, kad
Iš mano asmeninės „Facebook“ paskyros
(a) įmonė visiškai nevaldo savo procesų;
(b) blokavimą vykdo AI generuojamų trigerių pagrindu;
(c) gyva kontrolė praktiškai neegzistuoja;
(d) AI sprendimus daro automatinio vertimo tekstų į anglų kalbą pagrindu (FB automatinio vertimo ne-kokybę visi puikiai matome kasdien)
(e) FB principas “jokio įžeidinėjimo” de facto karo Ukrainoje atveju virtęs agresoriaus palaikymu, nes FB AI nesugeba atskirti Kremliaus melo ir ironijos. tada Kremliaus melas yra lygiose pozicijose su Ukrainos tiesa
Komentaras 15min.lt portalui
Portalo žurnalistas Gytis Kapsevičius situacijos apžvalgoje įdėjo šiuos mano pastebėjimus:
Šiame renginyje dalyvavęs komunikacijos ekspertas Liutauras Ulevičius teigė „Facebook“ atstovui uždavęs ne vieną klausimą – iš atsakymų jam susidaręs įspūdis, kad bendrovė „nevaldo situacijos“.
Kalbėdamas su 15min jis komentavo, kad tai iš dalies yra ir platesnė problema – mažiau populiariomis kalbomis paskelbto turinio blokavimo motyvai dažnai būna mažiau logiški.
„Mokymosi algoritmai pas juos [„Facebook“] padaryti taip, kad jie mokosi iš angliško teksto – verčia ir sprendimus priiminėja iš angliško turinio. Natūralu, kad jų dabartinis kalbos lygis yra prastas, vertimas nepagauna perkeltinių, ironinių reikšmių, todėl sprendimai priiminėjami ant kreivai išversto teksto“, – kalbėjo komunikacijos ekspertas.
„Facebook“ atstovas renginyje taip pat teigė, kad pirminis analizės lygis yra automatizuotas, patikrą atlieka dirbtinis intelektas. Algoritmas gali rasti kokį nors „netinkamą“ žodį ir tada sprendimą dėl turinio tinkamumo priima moderatoriai.
„Jie toms mažoms rinkoms neturi resursų, neturi piniginės motyvacijos skirti pakankamai dėmesio. Ir tas važiuoja. Deja, bet ta situacija yra ne demokratiškų šalių naudai, o būtent tokių, kaip Kremliaus trolių armijos, kurios stebi algoritmo veikimo principus“, – kalbėjo L.Ulevičius.
Pašnekovas pabrėžė, kad problema yra ne lietuviškai suprantančių „Facebook“ moderatorių skaičius, bet pati sistema.
„Grubiai matematiškai, padidinus nuo 5 iki 50 žmonių, mes kokybinio šuolio nepajustume. Pagrindinis dalykas vis dėlto yra moderavimo algoritmo keitimas ir jų pritaikymas lietuviškai ar kitų mažųjų kalbų realybei. Dabartinis modelis yra ydingas“, – komentavo jis.
iš 15min.lt publikacijos
Palyginimui ir kiek kiti dėmesio verti akcentai – panašioje portalo tv3.lt publikacijoje „Pasipiktinus dėl blokuojamos Ukrainos ir leidžiamos Rusijos propagandos, „Facebook“ papasakojo, kaip yra iš tiesų“.
Diskusija LRT radijo laidoje „Aktualijų studija. Ar „Facebook“ politika blokuoti antirusiškus įrašus turi būti pakeista?“
Visą Mariaus Jokūbaičio vedamą laidą (garso įrašą) galima perklausyti čia.
Pagrindiniai mano pasisakymų akcentai:
Komunikacijos ekspertas Liutauras Ulevičius LRT RADIJUI pasakoja – šiuo metu socialinio tinklo „Facebook“ vartotojams apskritai dalintis informacija ar vaizdine medžiaga, susijusia su Rusijos karu prieš Ukrainą, nėra draudžiama, tačiau „Facebook“ turiniui taiko labai griežtus bendruomenės standartus.
„Pavyzdžiui, jeigu tai yra kažkokia aštresnė nuotrauka, realus, net ir tikras įvykis gyvai iš, pavyzdžiui, apšaudymo, jeigu tai iš tiesų gali jautresnius žmones sujaudinti ar sukelti nusivylimą, iš karto įsijungia algoritminis turinio moderavimas“, – sako L. Ulevičius.
Ne vienas „Facebook“ vartotojas skundžiasi, jog, panašu, socialiniame tinkle visgi negalima pasisakyti nieko prieš Rusiją. Pavyzdžiui, jeigu žmogus savo įraše pavartoja tokius žodžius, kaip „kacapas“ ar „orkas“, jis neretai yra iškart blokuojamas, jo paskyra suspenduojama dienai, savaitei ar net visam mėnesiui.
Taip nutinka dėl to, nes algoritmas reaguoja į šiuos raktinius žodžius, kurie duomenų bazėje apibrėžiami kaip skleidžiantys neapykantą ir įprastai naudojami neigiamame kontekste. Dėl to įrašus, kuriuose jie randami, sistema supranta kaip neapykantos kalbos skleidimą.
[..]
Komunikacijos ekspertas L. Ulevičius yra linkęs su šia [„Facebook“ atstovo] mintimi nesutikti.
„Kai „Facebook“ sako, kad mes naudokimės bendruomenės standartais, tai sako, naudokime tuos pačius reikalavimus ir nusikaltėliui, ir aukai. Ir tada gaunasi – jūs žaidžiate šachmatais, o priešininkas iš Kremliaus ateina su bokso pirštinėmis“, – atrėžia pašnekovas.
[..]
„Algoritminis moderavimas paremtas anglų kalba. Automatinis lietuvių kalbos vertimas į anglų kalbą „Facebook“ platformoje dabar yra žemiau kritikos lygio. Iš esmės paimkite bet kokį automatinio vertimo tekstą, kurį „Facebook“ kartas nuo karto pasiūlo, ir pabandykite patikrinti, kiek ten klaidų padaryta vertime. Ir natūralu – jeigu tu iš to verstinio, kreivo teksto darysi išvadas, tu gausi visiškai kvailą sprendimą“, – tvirtina komunikacijos ekspertas L. Ulevičius.
iš lrt.lt publikacijos
Laidoje taip pat pateikiau keletą kitų svarbių akcentų:
- pavojaus šaltinių (turinio) klasifikacija (iš „Algorithmic content moderation: Technical and political challenges in the automation of platform governance“) – terorizmas, smurtas, neapykantos kalba, intelektinė nuosavybė, vaikų išnaudojimas, seksualinis turinys, spam’as ir netikros paskyros;
- pastaraisiais metais ES imasi aktyvių reguliavimo priemonės bendrijos lygiu –tą gali papildyti ir nacionalinės pastangos;
- situacija su lietuvių kalba nėra unikali – panašios problemos pastebimos daugelio „mažųjų (neskaitlingų) kalbų“ atvejais;
- apie moderavimo mechanizmo ydas 2021-ųjų rudenį plačiai kalbėjo „Facebook“ pranešėja (whistle-blower’ė) Francess Haugen (plačiau).
PAPILDYMAS, 2022-12-16:
Diskusija tęsiasi ir Andrius Tapinas neša šį klausimą į viešąją erdvę. Deja, „Facebook“ atstovai atsitraukia nuo tiesioginių diskusijų galimybės. Plačiau – portalo 15min.lt publikacijoje „Andriui Tapinui – feisbuką valdančios bendrovės akibrokštas: nepriima į susitikimą dėl cenzūros“.
PAPILDYMAS, 2022-12-21:
Andrius Tapinas savo SubStack įraše teigia, jog „[..] Tačiau su manimi susisiekė vienas iš Metą aptarnaujančių turinio moderatorių ir šiek tiek papasakojo apie procesus, kaip viskas vyksta. [..] Pasirodo, kad bent dalį turinio tikrai moderuoja gyvi žmonės ir Lietuva dabar priskirta Rygoje įsikūrusiam biurui, kuris anksčiau rezidavo Berlyne. Jie priima sprendimus, ką daryti su pareportintu turiniu. Ir jeigu jiems asmeniškai nepatinka turinio autorius arba pasirinkta pozicija, pvz. palaikyti Ukrainą, jie gali skirti bausmes, o tada jau aukštesni kolegos, kurie tikrina žemesnių darbą, gali pastebėti, jog bausmė skirta per klaidą ir klaidą fiksuoti. Tačiau tokių klaidų fiksuojama tik apie 2%, tad turinio moderatoriai gali jaustis daugmaž saugiai [..]“.
Diskutuoti su FB atstovu neįmanoma, nes jis anoniminis, todėl belieka paklausti retoriškai:
- (esminis klausimas Lietuvos atveju) Kokią % dalį sankcijuotų įrašų/paskyrų peržiūri gyvi moderatoriai?
- Kokios yra detalios turinio pripažinimo netinkamu taisykles? Kur jos skelbiamos?
Objektyvūs atsakymai į šiuos klausimus būtų esminis rodiklis, rodantis, ar FB išsisukinėja.