V dnešnom online svete môžu byť sociálne média živnou pôdou pre škodlivý obsah, od šírenia dezinformačných naratívov až po nenávistné prejavy v komentároch na sociálnych sieťach. Keďže v súčasnej spoločnosti sociálne médiá a online platformy často ovplyvňujú verejný diskurz je potreba efektívnej moderácie ich obsahu je dôležitá. Vďaka kombinácii umelej inteligencie a ľudskej moderácii pomáha Elv.ai svojim zákazníkom efektívne moderovať škodlivý obsah a zároveň podporuje bezpečnejšie a rešpektujúcejšie online prostredie. Moderácia prostredníctvom umelej inteligencie však prináša aj rôzne etické a spoločenské otázky, ktoré je potrebné zodpovedať ešte predtým, než takéto systémy začnú transformovať diskusie na sociálnych platformách.
Odborníci z KInIT pripravili sériu workshopov, počas ktorých vykonali hodnotenie systému Elv.ai na základe etických kritérií. Elv.ai je systému umelej inteligencie na moderovanie online obsahu. Systém Elv.ai je navrhnutý tak, aby automaticky detekoval a filtroval škodlivý obsah, ako sú nenávistné prejavy, dezinformácie a urážlivý jazyk. Rozumie zložitým kontextom, ako sú slang a irónia, čím zabezpečuje vysokú presnosť pri hodnotení obsahu. Navyše podporuje moderovanie v rodných jazykoch, čím efektívne zvláda kultúrne nuansy. Tento nástroj pomáha udržiavať bezpečné a rešpektujúce online prostredie a zároveň šetrí až 30 % času potrebného na správu sociálnych médií, čo ho robí hodnotným pre médiá a verejné organizácie.
Ako prebieha etické hodnotenie?
Etické hodnotenie systému Elv.ai pozostávalo zo série šiestich moderovaných stretnutí, ktoré sa konali od apríla do septembra. Tohto procesu sa zúčastnilo sedem členov tímu Elv.ai a štyria odborníci na dôveryhodnú umelú inteligenciu ako facilitátori z KInIT. Okrem toho bol jeden člen tímu vybraný, aby pôsobil ako projektový manažér a spolupracoval s facilitátormi pri príprave na každé stretnutie. Účastníci workshopu mali rôzne úrovne odbornosti (CEO, CTO, marketingový riaditeľ, riaditeľ predaja), čo počas stretntutí prinieslo jedinečnú perspektívu.
Pred naším hodnotením Elv.ai proaktívne identifikoval niekoľko potenciálnych etických problémov, ktoré by jeho systém umelej inteligencie mohol vyvolať. Tieto zahŕňali riziko cenzúry prostredníctvom moderovania, otázky ochrany údajov a nespravodlivú klasifikáciu používateľov. Tiež zdôraznili etické obavy týkajúce sa zaujatosti v automatizácii, najmä v súvislosti s nadmerným spoliehaním sa koncových používateľov na rozhodnutia systému umelej inteligencie. Spoločne sme tieto obavy rámcovali a riešili v širšom kontexte dôveryhodnej umelej inteligencie, ako ju definujú Etické smernice pre dôveryhodnú umelú inteligenciu (EGTAI) a Zoznam hodnotenia dôveryhodnej umelej inteligencie (ALTAI).
Najskôr sme analyzovali etické a spoločenské otázky spoločnosti vo vzťahu k ich možným dopadom na rôznych priamych a nepriamych zainteresovaných účastníkov. Zistili sme, že manažment spoločnosti a anotátori („elfovia“) patria k priamym zainteresovaným stranám s vysokým povedomím o možnom dopade. Je potrebné vynaložiť maximálne úsilie na zapojenie týchto zainteresovaných strán už od počiatočných fáz vývojového procesu, aby sa správne pochopili ich potreby. Na druhej strane, vlastníci (klienti), moderátori a administrátori, používatelia sociálnych médií a poskytovatelia aplikácií sú tiež vysoko ovplyvnené zainteresované strany, avšak s nízkym povedomím o možnom dopade. Aj keď nie sú priamo zapojení do procesu, organizácia by mala vynaložiť úsilie na zistenie, ako vnímajú dopad systému umelej inteligencie na ich životy.
Vývoj, nasadenie a používanie systému Elv.ai prináša etické a spoločenské riziká, ktoré môžu mať určitý dopad na zainteresované strany. Na základe našej metodiky, ktorá využíva EGTAI a ALTAI, sme zistili, že väčšina etických a spoločenských problémov súvisí s technickou robustnosťou a bezpečnosťou (týkajúcou sa vlastných čiernych zoznamov, nepresnej kategorizácie používateľov alebo nadmerného skrývania), transparentnosťou (najmä vo vzťahu k čiastočnému poznaniu schopností systému a nedostatku povedomia o používaní umelej inteligencie) a ochranou súkromia a spravovaním údajov (najmä spracovanie údajov od maloletých, skupinové súkromie alebo zaobchádzanie a zdieľanie citlivých osobných údajov). Významné riziká existujú aj v oblasti spoločenského a environmentálneho blahobytu (zhoršenie pohody anotátorov, úmyselné dezinterpretácie), rozmanitosti, nediskriminácie a spravodlivosti (nejasná definícia spravodlivosti, jazyková zaujatosť, zaujatosť v zastúpení a rozmanitosť údajov) a ľudskej autonómie a dohľadu (hlavne vo vzťahu k nadmernému spoliehaniu sa a zaujatosti v automatizácii). Diskusia s tímom Elv.ai sa tiež zaoberala napätím medzi slobodou prejavu a právom publika byť chránené pred dezinformáciami.
A čo ďalej?
Pokiaľ ide o hodnotenie na základe etických kritérií, Elv.ai prejavil silnú vôľu identifikovať a zmierniť etické a spoločenské riziká svojho systému a jeho dopad na zainteresované strany. Ďalším krokom v zmierňovaní etických a spoločenských rizík identifikovaných v rámci hodnotenia by malo byť zameranie sa na najnaliehavejšie riziká zo zoznamu rizík (2 veľmi vysoké riziká a 18 vysokých rizík). Z širšej perspektívy existujú niektoré témy, ktoré by mohla spoločnosť uskutočniť, aby dosiahla dôveryhodnejší systém. Po prvé, implementovať proces na validáciu rizík a protiopatrení, ktorý zahŕňa workshopy so zapojením zainteresovaných strán na overenie výstupov hodnotiaceho procesu (vrátane nielen priamych, ale aj vysoko ovplyvnených nepriamych zainteresovaných strán), aby sa zabránilo slepým miestam a aby sa meral dopad navrhnutých protiopatrení. Po druhé, zaviesť transparentnú komunikáciu od tvorby poznámok o transparentnosti, ktoré vysvetlia výhody a obmedzenia systému zainteresovaným stranám v primeranom jazyku alebo interné zoznamy a smernice, ktoré pomôžu zamestnancom, až po ďalšie komunikačné aktivity, ktoré podporia ochotu spoločnosti poskytovať dôveryhodné systémy a predísť nepochopeniu.
Hodnotenie spolupráce
Tím Elv.ai plne spolupracoval počas celého hodnotiaceho procesu, vrátane fázy prípravy a hodnotenia, a dokázal poskytnúť multidisciplinárny tím ochotný spolupracovať s facilitátormi. Ich nadšenie pri riešení rôznych výziev a odpovedaní na zložité otázky viedlo k plynulej a produktívnej diskusii počas workshopov.
,,Veľmi si vážim túto spoluprácu. Počas hodnotenia sa otvorilo mnoho nových perspektív, na ktoré som doteraz nepomyslela. Bolo tu veľa vecí, ktoré sme riešili ešte pred začiatkom hodnotiaceho procesu, ale nedokázali sme ich presne uchopiť. A fakt, že odborníci z KInIT boli schopní dať našej intuícii určitú formu a štruktúru, nám pomohol pochopiť, čo musíme zmeniť, aby sme dosiahli dôveryhodnú moderáciu obsahu.“
Miroslava Filčáková, technická riaditeľka
Autor článku: Juraj Podroužek (KInIT)