ELV.AI: Ochrana zmysluplných online diskusií

V dnešnom online svete môžu byť sociálne médiá živnou pôdou pre škodlivý obsah, od šírenia dezinformácií až po nenávistné prejavy v komentároch na sociálnych platformách. Keďže sociálne médiá a online platformy často formujú diskurz v súčasnej spoločnosti, je dôležité zabezpečiť efektívnu moderáciu ich obsahu. Kombináciou umelej inteligencie a ľudskej moderácie pomáha Elv.ai svojim zákazníkom efektívne moderovať škodlivý obsah a zároveň podporovať bezpečnejšie a rešpektujúce online prostredie.

V dnešnom online svete môžu byť sociálne médiá živnou pôdou pre škodlivý obsah, od šírenia dezinformácií až po nenávistné prejavy v komentároch na sociálnych platformách. Keďže sociálne médiá a online platformy často formujú diskurz v súčasnej spoločnosti, je dôležité zabezpečiť efektívnu moderáciu ich obsahu. Kombináciou umelej inteligencie a ľudskej moderácie pomáha Elv.ai svojim zákazníkom efektívne moderovať škodlivý obsah a zároveň podporovať bezpečnejšie a rešpektujúce online prostredie. Moderácia pomocou AI však prináša aj rôzne etické a spoločenské otázky, na ktoré je potrebné odpovedať skôr, než tieto AI systémy začnú transformovať diskusie na sociálnych sieťach.

Náš etický tím pripravil sériu spoločných workshopov, počas ktorých sme vykonali etické hodnotenie systému Elv.ai, AI nástroja na moderovanie online obsahu. Systém Elv.ai je navrhnutý tak, aby automaticky rozpoznával a filtroval škodlivý obsah, ako sú nenávistné prejavy, dezinformácie a urážlivý jazyk. Rozumie zložitým kontextom, ako sú slang a irónia, čím zabezpečuje vysokú presnosť hodnotenia obsahu. Okrem toho podporuje moderovanie v rodnom jazyku, efektívne zvládajúc kultúrne nuansy. Tento nástroj pomáha udržiavať bezpečné a rešpektujúce online prostredie, pričom šetrí až 30 % času na správu sociálnych médií, čo ho robí hodnotným pre mediálne a verejné inštitúcie.

Etické hodnotenie systému Elv.ai pozostávalo zo série šiestich facilitovaných stretnutí, ktoré prebiehali od apríla do septembra. Na tomto procese sa zúčastnilo sedem členov tímu Elv.ai a štyria odborníci na dôveryhodnú umelú inteligenciu z KInIT, ktorí pôsobili ako facilitátori. Jeden z členov tímu bol zároveň vybraný za projektového vlastníka a spolupracoval s facilitátormi na príprave každej relácie. Účastníci workshopu mali rôzne úrovne odbornosti (výkonný riaditeľ, technický riaditeľ, marketingový riaditeľ, obchodný riaditeľ), čo prinieslo jedinečný pohľad počas stretnutí.

Pred hodnotením Elv.ai proaktívne identifikovalo niekoľko potenciálnych etických problémov, ktoré ich AI systém môže vyvolať. Medzi ne patrilo riziko cenzúry prostredníctvom moderovania, otázky ochrany súkromia údajov a nespravodlivé klasifikovanie používateľov. Vyjadrili tiež etické obavy týkajúce sa zaujatosti automatizácie, najmä pokiaľ ide o prílišnú závislosť koncových používateľov na rozhodnutiach AI systému. Spoločne sme tieto obavy formulovali a riešili ich v širšom koncepte dôveryhodnej umelej inteligencie, ako je uvedené v Etických usmerneniach pre dôveryhodnú AI (EGTAI) a zozname hodnotenia dôveryhodnej AI (ALTAI).

Najskôr sme analyzovali etické a spoločenské otázky spoločnosti z hľadiska ich možných dopadov na rôznych priamych a nepriamych zainteresovaných aktérov. Zistili sme, že vedenie spoločnosti a anotátori („elfovia“) patria medzi priamych zainteresovaných aktérov s vysokým dopadom a vysokým povedomím o možnom vplyve. Je potrebné vynaložiť maximálne úsilie, aby boli títo aktéri zapojení už v ranných fázach vývojového procesu, aby sa ich potreby správne pochopili. Vlastníci (klienti), moderátori a administrátori, používatelia sociálnych sietí a poskytovatelia aplikácií sú tiež veľmi ovplyvnení aktéri, avšak s nízkym povedomím o možnom dopade. Aj keď nie sú priamo zapojení do procesu, organizácia by mala urobiť snahu zistiť, ako vnímajú vplyv AI systému na ich životy.

Vývoj, nasadenie a používanie systému Elv.ai prinášajú etické a spoločenské riziká, ktoré môžu mať určitý vplyv na zainteresovaných aktérov. Na základe našej vlastnej metodológie, ktorá využíva EGTAI a ALTAI, sme dokázali identifikovať, že väčšina etických a spoločenských otázok bola spojená s technickou robustnosťou a bezpečnosťou (pokiaľ ide o vlastné čierne listiny, nepresnú kategorizáciu používateľov alebo nadmerné skrývanie), transparentnosťou (hlavne v súvislosti s čiastočným poznaním schopností systému a nedostatkom povedomia o AI pri používaní) a ochranou súkromia a správou údajov (predovšetkým v súvislosti so spracovaním údajov o maloletých, skupinovým súkromím alebo manipuláciou a zdieľaním citlivých osobných údajov). Existujú tiež významné riziká týkajúce sa spoločenského a environmentálneho blaha (zhoršenie blahobytu anotátorov, zámerné nesprávne interpretácie), diverzity, nediskriminácie a spravodlivosti (nejasná definícia spravodlivosti, jazykové predsudky, predsudky v zastúpení a rozmanitosť údajov) a ľudskej agentúry a dohľadu (hlavne v súvislosti s výskytom nadmernej dôvery a predsudkov voči automatizácii). Diskusia s tímom Elv.ai sa tiež zaoberala napätím medzi slobodou prejavu a právom publika byť chránené pred dezinformáciami.

Pokiaľ ide o hodnotenie založené na etike, Elv.ai vyjadrila silnú túžbu identifikovať a zmierniť etické a spoločenské riziká svojho systému a jeho dopad na zainteresovaných aktérov. Ďalším krokom pri zmierňovaní etických a spoločenských rizík identifikovaných v hodnotení založenom na etike by malo byť zameranie sa na najbezprostrednejšie riziká zo zoznamu rizík (2 veľmi vysoké riziká a 18 vysokých rizík). Z širšieho hľadiska existujú témy, ktoré by spoločnosť mohla prijať na dosiahnutie dôveryhodnejšieho systému. Po prvé, zaviesť proces validácie rizík a protiopatrení, ktorý by zahŕňal workshopy na zapojenie zainteresovaných aktérov na overenie výsledkov hodnotiaceho procesu (vrátane nielen priamych, ale aj vysoko ovplyvnených nepriamych zainteresovaných aktérov), vyhnúť sa slepým miestam a merať dopad navrhovaných protiopatrení. Po druhé, zaviesť transparentnú komunikáciu, od vytvárania poznámok o transparentnosti, ktoré vhodným jazykom vysvetlia výhody a obmedzenia systému dotknutým aktérom, cez interné kontrolné zoznamy a smernice, ktoré pomôžu zamestnancom, až po ďalšie komunikačné aktivity, ktoré podporia ochotu spoločnosti poskytovať dôveryhodné systémy a predchádzať verejným nedorozumeniam.

Tím Elv.ai počas celého hodnotiaceho procesu, vrátane prípravnej a hodnotiacej fázy, plne spolupracoval a bol schopný zabezpečiť multidisciplinárny tím ochotný spolupracovať s facilitátormi. Ich nadšenie pre riešenie rôznych výziev a schopnosť čeliť náročným otázkam prispeli k plynulej a produktívnej diskusii počas workshopov.

Ďalšie novinky

Pripojte sa k nám

Registrácia do Hopero

Zaregistrujte sa do Hopero a vyplnením krátkeho dotazníka nám priblížte vašu aktuálnu situáciu. Pripravíme pre vás ponuku na mieru šitých Hopero služieb.