AI Awards súkromie a citlivosť dát

Ochrana súkromia a citlivosť dát je treťou požiadavkou AI

Tretia požiadavka na dôveryhodnú umelú inteligenciu sa zaoberá práve otázkami týkajúcich sa ochrany súkromia a dát, kvality a integrity dát a správy prístupu k dátam.

Spoľahlivosť súčasných systémov umelej inteligencie je do veľkej miery závislá aj od kvality vstupných dát. A tie častokrát obsahujú aj údaje o nás, ľudoch, prípadne ide o dáta priamo vytvorené ľuďmi. Z pohľadu dôveryhodnosti systémov AI je preto dôležité, aby sme pri ich vývoji, nasadzovaní a používaní mysleli aj na dopady na naše súkromie. Tretia požiadavka na dôveryhodnú umelú inteligenciu sa preto zaoberá práve otázkami týkajúcich sa ochrany súkromia a dát, kvality a integrity dát a správy prístupu k dátam.

Pri vývoji a používaní AI  musíme mať na pamäti, že údaje, ktoré získavame a používame častokrát môžu obsahovať citlivé informácie o používateľoch. Môže pritom ísť o informácie ktoré používateľ priamo poskytol, ale aj o také, ktoré vznikli počas jeho interakcie so systémom. Predstavme si situáciu, pri ktorej systém ponúkne počas interakcie užívateľovi rôzne odporúčania a uchová nielen túto informáciu, ale aj to, ako užívateľ na odporúčania reagoval. Z takýchto údajov a interakcii je možné identifikovať alebo odvodiť aj ďalšie citlivé atribúty, akými sú napríklad vek, pohlavie, ale napríklad aj sexuálna orientácia alebo politické názory. Z pohľadu dôveryhodnosti systémov AI je preto kľúčové, aby sme mohli dôverovať procesu získavania a uchovávania našich údajov, a aby bolo zabezpečené že nebudú voči nám zneužité. Ochrana súkromia musí byť teda zabezpečená od okamihu, keď používateľ poskytne informácie systému, a to po celý životný cyklus systému. 

Pri pohľade na výkonnosť a presnosť systémov umelej inteligencie je zásadné, aby sme venovali osobitnú pozornosť kvalite dát, ktoré systém využíva. So zberom a používaním dát sa vždy nesie riziko spoločenských predsudkov, rôznych skreslení a chýb. Tie môžu ovplyvniť spoľahlivosť a dôveryhodnosť generovaných výstupov. Preto je nevyhnutné, aby sa týmto otázkam venovala pozornosť ešte pred samotným trénovaním systému. Procesy, ktoré sa používajú na spracovanie údajov ako aj samotné datasety, by teda mali byť systematicky testované a zdokumentované v každej fáze vývoja, od plánovania cez trénovanie až po testovanie a nasadenie tak aby sa zabezpečila ich dostatočná spoľahlivosť. 

Okrem iného by mali organizácie implementovať procesy a postupy, ktoré jasne definujú pravidlá týkajúce sa prístupu k osobným údajom aj nad rámec platnej legislatívy akou je napríklad všeobecné nariadenie na ochranu osobných údajov (GDPR). Tieto postupy by mali transparentne  uviesť, kto má oprávnenie pristupovať k údajom a za akých okolností plus poskytli primerané nástroje na overenie, či prešetrenie ako sa s týmito údajmi nakladá. Prístup k údajom by mal byť vyhradený iba zamestnancom, ktorí nielenže majú potrebné schopnosti, ale aj oprávnenie a legitimný dôvod na prístup k osobným údajom jednotlivcov. Rovnako by aj užívatelia mali mať možnosť jednoduchým a transparentným spôsobom sledovať ako sa s ich údajmi nakladá a kam môžu smerovať svoje pochybnosti o primeranosti takéhoto spracovania ich dát.Týmto spôsobom sa nielen zabezpečuje ochrana súkromia, ale predchádza sa aj možnému zneužitiu informácií, čím sa zvyšuje celková dôvera v umelú inteligenciu a jej schopnosť efektívne a eticky spracovávať naše údaje.

Ďalšie novinky

Pripojte sa k nám

Registrácia do Hopero

Zaregistrujte sa do Hopero a vyplnením krátkeho dotazníka nám priblížte vašu aktuálnu situáciu. Pripravíme pre vás ponuku na mieru šitých Hopero služieb.