AI Awards požiadavka #7 sa týka zodpovednosti

V tomto blogu sa pozrieme na poslednú z kľúčových požiadaviek, ktoré musia spĺňať systémy dôveryhodnej umelej inteligencie, ktorá sa týka zodpovednosti a zodpovedného prístupu.

Otázka zodpovednosti v umelej inteligencii je jednou z najťažších. Vstupuje do nej nielen komplexnosť systémov a procesov, na ktorých tvorbe sa podieľajú rôzne roly a ktoré vedú k nejasnostiam kto je za čo zodpovedný (tzv. “many hands” problém), ale aj miera autonómie, ktorou systémy AI disponujú. Určenie zodpovednosti v umelej inteligencii si preto vyžaduje existenciu mechanizmov, ktoré umožnia overiť, ako a prečo systémy umelej inteligencie fungujú v rôznych situáciách a aké sú ich dôsledky. Tieto mechanizmy by mali byť dostupné ešte pred nasadením systémov umelej inteligencie, počas ich prevádzky ale aj potom ako sa prestanú používať. Zodpovednosť v umelej inteligencii je pritom úzko spojená s ostatnými požiadavkami, ako napríklad so zásadou spravodlivosti, ktorá vyžaduje, aby systémy umelej inteligencie nediskriminovali a chránili práva všetkých dotknutých osôb. 

Kontrolovateľnosť zahŕňa možnosť posúdiť algoritmy, dáta a procesy, ktoré sú súčasťou systémov umelej inteligencie. Kontrolovateľnosť neznamená, že všetky informácie o systémoch umelej inteligencie musia byť verejné, ale že by mali byť prístupné pre posúdenie zodpovednými stranami, ako sú interní a externí audítori, regulačné orgány alebo súdy. Kontrolovateľnosť systémov AI tak prispieva k ich dôveryhodnosti a transparentnosti tak, že umožňuje ich nezávislú kontrolu, najmä pri aplikáciách, ktoré môžu mať výrazný vplyv na naše základné práva, život alebo bezpečnosť.

Minimalizácia negatívnych vplyvov a ich oznamovanie rieši možnosť identifikovať, hodnotiť a nahlásiť možné negatívne účinky systémov umelej inteligencie, najmä pre tých, ktorí sú nimi priamo či nepriamo dotknutí. Tento aspekt zahŕňa aj ochranu a podporu oznamovateľov, ktorí vyjadria oprávnené obavy týkajúce sa systémov umelej inteligencie. Spadá tu aj využívanie rôznych nástrojov na posúdenie vplyvu systémov AI, ktoré pomáhajú predvídať a zmierniť riziká spojené s týmito systémami.

V prípadoch, že sa ukáže, že systémy umelej inteligencie môžu mať nepriaznivý vplyv na dotknuté osoby, je dôležité mať pripravené mechanizmy na poskytnutie  primeranej nápravy, alebo mechanizmy úpravy v samotnom systéme. Kompromisy sú neoddeliteľnou súčasťou vývoja, nasadzovania a používania nových technológií, vrátane systémov umelej inteligencie. Je potrebné si uvedomovať, že nie všetky požiadavky, či už technickej, alebo netechnickej povahy, môžu byť splnené súčasne a že niektoré situácie môžu vyžadovať ústupky v technickom riešení v prospech zvýšenej ochrany dotknutých osôb. Tieto kompromisy by mali byť jasne odôvodnené a zdokumentované, pričom by sa mali brať do úvahy aj etické spoločenské riziká, ktoré dané rozhodnutie môže priniesť. V prípade, že nie je možné nájsť žiaden morálne prijateľný kompromis, je dôležité byť pripravený aj na krajné riešenie a byť schopný upustiť od vývoja, nasadzovania alebo používania systémov AI v takto problematických situáciách.

Ďalšie novinky

Pripojte sa k nám

Registrácia do Hopero

Zaregistrujte sa do Hopero a vyplnením krátkeho dotazníka nám priblížte vašu aktuálnu situáciu. Pripravíme pre vás ponuku na mieru šitých Hopero služieb.