Systémy umelej inteligencie by mali fungovať ako nástroje, ktoré nám pomáhajú robiť lepšie, kvalifikovanejšie a efektívnejšie rozhodnutia. Zároveň ale platí, že systémy AI a ich odporúčania môžu mať aj negatívny dopad na našu schopnosť samostatne myslieť, rozhodovať sa, či niesť za tieto rozhodnutia svoju zodpovednosť. Preto je dôležité už pri vývoji a nasadzovaní systémov AI proaktívne premýšľať nad otázkami, ktoré sa týkajú dopadov na ľudskú autonómiu, či miery ľudského dohľadu nad nimi. Ľudský dohľad je tak jednou z kľúčových požiadaviek pre dôveryhodnú umelú inteligenciu. Pomáha zabezpečiť, aby systémy umelej inteligencie neoslabovali ale naopak podporovali ľudskú autonómiu a schopnosti robiť správne rozhodnutia.
Mali by sme sa pýtať, do akej miery je umožnené ľuďom dohliadať na fungovanie systémov AI, či je za každých okolností dostatočne jasné, kedy človek interaguje so systémom umelej inteligencie, alebo na to, či nebol systém (či už zámerne, alebo nedopatrením) navrhnutý tak, aby dochádzalo k vytváraniu silných citových väzieb, ba dokonca závislosti na systémoch AI. Rovnako je však dôležité dbať aj na to, či nasadením daného systému AI nedochádza k prílišnému spoliehaniu sa na rozhodnutia systému AI, či dokonca k riziku straty vlastného úsudku a oslabenie dôležitých schopností, napr. tých ktoré sú potrebné pre vykonávanie daného zamestnania alebo profesie. To všetko môže mať významný vplyv na to, či takýto systém budeme považovať za dôveryhodný.
V závislosti od miery závažnosti dopadov, ale napríklad aj od konkrétnej domény nasadenia, poznáme rôzne mechanizmy dohľadu nad systémami AI. Tieto prístupy zahŕňajú rôzne stupne a miery zapojenie ľudského dohľadu do rozhodovacích cyklov AI systému, od možnosti zásahu v úplne každom kroku rozhodovania, až po všeobecnejšie zásahy, ako je možnosť zvrátiť pôvodné rozhodnutie vygenerované systémom AI, či možnosť nepoužiť systém AI v konkrétnej situácii a zvoliť namiesto toho neautomatizovaný prístup.
Vo všeobecnosti platí, že dôležité rozhodnutia by mal vykonávať človek, prípadne by mali byť pod jeho úplným dohľadom. Systémy AI sú tu pre nás a nie naopak. Na druhú stranu, čím menej dohľadu môže človek nad systémom umelej inteligencie vykonávať, tým viac je potrebné priebežné monitorovanie a kontrola jeho výstupov. Požiadavka na ľudský dohľad a autonómiu tak má výrazný vplyv aj na ďalšie požiadavky dôveryhodnej umelej inteligencie, akými sú napríklad požiadavky týkajúce sa transparentnosti a vysvetliteľnosti, či celospoločenských dopadov systémov AI.