Ak hovoríme o dôveryhodnej umelej inteligencii nemôžeme preto opomenúť ani aspekty týkajúce sa rozmanitosti, nediskriminácie a spravodlivosti.
Dnes už vieme, že dáta používané pri trénovaní systémov umelej inteligencie môžu v sebe obsahovať rôzne spoločenské a historické skreslenia, čo môže následne viesť k rôznym formám predsudkov a diskriminácie. Týmto skresleniam sa nie vždy dá vyhnúť a preto je dôležité vedieť tieto diskriminačné prvky adresovať už vo fáze návrhu systému, resp pri zbere a anotácií vstupných dát. Za neférové výstupy systémov AI však môžu aj naše osobné postoje a predsudky. Preto je dobré dbať na rozmanitosť názorov, kultúrnych a spoločenských pohľadov a na udržiavanie slobodnej výmeny názorov v tímoch.
Systémy umelej inteligencie sú tu pre ľudí a nie naopak. Dôležité je preto dbať aj na komunikáciu s používateľmi a ďalšími dotknutými osobami bez ohľadu na ich vek, pohlavie, alebo odborné schopnosti. V neposlednom rade nesmieme zabúdať ani na osoby so zdravotným znevýhodnením, ktorí by taktiež nemali byť diskriminovaní pri používaní systémov AI.
Aby mohli byť systémy umelej inteligencie v súlade s požiadavkami férovosti a spravodlivosti, je nevyhnutné zapojiť do komunikácie viaceré skupiny stakeholderov a to počas celého životného cyklu systému. Konzultácie s tými, ktorých systém ovplyvňuje, by mali byť pravidelné a systematické. Okrem toho je užitočné pýtať si spätnú väzbu aj po zavedení systému do produkcie. Dlhodobé a kontinuálne zapojenie všetkých dotknutých strán totiž dokáže priniesť nielen nové pohľady na pridanú hodnotu systémov AI ale zvýšiť aj ich citlivosť voči špecifickým potrebám a obmedzeniam.