Definicja
Błąd w sztucznej inteligencji (AI) odnosi się do systematycznych błędów w wynikach AI spowodowanych zniekształconymi danymi, wadliwym projektem lub nierównościami społecznymi odzwierciedlonymi w zbiorach danych. Może to prowadzić do niesprawiedliwych lub dyskryminujących rezultatów.
Cel
Celem badania uprzedzeń jest identyfikacja i łagodzenie niesprawiedliwości w systemach sztucznej inteligencji. Organizacje dążą do budowania bardziej sprawiedliwych modeli poprzez rozwiązywanie tych problemów.
Znaczenie
- Prowadzi do dyskryminacji w zatrudnieniu, udzielaniu pożyczek lub opiece zdrowotnej, jeśli nie zostanie podjęta żadna reakcja.
- Podważa zaufanie do systemów sztucznej inteligencji.
- Wymaga zgodności z przepisami w branżach wrażliwych.
- Dotyczące uczciwości i odpowiedzialnych praktyk w zakresie sztucznej inteligencji.
Jak to działa
- Zidentyfikuj potencjalne źródła błędów (zbieranie danych, etykietowanie, modelowanie).
- Przeanalizuj zbiory danych pod kątem braku równowagi.
- Stosuj metody szkoleniowe uwzględniające uczciwość.
- Przetestuj wyniki przy użyciu metryk uczciwości.
- W razie konieczności dostosuj projekt i przeszkolenie.
Przykłady (świat rzeczywisty)
- Narzędzie do oceny ryzyka COMPAS: krytykowane za uprzedzenia rasowe.
- Algorytm rekrutacyjny Amazon: odrzucony z powodu dyskryminacji ze względu na płeć.
- Rozpoznawanie twarzy: znane z błędnej klasyfikacji niektórych grup demograficznych.
Odniesienia / Dalsza lektura
- Błąd sztucznej inteligencji — NIST.
- Sprawiedliwość i uczenie maszynowe — Barocas, Hardt i Narayanan (książka).
- Błąd algorytmiczny — materiały konferencyjne ACM FAccT.
- Różnorodne dane szkoleniowe AI: klucz do eliminacji stronniczości