Vatsal Ghiya, dyrektor generalny i współzałożyciel Shaip, podczas specjalnego gościa podzielił się spostrzeżeniami na temat stronniczości w uczeniu maszynowym. Dodatkowo podkreślił przyczynę uprzedzeń w AI i jak wyeliminować uprzedzenia w modelach AI/ML.
Kluczowe wnioski z artykułu to:
- Od sugestii dotyczących restauracji po rozwiązywanie zgłoszeń serwisowych, chatbot AI jest coraz częściej wykorzystywany w branżach takich jak opieka zdrowotna, bankowość i finanse oraz do korygowania różnic w wynagrodzeniach. Przy dużej liczbie przypadków użycia nieunikniona staje się rzetelność związana z całym procesem.
- Stronniczość w modelu AI występuje podczas faz szkolenia, w których eksperci AI dostarczają ilości danych z pewnymi skłonnościami i preferencjami. W szczególności istnieją dwa rodzaje uprzedzeń, pierwsze zniekształcenie poznawcze, a drugie to zniekształcenia, które występują z powodu braku danych.
- Ale dobrą wiadomością jest to, że błędy w modelach AI można wyeliminować, używając odpowiedniego zestawu danych wraz z monitorowaniem danych w czasie rzeczywistym i reprezentatywnymi modelami danych. Ponieważ dominuje w naszym codziennym życiu, ostatecznie ważne jest, aby uważać na nasz wkład w utrzymanie jakości.
Przeczytaj cały artykuł tutaj:
https://datafloq.com/read/how-to-handle-bias-in-machine-learning/