Definicja
Odpowiedzialna sztuczna inteligencja (AI) odnosi się do projektowania, rozwoju i wdrażania systemów AI, które są etyczne, przejrzyste, uczciwe i rozliczalne. Kładzie nacisk na minimalizację ryzyka i maksymalizację korzyści społecznych.
Cel
Celem jest zapewnienie zgodności sztucznej inteligencji z prawami człowieka, bezpieczeństwem i uczciwością. Odpowiedzialne praktyki w zakresie sztucznej inteligencji pomagają organizacjom wdrażać godne zaufania rozwiązania sztucznej inteligencji.
Znaczenie
- Buduje zaufanie do wdrażania sztucznej inteligencji.
- Zapobiega szkodliwym i dyskryminacyjnym wpływom.
- Zapewnia zgodność z przepisami.
- Promuje przejrzystość i odpowiedzialność.
Jak to działa
- Zdefiniuj zasady i wytyczne etyczne.
- Ocena ryzyka w całym cyklu życia sztucznej inteligencji.
- Zastosuj zabezpieczenia takie jak testy uczciwości i audyty stronniczości.
- Ciągły monitoring wdrożonych systemów.
- Dokumentowanie i komunikowanie praktyk interesariuszom.
Przykłady (świat rzeczywisty)
- Standard Microsoftu dotyczący odpowiedzialnej sztucznej inteligencji.
- Zasady Google AI.
- Zasady OECD w zakresie sztucznej inteligencji przyjęte przez rządy na całym świecie.
Odniesienia / Dalsza lektura
- Zasady OECD dotyczące sztucznej inteligencji.
- Ramy zarządzania ryzykiem AI NIST.
- Jobin, A. i in. „Globalny krajobraz wytycznych etycznych w zakresie sztucznej inteligencji”. Nature.
- Czym jest odpowiedzialna sztuczna inteligencja?