Definicja
Etyczna sztuczna inteligencja (AI) odnosi się do rozwoju i wdrażania systemów AI, które priorytetowo traktują uczciwość, odpowiedzialność, przejrzystość i prawa człowieka. Koncentruje się na minimalizacji szkód i dostosowaniu AI do wartości społecznych.
Cel
Celem jest zapewnienie, aby sztuczna inteligencja przynosiła wszystkim równe korzyści i nie wzmacniała dyskryminacji ani niebezpiecznych praktyk. Odpowiedzialne korzystanie ze sztucznej inteligencji opiera się na ramach etycznych.
Znaczenie
- Buduje zaufanie społeczeństwa do technologii AI.
- Zapobiega szkodliwym i dyskryminującym skutkom.
- Zapewnia zgodność z prawem i normami etycznymi.
- Pokrywa się z kwestiami uczciwości, odpowiedzialnej sztucznej inteligencji i zarządzania.
Jak to działa
- Określ wytyczne i zasady etyczne.
- Określ ryzyko szkody lub stronniczości.
- Zastosuj środki zapewniające uczciwość i przejrzystość.
- Ciągłe monitorowanie i audytowanie systemów AI.
- Aktualizuj zasady w miarę rozwoju sztucznej inteligencji.
Przykłady (świat rzeczywisty)
- Ustawa UE o sztucznej inteligencji: reguluje korzystanie ze sztucznej inteligencji, zapewniając zabezpieczenia etyczne.
- Zasady Google AI: wytyczne korporacyjne dotyczące etycznej sztucznej inteligencji.
- Partnerstwo na rzecz sztucznej inteligencji: wielostronna grupa promująca odpowiedzialną sztuczną inteligencję.
Odniesienia / Dalsza lektura
- Zasady OECD dotyczące sztucznej inteligencji.
- Ramy zarządzania ryzykiem AI NIST.
- Jobin, A. i in. „Globalny krajobraz wytycznych etycznych w zakresie sztucznej inteligencji”. Nature.
- Znaczenie etycznej sztucznej inteligencji / uczciwej sztucznej inteligencji