Powiela stereotypy i pogłębia podziały w społeczeństwie – to główne zarzuty kierowane pod adresem systemów opartych na sztucznej inteligencji. Coraz częściej da się słyszeć: potrzebna jest etyczna sztuczna inteligencja. Odpowiedzialna, godna zaufania, pożyteczna. Ale czy etykę można zaprogramować? Czy sprawiedliwość algorytmiczna jest możliwa? Jak w modelach AI nie powielać naszych uprzedzeń? – zastanawia się Agata Foryciarz, badaczka z Uniwersytetu Stanforda.

Zapraszamy na webinar Sztuczna inteligencja a etyka – czy da się je pogodzić. Zapisz się >>

Ewa Pluta: Czy sztuczna inteligencja może być rasistą?

Agata Foryciarz: Może być rasistowska. Algorytmy sztucznej inteligencji uczą się w oparciu o dane historyczne. Wśród danych mogą znaleźć się takie, które zawierają uprzedzenia płciowe, ideologiczne czy rasowe. Zatem algorytmy sztucznej inteligencji powielają uprzedzenia już istniejące w społeczeństwie.

Przykładem może być usługa dostarczania towarów Prime, z której musiał tłumaczyć się Amazon. Algorytmy sztucznej inteligencji „uznały” , że jej wprowadzenie w dzielnicach zamieszkanych przez mniejszości rasowe nie ma sensu.

W USA problem rasizmu ciągnie się od wieków. Znajduje to odzwierciedlenie w uprzedzeniach algorytmicznych, mimo że pół wieku temu przyjęto ustawę o prawach obywatelskich i zakazano segregacji rasowej. Ryzyko automatycznego utrwalania rasistowskich mechanizmów jest naprawdę wysokie, chyba że intencjonalnie buduje się technologię, która ma temu zapobiegać. Zwykle jednak algorytmy sztucznej inteligencji powstają w określonym celu. Zwykle są nim oszczędności, a nie dogłębne rozwiązanie problemu społecznego.

Celem nie jest neutralność technologii?

Często algorytmy są opisywane jako neutralne, dzięki czemu jest możliwe zastosowanie ich w różnych dziedzinach życia społecznego. W rzeczywistości neutralne algorytmy nie istnieją, o czym pisze Virginia Eubanks w swojej znakomitej książce o automatyzacji nierówności: „Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor”.

Eubanks opisuje między innymi oparty na sztucznej inteligencji system przydzielania mieszkań osobom w kryzysie bezdomności w Los Angeles. Wprowadzono go, by wyeliminować kosztowną biurokrację i długie kolejki, a także przyspieszyć proces przyznawania mieszkań i uczynić go bardziej neutralnym. W trakcie okazało się, że system większość mieszkań przydzielał osobom z krótkim kryzysem bezdomności, które z dużym prawdopodobieństwem przezwyciężyłyby ją szybko. Mieszkań nie dostawali natomiast ci, którzy mieli znacznie mniejsze szanse na wyjście z bezdomności. Nie było to celowe działanie, tak pracował algorytm. Pracownicy socjalni rozumieli, że to nie powinno mieć miejsca, ale ich zdania nie wzięto pod uwagę w pracy nad narzędziem.

To powracający motyw –  istnieje poważny problem społeczny, którego nie potrafimy rozwiązać przez dekady. Nagle zjawia się firma obiecująca, że ich nowoczesne narzędzie oparte na algorytmach sztucznej inteligencji na pewno sobie z nim poradzi. Po czasie przedstawiane są wyniki – tyle udało się zaoszczędzić, tyle mieszkań przyznać. Niby wszystko się zgadza, tylko dlaczego problem społeczny nadal istnieje.

Co by musiało się stać, żeby algorytm był bardziej sprawiedliwy? Chodzi o ściślejszą współpracę twórców technologii z otoczeniem?

Nie wiadomo, czy dogłębna współpraca zaowocowałaby sprawiedliwym algorytmem. Może naukowcy doszliby do wniosku, że algorytm nie jest rozwiązaniem problemu społecznego. W dziedzinie human–computer interaction istnieje pogląd, że czasem w sytuacjach subiektywnych i delikatnych najlepszym rozwiązaniem jest powstrzymanie się od tworzenia nowej technologii.

Eubanks we wspomnianej już książce „Automating Inequality” opisuje drastyczny przykład nierówności algorytmicznej. Chodzi o kategoryzowanie przez algorytmy połączeń telefonicznych dokonywanych na policję. Okazało się, że połączenia były częściej przypisywane do kategorii „przemoc domowa i znęcanie się nad dziećmi”, jeśli wykonywano je z czarnych dzielnic. Powód jest banalny – białe dzielnice są rzadziej kontrolowane przez policję. Skutki wybiórczego działania algorytmu mogą być dramatyczne, z odebraniem rodzinie dziecka włącznie. Technologia nie rozumie kontekstu na tyle, żeby rozstrzygać tak delikatne kwestie, więc w procesie decyzyjnym nadal powinien uczestniczyć człowiek.

Słowo „rozumieć” wydaje się kontrowersyjne w kontekście sztucznej inteligencji.

Staram się unikać określenia „sztuczna inteligencja”, bo ono jest mylące i często używane jako trik marketingowy mający zwiększyć sprzedaż. Takie nazewnictwo sprawia, że zwykły algorytm jest postrzegany przez pryzmat sprawczości i rozumienia. To prowadzi do sytuacji, w której ludzie nadmiernie ufają technologii i pozwalają jej decydować o społeczeństwie.

Sztuczna inteligencja to dziedzina naukowa, której celem jest tworzenie systemów naśladujących ludzką inteligencję. Jeszcze kilka dekad temu interesowało się nią wąskie grono naukowców, którzy na jej określenie używali mało spektakularnej nazwy – statystyka. Te same modele matematyczne modelujące zależności między różnymi wartościami nagle są antropomorfizowane, opisywane jako rozumiejący byt zamiast jako narzędzie wspierające działalność człowieka.

Staram się unikać określenia „sztuczna inteligencja”, bo ono jest mylące i często używane jako trik marketingowy mający zwiększyć sprzedaż. Takie nazewnictwo sprawia, że zwykły algorytm jest postrzegany przez pryzmat sprawczości i rozumienia. To prowadzi do sytuacji, w której ludzie nadmiernie ufają technologii i pozwalają jej decydować o społeczeństwie.

Czy zastosowanie sprawiedliwych algorytmów może przyczynić się do zaprowadzenia większej sprawiedliwości w codziennym życiu?

Chciałabym, żeby tak było. Algorytmy sztucznej inteligencji mogłyby pomagać w identyfikacji uprzedzeń, często powielanych nieświadomie, a nie ze złej woli. Można wyobrazić sobie system inteligentny, który analizuje decyzje lekarzy podejmowane wobec pacjentów w USA. Z pracy algorytmu wynika, że lekarze mimo wskazań medycznych rzadziej wykonują zabiegi czarnoskórym pacjentom. System zwraca uwagę lekarzowi, czy taką samą decyzję podjąłby, gdyby pacjent miał inne pochodzenie. Przy czym wdrażanie sprawiedliwych algorytmów powinno być holistyczne. Monitorowanie decyzji dotyczących zabiegów medycznych to jedno. Drugie to sposób zbierania danych, który także może utrwalać uprzedzenia. Trzecie to jakość danych – jeśli są niereprezentatywne, system będzie okazjonalnie podejmować błędne decyzje. Wreszcie monitoring pracy algorytmu, który pokazałby, czy rzeczywiście przynosi ona oczekiwane rezultaty.

Moje obawy wiążą się z tym, że system inteligentny może dobrze działać według definicji sprawiedliwości algorytmicznej w zakresie uśrednień i prognoz. Pojedyncze historie ludzkie mogą jednak w tym wszystkim zginąć. Wracając do przykładu medycznego, na poziomie jednostkowym algorytm może podejmować znacznie gorsze decyzje niż lekarz, który pacjenta postrzega w kontekście, a nie tylko jako daną w modelu statystycznym.

Czy można zaprogramować etykę? Wydaje się to trudne, choćby z tego względu, że systemy etyczne różnią się w zależności od kręgu kulturowego.

Systemy oparte na sztucznej inteligencji realizują ściśle zdefiniowany cel. Niech to będzie zwiększenie użyteczności. Na wstępie należy opisać w matematyczny sposób, czym jest użyteczność. Trudno to zrobić. Podobnie jest z wartościami takimi jak szczęście, zadowolenie, jakość życia. Jak je zdefiniować matematycznie? W takiej sytuacji twórcy algorytmu zapewne sięgną po argument ekonomiczny, namacalny i działający na wyobraźnię – ile można dzięki niemu zaoszczędzić. Poza tym istnieje wiele wyjątków od reguły, których nie da się ująć w algorytmie.

Na stronie Test Moralności dla Maszyny, stworzonej przez MIT Media Lab, znajdują się różne przykłady dylematów, przed którymi może stanąć autonomiczny pojazd – co będzie gorsze: zabicie młodej osoby czy dwoje staruszków. Można zautomatyzować tak trudne decyzje?

Przykład pojazdów autonomicznych bardzo często jest przywoływany w dyskusjach na temat etyki systemów opartych na sztucznej inteligencji, ale w środowisku osób, które się nią zajmują, nie jest on lubiany. Po prostu jest zbyt teoretyczny. Zastanówmy się, kto buduje te samochody, kto je kupuje, w jakim otoczeniu prawnym funkcjonujemy. Czy jakakolwiek firma zaryzykowałaby wypuszczenie pojazdu, który będzie samodzielnie decydować o tym, kto w wypadku ocaleje, a kto umrze? Tym samym firma wzięłaby na siebie odpowiedzialność prawną za zdarzenie, naraziłaby się na pozwy i kary.

Im dłużej zajmuję się problematyką etyki algorytmów sztucznej inteligencji, tym częściej sobie uświadamiam, że ich działalność ma przede wszystkim wymiar ekonomiczny i jest uwikłana w relacje władzy istniejące w społeczeństwie. Więc eksperymenty z etyką po prostu się nie opłacają.

Czy można jednak unormować działanie systemów inteligentnych tak, żeby były przede wszystkim narzędziem służącym ludziom, a nie zagrożeniem?

Takie regulacje wkrótce będą konieczne. Już teraz sporo dyskutuje się w kontekście sztucznej inteligencji o ochronie praw człowieka, prawa do prywatności, ochronie praw konsumenckich. Na razie opór regulacjom stawiają firmy zajmujące się systemami inteligentnymi. To jasne, nie chcą ograniczeń swojej działalności.

Regulacje prawne to jedno, drugie to ostrożność we wdrażaniu algorytmów sztucznej inteligencji do różnych dziedzin życia. Na razie znamy skutki ich działania w wąskim zakresie, a nie wiemy, jak wpływają one na całokształt życia człowieka.

Systemy inteligentne mogą być przydatne w automatyzowaniu czynności, gdzie liczy się wynik uśredniony, a jednostkowe historie nie są istotne. Gdy jednak system ma podejmować decyzje dotyczące ludzkiego życia, musimy jako społeczeństwo porządnie się zastanowić, jak to nas zmieni i czy warto iść za tą zmianą. Może czasem lepszym rozwiązaniem będzie rezygnacja z technologii.

Ekspertka

agata foryciarz

Agata Foryciarz – doktorantka na Wydziale Informatyki Uniwersytetu Stanforda, gdzie bada metody uczenia maszynowego wykorzystywane do wspomagania decyzji lekarzy; na tej uczelni prowadzi również grupę Computer Science and Civil Society. Współpracuje z polską Fundacją Panoptykon.

Artykuły

Zobacz także

Group 426 Group 430 strefa zarzadznia logo 05 logo white kopia logo white kopia