„Technologie, które wykluczają. Pomiar, dane, algorytmy” – książka dr. Kuby Piwowara
Nakładem Wydawnictwa Naukowego Scholar ukazała się właśnie książka dr. Kuby Piwowara dotycząca wykluczenia w świecie technologii cyfrowych. Jak bardzo powinniśmy ufać decyzjom programów komputerowych? Jak to możliwe, że pozornie obiektywne algorytmy mogą wykluczać kobiety lub mniejszości seksualne? W jaki sposób można temu zapobiec? Książka dostępna już na stronie wydawcy została opublikowana przy wsparciu i pod patronatem Uniwersytetu SWPS.
Czy decyzja podjęta przez algorytm może dyskryminować?
Algorytmy uczestniczą w podejmowaniu wielu ważnych decyzji i mają znaczący wpływ na nasze życie. Jeśli podsuną nam nietrafioną reklamę lub rekomendację filmu, nic złego się nie stanie, gorzej jednak, gdy błędnie zadecydują o sposobie leczenia, przyznaniu kredytu, otrzymaniu lub utracie pracy czy też o tym, czy ktoś trafi do więzienia, czy nie. Choć mogłoby się wydawać, że decyzja programu komputerowego nie może być stronnicza, w rzeczywistości do pomyłek dochodzi dość często.
O książce
„Technologie, które wykluczają. Pomiar, dane, algorytmy” poddają dogłębnej analizie procesy i zjawiska sprawiające, że technologie cyfrowe mogą wykluczać kobiety, osoby czarnoskóre czy nieheteronormatywne. Publikacja opiera się na doktoracie autora i jest efektem czterech lat badań. Dr Kuba Piwowar przedstawia w niej historię dyskryminujących praktyk w świecie technologii i ich możliwe przyczyny. Jako środki zaradcze proponuje rozwiązania mogące zmniejszyć ryzyko nierównego traktowania osób, a także zachowanie zdrowego dystansu wobec decyzji algorytmów.
Wykluczeni przez technologię
Z wykluczeniem algorytmicznym mamy do czynienia wtedy, gdy program sprzyja jednym grupom ludzi, a inne traktuje gorzej – zazwyczaj te, które i tak są marginalizowane w społeczeństwie. Przyczyn tego zjawiska może być wiele, ale najważniejszą jest to, że wynik działania algorytmu zależy od informacji, na których operuje – zwykle są to olbrzymie zbiory danych, w których zawarte są duże dysproporcje między różnie grupami. Wydając decyzje na podstawie takich danych, algorytm może pogłębiać istniejące nierówności społeczne.
Przeczytaj artykuł: Algorytmy – dyskryminacja i wykluczenie oraz ich społeczne konsekwencje
O autorze
Doktor nauk o kulturze, socjolog, analityk danych. Ekspert w zakresie technologii, big data, etyki w analizie danych, procesów transformacji cyfrowej w organizacjach. Zajmuje się kulturowymi i społecznymi aspektami rozwoju sztucznej inteligencji i nowych technologii, algorytmiczną kulturą, badaniami mediów i ich użytkowników, queer studies oraz gender studies. Interesuje się zagadnieniem wykluczenia z technologii ze względu na płeć, rasę, klasę i seksualność. Na Uniwersytecie SWPS prowadzi zajęcia ze społeczno-kulturowych aspektów technologii, krytycznej analizy danych, metod badań medioznawczych, sztucznej inteligencji oraz nowych mediów.