Sprawdź nasze rozbudowane narzędzie do wyszukiwania.

Szukaj po kategoriach – oszczędzaj swój czas.

Uniwersytet SWPS - Strona główna

„Technologie, które wykluczają. Pomiar, dane, algorytmy” – książka dr. Kuby Piwowara

float_intro: images/ZDJECIA/nowosci-wydawnicze/Technologie-ktore-wykluczaja.jpg

Nakładem Wydawnictwa Naukowego Scholar ukazała się właśnie książka dr. Kuby Piwowara dotycząca wykluczenia w świecie technologii cyfrowych. Jak bardzo powinniśmy ufać decyzjom programów komputerowych? Jak to możliwe, że pozornie obiektywne algorytmy mogą wykluczać kobiety lub mniejszości seksualne? W jaki sposób można temu zapobiec? Książka dostępna już na stronie wydawcy została opublikowana przy wsparciu i pod patronatem Uniwersytetu SWPS.

Czy decyzja podjęta przez algorytm może dyskryminować?

Algorytmy uczestniczą w podejmowaniu wielu ważnych decyzji i mają znaczący wpływ na nasze życie. Jeśli podsuną nam nietrafioną reklamę lub rekomendację filmu, nic złego się nie stanie, gorzej jednak, gdy błędnie zadecydują o sposobie leczenia, przyznaniu kredytu, otrzymaniu lub utracie pracy czy też o tym, czy ktoś trafi do więzienia, czy nie. Choć mogłoby się wydawać, że decyzja programu komputerowego nie może być stronnicza, w rzeczywistości do pomyłek dochodzi dość często.

O książce

„Technologie, które wykluczają. Pomiar, dane, algorytmy” poddają dogłębnej analizie procesy i zjawiska sprawiające, że technologie cyfrowe mogą wykluczać kobiety, osoby czarnoskóre czy nieheteronormatywne. Publikacja opiera się na doktoracie autora i jest efektem czterech lat badań. Dr Kuba Piwowar przedstawia w niej historię dyskryminujących praktyk w świecie technologii i ich możliwe przyczyny. Jako środki zaradcze proponuje rozwiązania mogące zmniejszyć ryzyko nierównego traktowania osób, a także zachowanie zdrowego dystansu wobec decyzji algorytmów.

Więcej o książce

Wykluczeni przez technologię

Z wykluczeniem algorytmicznym mamy do czynienia wtedy, gdy program sprzyja jednym grupom ludzi, a inne traktuje gorzej – zazwyczaj te, które i tak są marginalizowane w społeczeństwie. Przyczyn tego zjawiska może być wiele, ale najważniejszą jest to, że wynik działania algorytmu zależy od informacji, na których operuje – zwykle są to olbrzymie zbiory danych, w których zawarte są duże dysproporcje między różnie grupami. Wydając decyzje na podstawie takich danych, algorytm może pogłębiać istniejące nierówności społeczne.

Przeczytaj artykuł: Algorytmy – dyskryminacja i wykluczenie oraz ich społeczne konsekwencje

O autorze

Kuba Piwowar
dr
Kuba Piwowar

Doktor nauk o kulturze, socjolog, analityk danych. Ekspert w zakresie technologii, big data, etyki w analizie danych, procesów transformacji cyfrowej w organizacjach. Zajmuje się kulturowymi i społecznymi aspektami rozwoju sztucznej inteligencji i nowych technologii, algorytmiczną kulturą, badaniami mediów i ich użytkowników, queer studies oraz gender studies. Interesuje się zagadnieniem wykluczenia z technologii ze względu na płeć, rasę, klasę i seksualność. Na Uniwersytecie SWPS prowadzi zajęcia ze społeczno-kulturowych aspektów technologii, krytycznej analizy danych, metod badań medioznawczych, sztucznej inteligencji oraz nowych mediów.

Zobacz inne aktualności