To nie mnie zastąpi AI – raport o nierealistycznym optymizmie Polaków wobec sztucznej inteligencji

udostępnij artykuł
To nie mnie zastąpi AI – raport o nierealistycznym optymizmie Polaków wobec sztucznej inteligencji
float_intro: images/CENTRUM-PRASOWE/foto/szablon-raport-ton-nie-mnie-zastapi-AI.jpg

Polacy i Polki częściej oceniają, że ryzyko negatywnych konsekwencji rozwoju sztucznej inteligencji jest większe dla innych ludzi niż dla nich samych i osób im bliskich – wynika z raportu „To nie mnie zastąpi AI. O nierealistycznym optymizmie Polek i Polaków wobec sztucznej inteligencji”, przygotowanego przez Centrum Badań nad Relacjami Społecznymi Uniwersytetu SWPS. Im bardziej oddalona jest grupa odniesienia, tym wyższe ryzyko związane z AI przypisują jej osoby badane.

pobierz pakiet 2

Szybki rozwój sztucznej inteligencji stał się impulsem do intensywnej debaty społecznej i naukowej, w której fascynacja możliwościami nowej technologii coraz częściej przeplata się z pytaniami i obawami dotyczącymi długofalowych konsekwencji jej wykorzystania1.

Dynamiczne zmiany, takie jak te, które obserwujemy przy okazji rozwoju narzędzi sztucznej inteligencji, oddziałują na nasze funkcjonowanie psychologiczne. Gdy nie wiemy, co przyniesie przyszłość, łatwiej o lęk i jednocześnie takie sposoby myślenia, które pomagają ten lęk oswoić.

dr Paweł Muniak, psycholog z Uniwersytetu SWPS, autor raportu

Badania pokazują, że w takich warunkach ludzie częściej uruchamiają strategie chroniące poczucie bezpieczeństwa. Jedną z najlepiej opisanych tendencji tego typu jest nierealistyczny optymizm, czyli przekonanie, że negatywne zdarzenia z większym prawdopodobieństwem spotkają innych ludzi niż nas samych2.

AI groźniejsza dla innych niż dla nas

W raporcie „To nie mnie zastąpi AI. O nierealistycznym optymizmie Polek i Polaków wobec sztucznej inteligencji” przeanalizowano, czy różnice między perspektywą „ty i bliscy” a pozostałymi trzema perspektywami („osoba z miasta”, „obywatel” i „osoba na świecie”) zmieniają się w zależności od płci, wieku, wykształcenia oraz statusu zawodowego osób badanych.

Wyniki sondażu przeprowadzonego między wrześniem a październikiem 2025 roku przez Centrum Badań nad Relacjami Społecznymi Uniwersytetu SWPS, na reprezentatywnej próbie Polaków (N=1029), wskazują, że wraz z oddalaniem się od perspektywy „ty i bliscy” ryzyko związane z AI jest systematycznie oceniane jako większe dla bardziej abstrakcyjnych i odległych grup3.

Z raportu wynika, że osoby młodsze i starsze nie różniły się tym, jak wysoko (przeciętnie) szacowały prawdopodobieństwo negatywnego wpływu AI na życie zawodowe lub prywatne osób badanych oraz innych ludzi4. Wyniki sondażu pokazują, że również ani wykształcenie, ani status zawodowy nie zmieniają kształtu wzorca – nie ma dowodów na to, by różnice między perspektywą „ty i bliscy” a bardziej odległymi perspektywami były systematycznie inne w zależności od poziomu wykształcenia czy statusu zawodowego.

Jedyny wyjątek dotyczył płci. Jak wynika z badania, kobiety deklarowały przeciętnie wyższy ogólny poziom postrzeganego ryzyka związanego ze sztuczną inteligencją niż mężczyźni5. Oznacza to, że u obu płci działa podobny mechanizm – kobiety i mężczyźni różnią się poziomem bazowym ocen ryzyka, a nie wzorcem porównań – ryzyko jest częściej lokowane po stronie „innych”.

Sztuczna inteligencja poczeka?

Jak zauważa ekspert, analiza postrzeganego ryzyka związanego z generatywną sztuczną inteligencją ujawnia wyraźny i konsekwentny wzorzec: im bardziej oddalona jest grupa odniesienia od perspektywy „ty i bliscy”, tym wyżej badani oceniają prawdopodobieństwo negatywnego wpływu AI na życie zawodowe lub prywatne. Oznacza to, że ryzyko jest psychologicznie przesuwane na zewnątrz – od siebie i najbliższych, przez „osobę z miasta” i „obywatela”, aż po „osobę na świecie”. Ten stopniowy układ różnic jest spójny z teorią nierealistycznego optymizmu.

– To, że nierealistyczny optymizm jest w dużej mierze niezależny od kluczowych cech społeczno-demograficznych, niesie ze sobą ważne implikacje społeczne. Wynik ten sugeruje, że nierealistyczny optymizm nie jest efektem specyficznych interesów lub sytuacji życiowej (np. funkcjonowania na rynku pracy, posiadania wyższych kompetencji czy określonego poziomu edukacji), lecz raczej stanowi ogólny sposób psychologicznego porządkowania ryzyka w warunkach niepewności. W praktyce oznacza to, że nawet jeśli ludzie uznają zagrożenia związane z AI za realne, mogą jednocześnie zakładać, że dotkną one przede wszystkim innych, a więc nie wymagają natychmiastowej reakcji we własnym życiu – mówi dr Paweł Muniak.

Twórca publikacji zauważa, że taki sposób postrzegania ryzyka może mieć konkretne konsekwencje praktyczne. Jeśli ryzyko jest lokowane po stronie „innych”, łatwiej utrzymuje się przekonanie, że przygotowanie na zmiany nie jest pilne, co może osłabiać motywację do działań adaptacyjnych (np. rozwijania kompetencji, uczenia się efektywnego korzystania z narzędzi AI, higieny cyfrowej, krytycznej weryfikacji treści czy zabezpieczania prywatności). Na poziomie społecznym ten sam mechanizm może obniżać gotowość do popierania rozwiązań prewencyjnych „tu i teraz” (edukacja, programy przekwalifikowania, standardy i regulacje), ponieważ koszty działań są natychmiastowe, a korzyści bywają wyobrażane jako dotyczące kogoś innego.

– Wyniki sugerują, że komunikacja o skutkach AI powinna możliwie często przekładać abstrakcyjne ryzyka na bliskie, konkretne scenariusze z codziennego życia i pracy – tak aby ograniczać odruchową myśl „to dotyczy innych” i wzmacniać poczucie sprawczości oraz sensu wczesnego przygotowania się – wskazuje ekspert.

Autorem raportu jest dr Paweł Muniak, psycholog z Uniwersytetu SWPS. Publikacja dostępna jest na stronie.

 

 1Kim, J.J.H., Soh, J., Kadkol, S., Solomon, I., Yeh, H., Srivatsa, A.V., Nahass, G.R., Choi, J.Y., Lee, S., Nyugen, T. i Ajilore, O.. (2025). AI anxiety: A comprehensive analysis of psychological factors and interventions. AI Ethics, 5, 3993–4009. https://doi.org/10.1007/s43681-025-00686-9

 2Weinstein, N.D. (1980). Unrealistic optimism about future life events. Journal of Personality and Social Psychology, 39(5), 806–820. https://doi.org/10.1037/0022-3514.39.5.806

 3Do porównań zastosowano liniowy model mieszany powtarzanych pomiarów (LMM) wraz z testami post-hoc (porównania parami z korektą Holm). p < 0,001; ηp²=0,01

 4p = 0,226

 5ΔM = 4,87; p < 0,001; d=0,46

dr

Paweł Muniak


Te artykuły mogą
cię zainteresować

Poproś o komentarz ekspercki

Napisz nam o swoim temacie, a my znajdziemy dla Ciebie eksperta z naszej bazy ponad 400 naukowców.

Przejdż do formularza
Bądź na bieżąco

Zapisz się do naszego newslettera i bądź na bieżąco z publikowanymi przez nas nowościami.

Zapisz się