Co łączy psychologię i sztuczną inteligencję? W centrum zainteresowania obu dziedzin stoi człowiek – skomplikowany i zarazem fascynujący. Chęć zgłębienia tajemnic człowieka od wieków jest siłą napędową świata nauki. Czy duet psychologia i sztuczna inteligencja pozwoli lepiej poznać tajniki ludzkiej psychiki? Jakich rozwiązań opartych na sztucznej inteligencji można spodziewać się w niedalekiej przyszłości w psychoterapii? Wreszcie, skąd w nas irracjonalny lęk przed nowymi technologiami? – wyjaśnia to dr Marcin Jaworski, współautor specjalności Psychologia sztucznej inteligencji na kierunku Psychologia i informatyka Uniwersytu SWPS.

Ewa Pluta: Psychologia i sztuczna inteligencja – dwie odrębne dziedziny, które jednak wiele łączy. Jak one na siebie wpływają?

dr Marcin Jaworski: Zacznę od zdefiniowania pojęć. Psychologia to nauka o człowieku, o sposobie, w jaki on funkcjonuje, a także mechanizmach leżących u podstaw funkcji poznawczych, takich jak postrzeganie, pamięć, uczenie się. Sztuczna inteligencja (SI) to dział aktywności badawczej i inżynierskiej skupionej na tworzeniu maszyn i układów złożonych, które są w stanie realizować cele założone przez konstruktora. Cele mogą być różne: od prostych, jak rozpoznawanie obrazów i ich kategoryzacja, po bardziej złożone, jak diagnoza medyczna czy poruszanie się po nierównym terenie. Jak widać, przypominają one lub naśladują cele, jakie zwykle realizuje człowiek.

Centralnym punktem zainteresowania psychologii jest człowiek, sposób w jaki przetwarza informacje i działa. Działania człowieka są w centrum zainteresowania SI, stanowiąc model dla konstruktorów i punkt odniesienia dla oceny wyników osiąganych przez maszyny. Wspomniany punkt odniesienia należy tu traktować dosłownie. Mówimy o wyrażonym ilościowo poziomie wykonania zadań realizowanych przez maszyny i przez człowieka (ang. human level performance). Porównujemy te wyniki, by ocenić użyteczność rozwiązań opartych na sztucznej inteligencji. Jest ona użyteczna o tyle, o ile zbliża się do poziomu wykonania typowego dla człowieka lub przewyższa ten poziom z uwagi na precyzję i szybkość. Istnieje coraz więcej obszarów, gdzie SI okazuje się użyteczna.

Psychologię z praktyką SI łączy cel dociekań. Jest nim zrozumienie mechanizmów zachowań inteligentnych, leżących u podstaw adaptacji i skutecznego działania. Istnieją próby wykorzystywania metodologii SI (uczenie sieci neuronowych) w symulacji podstawowych procesów poznawczych, mamy tu więc wpływ metodologii SI na psychologię. Z drugiej strony, praktycy SI uwzględniają w architekturach sieci SI elementy, które pełnią funkcję podstawowych, psychologicznych komponentów umysłu: pamięć długotrwałą, czy uwagę.

Jak się uczy sztuczna inteligencja?

Jedna z metod opiera się na uczeniu nadzorowanym (ang. supervised learning). Układ złożony, obecnie coraz częściej wielowarstwowa sieć neuronowa, zasilany jest bodźcami z zewnątrz, na przykład wizualnymi. Dostarcza mu się obrazy wraz z jednoznaczną informacją, co one przedstawiają: pies czy kot, dobry czy zły etc. Układ złożony kategoryzuje obrazy według klas; tworzy wzorzec pozwalający odróżnić jedne obrazy od drugich. Czyli sztuczna inteligencja potrafi określić zestaw cech definiujących psa, następnie rozpoznać go na zdjęciu, ale nie rozumie, czym jest pies. Jedynie przetwarza dane według narzuconego jej schematu.

Załóżmy, że będziemy trenować maszynę pod kątem wykrywania schorzeń układu kostnego. Podobnie jak człowiek, maszyna będzie uczyć się rozpoznawać zmiany chorobowe na podstawie zdjęć rentgenowskich kości i stawów. Różnica jest w ilości przetworzonego materiału, która w przypadku człowieka będzie nieporównywanie mniejsza.

Druga z metod to głębokie uczenie ze wzmocnieniem (ang. reinforcement learning). Tu układ złożony nie dostaje jednoznacznej informacji o tym, czy coś jest dobre czy złe, lecz uczy się na podstawie własnych działań. Inaczej, układ złożony ma wykonać zadanie. Jeśli to zrobi poprawnie, otrzyma nagrodę, czyli wzmocnienie. Maszyna antycypuje więc nagrody i podejmuje takie kroki, które zwiększą szanse na ich otrzymanie – jest to podejście bliskie rzeczywistemu procesowi uczenia się.

Na pierwszych etapach życia człowiek też uczy się w sposób nadzorowany. Dorośli wskazują dziecku, co to za obiekt, przywołują jego nazwy, związane z nim skojarzenia. Dziecko dorasta i podejmuje samodzielne działania, a na podstawie ich wyników – kolejne decyzje. Tak człowiek idzie do przodu.

Coraz częściej mówi się wirtualnych terapeutach. Czy można się spodziewać, że w niedalekiej przyszłości zastąpią oni tych rzeczywistych?

Co właściwie znaczy „wirtualny terapeuta”? Sztuczna inteligencja jest jak najbardziej fizyczna, nie ma w niej nic wirtualnego. Można mówić o sztucznym terapeucie, terapeucie wykorzystującym uczenie maszynowe, układzie złożonym występującym w roli terapeuty, ale nie o wirtualnym terapeucie. Warto dbać o precyzję języka, którym mówimy o sztucznej inteligencji, bo pełno w nim przeinaczeń i skrótów myślowych.

Czy możemy w takim razie spodziewać się wkrótce układów złożonych w roli terapeuty?

To raczej pieśń przyszłości. Po pierwsze podstawą terapii jest kontrakt terapeutyczny zawierany przez psychoterapeutę i pacjenta, których łączy oparta na zaufaniu relacja. Trudno mi sobie wyobrazić, że jedną ze stron relacji terapeutycznej jest maszyna. Maszyna choć przetwarza więcej informacji i szybciej niż człowiek, nadal nie jest w stanie wychwycić wielu niuansów. A terapeuta, zwłaszcza z wieloletnią praktyką, tak, często nieświadomie, kierując się intuicją.

Po drugie, układy złożone, zwłaszcza te oparte na głębokim uczeniu ze wzmocnieniem, są mocno wyspecjalizowane. Terapia zaś wymaga holistycznego spojrzenia na człowieka, w kontekście. Należałoby też zgromadzić bezpieczne wzorce scenariuszy postępowania, dlatego że konsekwencje błędów popełnianych przez maszynę mają duży ciężar gatunkowy w obszarze tak delikatnym jak psychika.

Mogę sobie wyobrazić, że w niedalekiej przyszłości uda się praktykom SI skonstruować system osiągający zadowalający poziom w zadaniu „słuchanie ze zrozumieniem”, szczególnie, jeśli kryterium oceny tego zrozumienia będzie subiektywne wrażenie rozmówcy, na podstawie takich wskaźników jak adekwatna parafraza czy nieartykułowane, lecz na miejscu „yhm”.

Kluczem w psychoterapii jest jednak interwencja. To ona robi różnicę, między wspierającą nas rozmową z przyjacielem i wizytą u profesjonalisty. A właśnie w obszarze modulowanego na podstawie napływających, nowych informacji adekwatnego działania, a nie tylko przetwarzania tych informacji praktycy SI mają sporo do zrobienia.

Niemniej, być może już w niedalekiej przyszłości można się spodziewać asystentów well-being, czyli układów złożonych wspomaganych sztuczną inteligencją dbających o nasze dobre samopoczucie. Oczywiście trzeba będzie włożyć sporo wysiłku, by taki asystent nauczył się rozpoznawać i rozumieć potrzeby potencjalnego klienta. Potrzeby te jak wiadomo mają charakter indywidualny, ale istnieją też bardzo uniwersalne pragnienia. Przykładem tego, jak katastrofalne skutki może mieć zaniedbanie podstawowej potrzeby wyłączności w bliskiej relacji na etapie projektowania interakcji człowiek-maszyna jest film „Her” Spike’a Jonesa, który polecam. Spersonalizowani asystenci well-being to wciąż kwestia przyszłości. Zdalne interwencje psychologiczne oparte na predefiniowanych scenariuszach to już jednak fakty – to projekty badawcze i komercyjne w fazie realizacji.

Można podejrzewać, że w niedalekiej przyszłości pojawią się asystentci well-being. Tutaj trzeba włożyć duży wysiłek, aby asystent nauczył się rozpoznawać i rozumieć indywidualne potrzeby potencjalnego klienta, które jak wiadomo są mocno rozbudowane.

Diagnoza postawiona przez maszynę będzie bardziej precyzyjna niż postawiona przez człowieka?

Maszyny są lepsze od ludzi pod względem wydajności. Załóżmy, że diagnosta jest w stanie przeanalizować pół tysiąca zapisów sesji terapeutycznych, maszyna natomiast – 10 milionów. Zakładając, że system złożony będzie w stanie efektywnie uczyć się symptomów i generalizować tę wiedzę, większe możliwości w zakresie przetwarzania materiału poglądowego mogą prowadzić do wydajniejszej diagnozy, ale tylko w wąskiej specjalizacji. Sztuczna inteligencja wykonuje sprecyzowane zadania na podstawie dostarczonych jej danych, nie uwzględni więc informacji, które poza ten zbiór wykraczają, o ile nie nauczy się generalizować wiedzy. Oczywiście może ona wykrywać anomalie. Dostarczamy maszynie jak największą liczbę próbek i wydajemy polecenie, by znajdowała nietypowe zachowania.

Przekładając to na praktykę: można tak zdefiniować cel uczenia, by maszyna rejestrowała symptomy zapowiadające depresję, na przykład obniżenie nastroju, a to pozwoli odpowiednio wcześnie wdrożyć profilaktykę.

Pytanie, czy pacjenci będą chcieli korzystać z asystentów well-being. Często w mediach pada podszyte strachem pytanie: „Czy sztuczna inteligencja wygra z człowiekiem”? To może rodzić dystans wobec technologii.

To standardowe pytanie wynikające często z niezwerbalizowanych lęków społecznych wobec sztucznej inteligencji. Jesteśmy karmieni hollywoodzkimi, emocjonalnymi obrazami, w których maszyny przejmują kontrolę nad ludźmi. Warto skupić się jednak na faktach. Wynika z nich, że obecnie celem rozwoju sztucznej inteligencji jest poprawa jakości życia człowieka. Im bardziej samodzielny jest układ złożony, tym lepiej, przy założeniu, że realizuje cele zdefiniowane przez konstruktora.

Bardziej przyziemny argument przeciw irracjonalnemu strachowi przed SI: pieniądze na rozwój sztucznej inteligencji pochodzą w znacznej części od biznesu. Nikt nie zapłaci za pracę nad SI, jeśli cel nie będzie konkretny i społecznie użyteczny, a trzeba pamiętać, że inwestycje w nowe technologie to niemałe pieniądze.

Jesteśmy karmieni hollywoodzkimi, emocjonalnymi obrazami, w których maszyny przejmują kontrolę nad ludźmi. Warto skupić się jednak na faktach. Wynika z nich, że obecnie celem rozwoju sztucznej inteligencji jest poprawa jakości życia człowieka. 

Robotyzacja sprawi, że ludzie stracą pracę – to też jeden z powszechnych lęków.

Niekoniecznie. Rozwój sztucznej inteligencji będzie wymagał coraz więcej specjalistów: trenerów sztucznej inteligencji, konsultantów SI, specjalistów ds. machine learning. Można spodziewać się raczej zmiany struktury pracy i zdjęcia z człowieka ciężaru rutynowych czynności niż przejęcia nad nim kontroli.

Ekspert

258 marcin jaworski

dr Marcin Jaworski – psycholog. Od kilkunastu lat związany z branżą IT. Business Development Manager w Linux Polska, gdzie promuje rozwój rozwiązań z obszaru Data Science opartych na sztucznej inteligencji. Wcześniej Senior Solutions Architect specjalizujący się w wykrywaniu nadużyć w sektorze bankowym metodami bazującymi na uczeniu maszynowym. Uczestniczył w projektach wspierających automatyzację procesów analitycznych opartych na sztucznej inteligencji w największych agencjach rządowych: m.in. kontrola dopłat unijnych, analiza fraudu oraz w firmach z sektora prywatnego, np. skonteneryzowanie narzędzi Data Science. Popularyzator rozwiązań opartych na otwartym kodzie źródłowym, prelegent na konferencjach branżowych (Open Source Day). Współautor specjalności Psychologia sztucznej inteligencji na kierunku Psychologia i informatyka na Uniwersytecie SWPS.

Artykuły

Zobacz także

Group 426 Group 430 strefa zarzadznia logo 05 logo white kopia logo white kopia