Nie od dziś wiadomo, że najciekawiej jest na styku różnych dziedzin nauki. To tu powstają śmiałe idee i innowacyjne badania. Co zatem wynika ze spotkania neuronauki i badań nad sztuczną inteligencją? W jaki sposób wiedza o mózgu udoskonala działanie sztucznej inteligencji? Czy jest możliwe stworzenie sztucznej inteligencji perfekcyjnie odtwarzającej pracę ludzkiego mózgu? Skąd popularność wizji, w której humanoidalne roboty przejmują kontrolę nad człowiekiem? O związkach sztucznej inteligencji i neuronauki opowiada Mikołaj Magnuski, neurokognitywista z naszego Uniwersytetu.

Ewa Pluta: W jaki sposób neuronauka wpływa na rozwój sztucznej inteligencji?

Mikołaj Magnuski: Mówiąc o sztucznej inteligencji, często mamy na myśli tę jej dziedzinę, która obecnie rozwija się najprężniej – sztuczne sieci neuronowe. W tej rozmowie będę się przede wszystkim do nich odnosił. Istnieje kilka koncepcji zaczerpniętych z neuronauki i z sukcesem zastosowanych w sztucznych sieciach neuronowych. Głównie dotyczy to sieci rozwijanych w ramach uczenia ze wzmocnieniem. System inteligentny uczy się działać i podejmować decyzje na podstawie informacji o nagrodach i karach, co jest inspirowane badaniami behawioralnymi.

Proces uczenia się jest bardzo złożony.

Dodatkowo uczestniczy w nim wiele struktur mózgowych. Jedną z nich jest hipokamp, znajdujący się w części płata skroniowego mózgu. Jest on odpowiedzialny nie tylko za procesy pamięci, ale też orientację przestrzenną. Przykład? Weźmy szczura, który przemierza labirynt. Pokonuje kolejne korytarze, ucząc się przy tym struktury budowli. W hipokampie szczura powstaje wzorzec aktywności neuronalnej. To swoista mapa mentalna miejsca, która posłuży szczurowi, gdy po raz kolejny będzie pokonywał labirynt. Co ciekawe, w doświadczeniu zaobserwowano, że szczury odtwarzają takie wzorce aktywności neuronalnej także w czasie snu. Z innych badań wiemy, jak ważne jest to w kontekście uczenia się.

To znane z neuronauki zjawisko zastosowano w latach 2015–2017 w obrębie sztucznych sieci neuronowych. Uczono je grać w gry logiczno-zręcznościowe znane z platformy Atari. W ramach systemu kar i nagród na bazie wcześniejszych doświadczeń sieć zorientowała się, jakie działania zbliżają ją do celu, a jakie utrudniają jego osiągnięcie. Dodatkowo zaprogramowano w działaniu sieci odtwarzanie gry w trybie offline. To przyniosło bardzo dobre rezultaty, między innymi w postaci bardziej efektywnego uczenia się. W tym przypadku widać wyraźnie, że wiedza o funkcjonowaniu mózgu była bezpośrednią inspiracją do ulepszenia pracy sztucznej sieci neuronowej.

Jakie są najistotniejsze różnice w działaniu mózgu i sztucznych sieci neuronowych?

Obecnie stosowane w praktyce sztuczne sieci neuronowe są proste w porównaniu ze złożonym i wielosystemowym mózgiem. Mózg składa się dziesiątek systemów, z których każdy można w uproszczeniu porównać do pojedynczej sztucznej sieci neuronowej. Jednak w przypadku mózgu kluczowe jest dynamiczne współdziałanie tych systemów; w zależności od kontekstu powstają tymczasowe koalicje wielu podsystemów skoncentrowane na rozwiązaniu danego zadania. To pozwala nie tylko na dużą plastyczność zachowania, lecz także na zachowanie ekonomii korzystania z dostępnych zasobów neuronalnych. Sztuczne sieci neuronowe na razie mają problem z tak dynamicznym przekierowywaniem informacji.

Człowiek dużo lepiej radzi sobie również z niepewnością – w sytuacji gdy bodziec nie może być skutecznie rozpoznany, możemy podjąć decyzję o zmianie perspektywy, zbliżeniu się do danego obiektu albo dokładniejszej analizie cech, które mogą być kluczowe w rozstrzygnięciu naszych wątpliwości. To znaczy, że jesteśmy w stanie tak ukierunkować nasze zachowanie, by tę niepewność zmniejszyć. Większość stosowanych obecnie sztucznych sieci neuronowych kończy natomiast pracę na opisaniu pewności, z jaką klasyfikuje obraz, ale nie są w stanie podjąć żadnych dodatkowych działań, by upewnić się, że rozpoznanie jest poprawne w sytuacji, gdy na przykład bodziec jest nietypowy.

Różnice w działaniu mózgu człowieka i sztucznych sieci neuronowych wpływają zapewne na różnice w uczeniu się.

Przede wszystkim sztuczne sieci neuronowe potrzebują bardzo dużo danych i wręcz milionów ekspozycji na bodźce, żeby się czegoś dobrze nauczyć. Człowiek potrafi uczyć się znacznie sprawniej, na podstawie kilku pojedynczych ekspozycji. Sztuczne sieci neuronowe trenuje się w wąskich zakresach i do wykonywania ściśle określonych zadań, na przykład do rozpoznawania obiektów na zdjęciach. Na podstawie szeregu pikseli sieć rozpoznaje, co przedstawia zdjęcie – psa czy kota. Człowiek uczy się rozpoznawać obiekty w rzeczywistym, trójwymiarowym świecie, wie zatem, jak kot czy pies wygląda z różnych perspektyw, co z kolei często jest słabością sieci. Poza tym człowiek może uczyć się i wykonywać kilka zadań jednocześnie, dynamicznie przechodząc z jednego do drugiego. Sztuczne sieci neuronowe rzadko są trenowane pod kątem wielozadaniowości. Póki co wszechstronność nadal jest domeną człowieka.

Sztuczne sieci neuronowe reagują na bodźce według wyuczonego wcześniej wzorca. Co jeśli pojawia się dystraktor?

To jest ciekawy problem w dziedzinie sztucznej inteligencji (SI). On często demaskuje, jak bardzo różnią się sposoby przetwarzania informacji przez SI i człowieka. Załóżmy, że sztuczna sieć neuronowa ma rozpoznać, co widnieje na zdjęciu: pies czy kot. Sytuację komplikuje fakt istnienia wielu informacji powiązanych z rozpoznawanym obiektem, ale nie będących jego integralną częścią. Mam na myśli to, że na co dzień na spacer częściej wychodzimy z psem niż z kotem, więc jeżeli robimy mu zdjęcia, to z większym prawdopodobieństwem pojawią się na nich elementy charakterystyczne dla świata zewnętrznego, jak trawnik, drzewa, chodnik. Sztuczna sieć neuronowa może nauczyć się, że jeśli na zdjęciu jest trawnik, to prawdopodobnie mamy do czynienia z psem, mimo że faktycznie jest to kot. To pokazuje, jak bardzo sieć neuronowa jest czuła na treść danych treningowych. Jeśli w danych są braki/uprzedzenia, to sieć również je odziedziczy. Dlatego obecnie dużo energii poświęca się kompletowaniu dużych baz treningowych.

Inna sytuacja: na zdjęciu kota zmieniamy wartości pojedynczych pikseli. To zmiana dla ludzkiego oka niewidoczna, ale sztuczna sieć neuronowa może teraz wskazać, że zdjęcie nie przedstawia kota, lecz awokado. Na marginesie, istnieje odrębny dział badań zajmujący się atakami na sztuczne sieci neuronowe, co w wielkim skrócie polega na wytwarzaniu bodźców wprowadzających je w błąd. 

Jakie mogą być konsekwencje pomyłek w wykonaniu sztucznych sieci neuronowych?

Można wydrukować trójwymiarowy obiekt, w którym każdy człowiek rozpozna żółwia, ale na przykład ze względu na użytą teksturę sztuczna sieć neuronowa uzna, że to karabin maszynowy. To jest czysto spekulatywny przykład, ale gdyby w armii w 100 proc. polegano na systemach bezpieczeństwa opartych na SI, to mogłyby one oddać strzał w kierunku dziecka idącego z pluszowym żółwiem pod pachą, którego zaklasyfikują jako broń.

Konsekwencje pomyłek w systemach inteligentnych mogą być tragiczne, dlatego człowiek powinien nadal odgrywać kluczową rolę w ich kontroli. Tu nasuwa się przykład już nie spekulatywny, lecz wzięty z życia, konkretnie ze Stanów Zjednoczonych, gdzie całkowicie autonomiczny pojazd spowodował śmierć pieszego.

Konsekwencje pomyłek w systemach inteligentnych mogą być tragiczne, dlatego człowiek powinien nadal odgrywać kluczową rolę w ich kontroli. Tu nasuwa się przykład ze Stanów Zjednoczonych, gdzie całkowicie autonomiczny pojazd spowodował śmierć pieszego.

Na początku padło pytanie o wpływ neuronauki na rozwój sztucznej inteligencji. Odwróćmy pytanie: jak SI wpływa na rozwój neuronauki?

Przede wszystkim do analizy danych neuronaukowych coraz częściej korzysta się z uczenia maszynowego, algorytmów zaczerpniętych ze sztucznej inteligencji. Głębokie sztuczne sieci neuronowe również są czasem wykorzystywane w neuronaukowej praktyce badawczej, ale ich szersze zastosowanie ogranicza duże zapotrzebowanie na dane oraz ich stosunkowo niska transparentność: sieć może trafnie różnicować nasze dane, ale to nie prowadzi jeszcze do naukowego odkrycia. Musimy dowiedzieć się, dlaczego tak się dzieje, jakie informacje pozwalają sieci na przykład na poprawne odróżnienie mózgów osób zdrowych i chorych na depresję. Odpowiedź na te pytania wymaga często analizy wytrenowanej sieci, a więc zamiast odpowiedzi mamy kolejny problem do rozwiązania.

Poza wykorzystaniem sztucznych sieci neuronowych jako narzędzi automatyzujących pewne kroki analizy jest też kilka przykładów, w których badania neuronaukowe zostały zainspirowane rozwiązaniami stosowanymi w sztucznych sieciach. Na gruncie neuronauki od dawna prowadzone są badania nad aktywnością neuronów dopaminergicznych (wytwarzających neuroprzekaźnik dopaminę) w procesie uczenia się. Uważa się, że neurony te kodują tak zwany błąd przewidywania, czyli różnicę między oczekiwaną i faktycznie otrzymaną nagrodą.

Ostatnie badania w zakresie głębokich sztucznych sieci uczonych ze wzmocnieniem pokazują natomiast, że sieci te uczą się lepiej, gdy zastosuje się w nich mechanizm działający na podstawie całych rozkładów prawdopodobieństw nagrody i kary. Sieć uczy się nie tylko, że dane zachowanie w danej sytuacji prowadzi z pewnym prawdopodobieństwem do nagrody, ale że różne wartości nagrody bądź kary są w różnym stopniu prawdopodobne.

Te wyniki z zakresu sztucznej inteligencji zainspirowały kolejne badania neuronaukowe nad systemem dopaminergicznym, które pokazały, że stosuje on podobny mechanizm do tego używanego w sieciach neuronowych. Taki wynik jest budujący również dla badaczy sztucznej inteligencji – jeżeli w mózgu odkrywamy mechanizm, który zaczęliśmy stosować w sztucznych sieciach neuronowych, to wzmacnia to nasze przekonanie, że korzystanie z tego mechanizmu jest dobrym pomysłem. W końcu za mózgiem stoją miliony lat „prac badawczo-rozwojowych” ewolucji.

W obrazach science fiction czasem pojawiają się wizje, w których sztuczna inteligencja jest wręcz doskonałą imitacją mózgu. Czy taka wizja ma szanse kiedykolwiek stać się rzeczywistością?

Modelowanie ludzkiego mózgu to nie tylko cel badaczy zajmujących się SI, lecz przede wszystkim neurokognitywistów i neuronaukowców. Wydaje się jednak, że SI zadowoli się modelem, który będzie równie skuteczny i równie inteligentny jak ludzki mózg, ale będzie działał inaczej. Prawdopodobnie nie musimy co do joty odtwarzać pracy mózgu, żeby stworzyć sztuczną inteligencję podobną do ludzkiej.

Niektóre koncepty z zakresu neuronauki są z powodzeniem wykorzystywane w SI. Niektóre rozwiązania wdrażane w ramach SI okazują się skuteczne, ponieważ ich pierwowzorem są mechanizmy znane z ludzkiego mózgu.

Trudno jednak powiedzieć, kiedy powstanie sztuczny system równie inteligentny jak człowiek. Póki co to odległa perspektywa. Na razie systemy oparte na SI popełniają sporo błędów, które demaskują, że są sztucznie inteligentne.

Trudno jednak powiedzieć, kiedy powstanie sztuczny system równie inteligentny jak człowiek. Póki co to odległa perspektywa. Na razie systemy oparte na SI popełniają sporo błędów, które demaskują, że są sztucznie inteligentne.

W popkulturze, na przykład w filmie „Ex Machina” Alexa Garlanda, humanoidalny robot wymyka się spod kontroli swoich twórców i zaczyna żyć na własnych warunkach, stwarzając przy tym śmiertelne zagrożenie dla otoczenia. Skąd popularność takich wizji?

Konflikt, intryga, zagrożenie to idealna pożywka dla hollywoodzkich produkcji. Na razie fantastyczne wizje mówiące o tym, że człowiek stworzy sztuczną inteligencję, a ona wymknie mu się spod kontroli, są odległe. Żeby taka perspektywa w ogóle była prawdopodobna, potrzeba jeszcze dużo czasu i badań. Tymczasem na horyzoncie mamy sporo innych kryzysów do przezwyciężenia, jak na przykład kryzys klimatyczny.

Możemy jednak założyć scenariusz, w którym rozwój sztucznej inteligencji jest na tyle powolny, że jesteśmy w stanie zbudować odpowiednie prawo i mechanizmy bezpieczeństwa, by nie wymknęła się spod kontroli.

Procedury bezpieczeństwa można zresztą spróbować wbudować w taki system. Mam na myśli mechanizm podobny do motywacji: możemy tak ją zaprojektować, żeby maszyna nie chciała skrzywdzić czy nawet obrazić człowieka. Istnieje wiele scenariuszy i od nas zależy, który będzie bardziej prawdopodobny. Jeśli będziemy postępować rozsądnie, to stworzymy pomocne narzędzia, a nie autonomiczne, wrogie człowiekowi systemy. Inną kwestią jest, w jaki sposób ludzie będą z takich narzędzi korzystać.

Póki co nie ma ryzyka, że sztuczna inteligencja zrobi nam krzywdę. Raczej obawiam się scenariusza, w którym człowiek wykorzysta sztuczną inteligencję, by zaszkodzić innym.

Ekspert

manguski

Mikołaj Magnuski – psycholog, neurokognitywista. Zajmuje się zaawansowanymi metodami analizy sygnału EEG oraz znaczeniem oscylacji neuronalnych (fal mózgowych) w procesach percepcyjnych i poznawczych. Na kierunku Neurokognitywistyka na Uniwersytecie SWPS prowadzi zajęcia z zakresu analizy sygnału EEG, statystyki oraz sieci neuronowych.

Artykuły

Zobacz także

Group 426 Group 430 strefa zarzadznia logo 05 logo white kopia logo white kopia