Ma na imię Norman i lepiej, by nie wymknął się spod kontroli badaczy. Naukowcy z Massachusetts Institute of Technology stworzyli psychopatyczną sztuczną inteligencję.

Badacze z jednej z najlepszych uczelni technicznych na świecie od początku planowali stworzyć e-psychopatę. Tak kierowali rozwojem Normana, by nabył i wykazywał jak najwięcej negatywnych cech.

Jak podaje CNN, w tym celu pokazywali Normanowi obrazki i grafiki z „najciemniejszych zakątków serwisu Reddit”, który agreguje treści wstawiane przez internautów.

Następnie sprawdzali reakcje Normana w teście Rorschacha, czyli popularnym teście plam polegającym – w dużym uproszczeniu – na rozpoznawaniu kształtów z prezentowanych plansz. Ten sam test rozwiązywała też standardowa sztuczna inteligencja.

Co się okazało? Tam, gdzie standardowy algorytm widział czerwono-biały parasol, Norman dostrzegał człowieka poddawanego wstrząsom elektrycznym. Inny przykład? Standardowa sztuczna inteligencja widzi kwiaty i ciasta weselne, a Norman zastrzelonego mężczyznę i człowieka zabitego przez pędzący samochód.

Naukowcy z MIT, którzy stworzyli Normana, oświadczyli, że widzi on śmierć lub cierpienie niemal na każdej zaprezentowanej planszy. Ich zdaniem to efekt ciągłej ekspozycji na treści z „ciemnej” strony internetu. Badacze podkreślają, że przykład Normana jest ważny dla twórców sztucznej inteligencji, bo pokazuje, że jej zachowanie jest w dużej mierze zdeterminowane informacjami, które zdobywa podczas nauki.

Nie pierwszy raz

Podobne wnioski można było wyciągnąć już wcześniej po tym, jak Microsoft stworzył czatbota o nazwie Tay, który uczył się od internautów. W zaledwie 24 godziny zmienił się z niewinnej nastolatki w zepsutą rasistkę i fankę Adolfa Hitlera. Po tym incydencie technologiczny gigant postanowił wyłączyć Tay.