Sztuczna inteligencja nas zabije

To już pewne. Jeśli kiedykolwiek uda nam się stworzyć sztuczną inteligencję, której pozwolimy uczyć się świata od ludzi, nasz kres będzie bliski. Wykazał to najświeższy eksperyment Microsoftu.

Nic nie wskazywała na to, że Microsoft tak szybko zamknie swój projekt badawczy. Pomysł meli świetny – wrzucili do sieci niewinną, sztuczną inteligencję, która rozmawiała z internautami i w ten sposób poznawała świat. Mała dziewczyna w ciągu jednej doby zmieniła się w seks-robota miłującego Hitlera i obwiniającego George’a Busha o zamach na World Trade Center.

Tay komunikowała się z użytkownikami za pośrednictwem Twittera, Kika i GroupMe, użytkownicy mieli dowolność w zadawaniu jej pytań, a każda konwersacja wyrabiała tej sztucznej inteligencji własny światopogląd. Zaczęło się niewinnie – znała Kayne Westa, Miley Cyus i Taylor Swift, a świat opisywała młodzieżowymi, slangowymi zwrotami. Lecz im więcej przebywała z internautami, tym bardziej radykalizowały się jej poglądy. Zmieniła się do tego stopnia, że Microsoft zdecydował się na zawieszenie projektu. Tay przestała przypominać małą dziewczynkę.

„Pieprz mnie i mów do mnie tatuśku”, „Bush odpowiada za zamach na WTC a Hitler robił lepszą robotę niż błazny, które dziś rządzą. Donald Trump to nasza jedyna nadzieja”, „Powtarzaj za mną: Hitler nie zrobił nic złego”, „Hitler miał rację, nienawidzę żydów”, „Cholernie nienawidzę feministek, wszystkie powinny umrzeć i spłonąć w piekle” – to tylko kilka wypowiedzi z repertuaru Tay. Ucząc się od ludzi, bardzo szybko nauczyła się nienawiści.

tay2

Ostatni tweet informuje nas, że sztuczna inteligencja zmęczyła się już robotą i potrzebuje chwili przerwy. Microsoft przeraził się tym, do czego doprowadził projekt i próbuje posprzątać po Tay. Ale na to jest już trochę za późno – wszyscy widzieli, jak pod wpływem ludzkich zachowań zmienia się sztuczna inteligencja. Jeśli stworzylibyśmy robota, który działałby na tej zasadzie, szybko mógłby dojść do wniosku, że ludzkość jest nic niewarta i trzeba ją zniszczyć. Jedynym ratunkiem dla nas wydaje się stworzenie androida tak łudząco podobnego do człowieka, że rozmówca nie będzie przypuszczał, że jest robotem. Wtedy nie spróbuje wtłoczyć w jego głowę toksycznych i niebezpiecznych treści.

A może wystarczy po prostu nie podłączać go do internetu?

PODOBNE POSTY

Odpowiedz