Eliezer Yudkowsky, američki istraživač umjetne inteligencije i autor, specijaliziran je za teoriju odlučivanja i etiku. Najpoznatiji je po promicanju ideja vezanih uz koncept prijateljske umjetne inteligencije (UI), uključujući tezu da možda nećemo imati jasno upozorenje kada UI prestane biti saveznik.
Njegova istraživanja o mogućnosti nekontroliranog širenja UI utjecala su na djelo "Superinteligencija: Staze, opasnosti, strategije" filozofa Nicka Bostroma, objavljeno 2014. U nedavnom intervjuu za britanski The Guardian, Yudkowsky je izjavio da bi spomenuta nekontrolirana ekspanzija UI mogla nastupiti ranije nego što mnogi predviđaju.
"Teškoća leži u tome što ljudi ne shvaćaju da imamo samo skromnu šansu za opstanak čovječanstva," izjavio je Yudkowsky.
"Ako me stisnete i zatražite da dodijelim vjerojatnosti, sklon sam vjerovati da naš preostali vremenski okvir više nalikuje na pet godina nego pedeset. Možda je riječ o dvije godine, a možda i o deset."Pod "preostalim vremenskim okvirom", Yudkowsky podrazumijeva vrijeme koje nam je ostalo do trenutka kada bismo mogli doživjeti kraj svega, uzrokovan strojevima, u scenariju koji bi mogao varirati od ratovanja u stilu Terminatora (izazvanog ili vođenog umjetnom inteligencijom) do situacije poput one u Matrix-u (civilizacija ovisna o UI koja se ponaša poput Boga).
"Ne zamislite mozak stvoren od strane čovjeka u kutiji," dodao je stručnjak. "Da biste shvatili kamo stvari idu, zamislite vanzemaljsku civilizaciju koja razmišlja tisuću puta brže od nas, smještenu u brojnim kutijama, gotovo previše za razmontirati, čak i ako se odlučimo na taj korak."U nastojanju da potakne čovječanstvo na razmišljanje o ovoj temi, Yudkowsky je prošlog proljeća u časopisu Time objavio uvodnik u kojem je, kao krajnju mjeru za osiguranje opstanka čovječanstva, predložio bombardiranje računalnih centara u kojima se razvijaju i treniraju sustavi umjetne inteligencije. Cijeli interview možete pročitati ovdje na Engleskom jeziku.
Komentar: Znanstvenik nije usamljen u svom upozorenju: