Razvoj ove nove tehnologije odvija se takvom brzinom da je počeo buditi zabrinutost među stručnjacima, s obzirom na to da se sumorne i distopijske prognoze za budućnost čovječanstva počinju ostvarivati ranije nego što je bilo predviđeno.
umjetna inteligencija
© Yuichiro Chino/Getty Images
Eliezer Yudkowsky, američki istraživač umjetne inteligencije i autor, specijaliziran je za teoriju odlučivanja i etiku. Najpoznatiji je po promicanju ideja vezanih uz koncept prijateljske umjetne inteligencije (UI), uključujući tezu da možda nećemo imati jasno upozorenje kada UI prestane biti saveznik.

Njegova istraživanja o mogućnosti nekontroliranog širenja UI utjecala su na djelo "Superinteligencija: Staze, opasnosti, strategije" filozofa Nicka Bostroma, objavljeno 2014. U nedavnom intervjuu za britanski The Guardian, Yudkowsky je izjavio da bi spomenuta nekontrolirana ekspanzija UI mogla nastupiti ranije nego što mnogi predviđaju.

"Teškoća leži u tome što ljudi ne shvaćaju da imamo samo skromnu šansu za opstanak čovječanstva," izjavio je Yudkowsky.
"Ako me stisnete i zatražite da dodijelim vjerojatnosti, sklon sam vjerovati da naš preostali vremenski okvir više nalikuje na pet godina nego pedeset. Možda je riječ o dvije godine, a možda i o deset."
Pod "preostalim vremenskim okvirom", Yudkowsky podrazumijeva vrijeme koje nam je ostalo do trenutka kada bismo mogli doživjeti kraj svega, uzrokovan strojevima, u scenariju koji bi mogao varirati od ratovanja u stilu Terminatora (izazvanog ili vođenog umjetnom inteligencijom) do situacije poput one u Matrix-u (civilizacija ovisna o UI koja se ponaša poput Boga).
"Ne zamislite mozak stvoren od strane čovjeka u kutiji," dodao je stručnjak. "Da biste shvatili kamo stvari idu, zamislite vanzemaljsku civilizaciju koja razmišlja tisuću puta brže od nas, smještenu u brojnim kutijama, gotovo previše za razmontirati, čak i ako se odlučimo na taj korak."
U nastojanju da potakne čovječanstvo na razmišljanje o ovoj temi, Yudkowsky je prošlog proljeća u časopisu Time objavio uvodnik u kojem je, kao krajnju mjeru za osiguranje opstanka čovječanstva, predložio bombardiranje računalnih centara u kojima se razvijaju i treniraju sustavi umjetne inteligencije. Cijeli interview možete pročitati ovdje na Engleskom jeziku.