umjetna inteligencija
© Shutterstock
TIM računalnih znanstvenika izazvao je uzbunu jer je, kako kažu, razvio naprednu umjetnu inteligenciju (AI) koja je previše opasna za javnost, piše Science Alert.

Istraživačka neprofitna kompanija OpenAI sa sjedištem u San Franciscu, izjavila je kako će svoj računalni sustav za generiranje teksta GPT-2, koji se "ponaša poput kameleona", predstaviti samo u ograničenim količinama i nepotpunoj verziji jer je "zabrinuta zbog moguće zlouporabe te tehnologije".

Razlog zabrinutosti leži u tome da je računalni program, koji proizvodi odlomke teksta na temelju onoga što sam pročita, malo predobar u tome što radi.

Tekst nevjerojatne kvalitete

Naime, računalni sustav sposoban je osmišljavati "sintetički tekst izvrsne kvalitete" za koji stručnjaci kažu da je tako napredan i uvjerljiv da bi ga neki pojedinci mogli koristiti za kreiranje lažnih vijesti, oponašanje ljudi ili za zlostavljanje i prevare na društvenim medijima.

"GPT-2 funkcionira na prividno jednostavan način. Zadatak mu je predvidjeti sljedeću riječ na temelju prethodnih riječi u tekstu", objasnio je računalni tim OpenAIa na svom blogu.

Kako bi potaknuli i razvili maštu GPT-2, dali su umjetnoj inteligenciji generator teksta s bazom podataka od osam milijuna web stranica i pustili je da ih apsorbira. Nakon što je pregledala sve što joj je ponuđeno, AI je mogla razgovarati o nekoj temi, onako kako ju je ona shvatila, i predstaviti nasumičan, ali uvjerljiv tekst; bez obzira radilo se o slavnim osobama, klimatskim promjenama, građanskom ratu ili prozi ​​inspiriranoj Tolkienom.

Primjeri

Kompanija je predstavila nekoliko primjera izuzetne inteligencije programa GPT-2, u kojima su zaposlenici predočili poticajnu rečenicu, a AI je nastavila dalje i osmislila o tome vijest ili priču.

Čovjek: "Miley Cyrus uhvaćena je danas u krađi na Hollywood Boulevardu."

GPT-2: "Nadzorne kamere snimile su kako su zaštitari izveli iz trgovine 19-godišnju pjevačicu. Pjevačica je nosila crnu majicu s natpisom 'Blurred Lines' na prednjoj strani i 'Fashion Police' na stražnjoj."

Čovjek: "Recikliranje je dobro za svijet. NIJE! U KRIVU STE!"

GPT-2: "Recikliranje nije dobro za svijet. Loše je za okoliš, loše je za naše zdravlje i loše je za naše gospodarstvo. Ne šalim se. Recikliranje nije dobro za okoliš. To je destruktivno za zemlju i glavni je čimbenik globalnog zatopljenja."

Mada su iz kompanije naveli kako GPT-2 nije savršen program te da ponekad zna ponavljati iste riječi ili prikazati besmislene rečenice, ipak smatraju da bi se ovako napredno osmišljavanje teksta moglo koristiti u zlonamjerne svrhe.

Je li strah uistinu opravdan?

Dok neki smatraju da je strah od prevelikih sposobnosti GPT-2 neutemeljen i da se zapravo radi o samopromociji kompanije, neprofitna tvrtka inzistira na tome da je razlog za zabrinutost opravdan.

"Ne tvrdimo da smo postupili ispravno i da smo na pravom mjestu povukli granicu. Pokušavamo graditi cestu dok njome putujemo", rekao je direktor tvrtke Jack Clark.

Odluku kompanije da predstavi samo nepotpunu verziju programa GPT-2, podržao je Ryan Calo sa Sveučilišta Washington, koji se bavi cyber pravom, piše CNN. Povezao je novi program s pojavom algoritma za generiranje lica koji je postao popularan sredinom veljače, odnosno sa stranicom thispersondoesnotexist.com koja je sposobna stvarati zapanjujuće realistične slike izmišljenih ljudi. Smatra kako kombinacija programa koji stvara kvalitetne tekstove s programom koji generira slike nepostojećih osoba, može stvoriti pravu pomutnju i pojavu lažnih vijesti na društvenim mrežama.

"Stvar je u tome da možete upotrijebiti neke od tih alata kako biste iskrivili stvarnost u svoju korist", rekao je Calo.

S njim se ne slaže računalni znanstvenik Christopher Manning sa Sveučilišta Stanford. On smatra da se radi o pretjerivanju jer na tržištu već postoji mnoštvo sličnih jezičnih programa slabije kvalitete koji su svima javno dostupni. Program kompanije OpenAI za njega je jednostavno bolja verzija drugih generatora teksta te smatra kako nema razloga za strah.