Je li umjetna inteligencija egzistencijalna prijetnja čovječanstvu?

61

Svakodnevno se susrećemo s umjetnom inteligencijom (AI). AI opisuje računalne sustave koji su sposobni izvoditi zadatke koji obično zahtijevaju ljudsku inteligenciju. Kada nešto pretražujete na internetu, AI odlučuje o najboljim rezultatima koje vidite. Sve preporuke koje dobijete od svojih omiljenih web lokacija za kupnju ili streaming također će se temeljiti na algoritmu AI. Ovi algoritmi koriste povijest vašeg preglednika kako bi pronašli stvari koje bi vas mogle zanimati.

Budući da ciljane preporuke nisu osobito uzbudljive, znanstvena fantastika radije prikazuje AI kao superinteligentne robote koji svrgavaju čovječanstvo. Neki ljudi vjeruju da bi ovaj scenarij jednog dana mogao postati stvarnost. Značajne brojke, uključujući pokojnog Stephena Hawkinga, izrazile su strah od toga kako bi budući AI mogao ugroziti čovječanstvo.

Da bismo se pozabavili ovom zabrinutošću, 11 stručnjaka upitano je: “Je li AI egzistencijalna prijetnja čovječanstvu?” Postojao je konsenzus od 82 posto stručnjaka da to nije egzistencijalna prijetnja.

Koliko smo blizu stvaranju inteligencije inteligentnije od nas?
AI koji trenutno postoji naziva se “uski” ili “slabi” AI. Široko se koristi za mnoge aplikacije poput prepoznavanja lica, automobila koji se samostalno voze i internetskih preporuka. Definiran je kao ‘uski’ jer ti sustavi mogu samo učiti i izvoditi vrlo specifične zadatke.

Te zadatke često zapravo obavljaju bolje od ljudi. Deep Blue prvi je AI koji je pobijedio svjetskog prvaka u šahu 1997. godine – međutim svoje učenje ne može primijeniti ni na što drugo osim na vrlo specifičan zadatak (Deep Blue može igrati samo šah). Druga vrsta AI naziva se umjetna opća inteligencija (AGI). Ovo se definira kao AI koji oponaša ljudsku inteligenciju, uključujući sposobnost razmišljanja i primjene inteligencije na više različitih problema. Neki ljudi vjeruju da je AGI neizbježan i da će se dogoditi u narednih nekoliko godina.

Matthew O’Brien, inženjer robotike s Tehnološkog instituta Georgia, ne slaže se s tim da “dugo traženi cilj ‘opće umjetne inteligencije’ nije na pomolu. Jednostavno ne znamo kako napraviti opću prilagodljivu inteligenciju i nejasno je kako potreban je mnogo veći napredak da bi se došlo do te točke “.

Kako bi budući AGI mogao ugroziti čovječanstvo?
Iako nije jasno kada će i hoće li se AGI dogoditi, možemo li predvidjeti kakvu bi prijetnju mogli predstavljati za nas ljude? AGI uči iz iskustva i podataka, umjesto da im se izričito kaže što treba raditi. To znači da, suočeni s novom situacijom koju još nije vidio, možda nećemo moći u potpunosti predvidjeti kako ona reagira.

Dr. Roman Yampolskiy, informatičar sa Sveučilišta Louisville, također vjeruje da “nijedna verzija ljudske kontrole nad umjetnom inteligencijom nije dostižna”, jer nije moguće da umjetna inteligencija bude autonomna i kontrolirana od strane ljudi. Nemogućnost upravljanja superinteligentnim sustavima mogla bi biti katastrofalna.

Yingxu Wang, profesor softvera i znanosti o mozgu sa Sveučilišta Calgary ne slaže se, rekavši da su “profesionalno dizajnirani AI sustavi i proizvodi dobro ograničeni temeljnim slojem operativnih sustava koji štite interes i dobrobit korisnika, a kojima možda neće moći pristupiti niti ih izmijeniti sami inteligentni strojevi “.

Doktor O’Brien dodaje “baš kao i kod ostalih projektiranih sustava, sve s potencijalno opasnim posljedicama trebalo bi biti temeljito testirano i imati višestruke suvišne sigurnosne provjere.”

Može li AI koji danas koristimo postati prijetnja?
Mnogi su se stručnjaci složili da bi AI mogao biti prijetnja u pogrešnim rukama. Dr George Montanez, stručnjak za umjetnu inteligenciju s koledža Harvey Mudd naglašava da “roboti i sustavi umjetne inteligencije ne trebaju biti osjetljivi da bi bili opasni; oni jednostavno moraju biti učinkoviti alati u rukama ljudi koji žele nauditi drugima. To je prijetnja koja postoji danas “.

Čak i bez zlonamjerne namjere, današnji AI može biti prijeteći. Na primjer, rasne pristranosti otkrivene su u algoritmima koji dodjeljuju zdravstvenu zaštitu pacijentima u SAD-u. Slične pristranosti pronađene su u softveru za prepoznavanje lica koji se koristi za provođenje zakona. Te pristranosti imaju široko rasprostranjene negativne učinke unatoč ‘uskoj’ sposobnosti AI.

AI pristranost dolazi iz podataka na kojima se uvježbava. U slučajevima rasne pristranosti, podaci o obuci nisu bili reprezentativni za opću populaciju. Još jedan primjer dogodio se 2016. godine, kada je pronađeno da chatbox temeljen na AI šalje vrlo uvredljiv i rasistički sadržaj. Otkriveno je da je to zbog toga što su ljudi s bota slali uvredljive poruke, od kojih je i naučio.

Izvor: Science Alert

 

Komentari