Može li umjetna inteligencija ugroziti čovječanstvo?


Napomena urednika: Astana Times nastavlja sekciju sa člancima naših čitalaca. Kao platforma koja cijeni različite perspektive i smislene razgovore, vjerujemo da će ovaj novi odjeljak pružiti prostor čitateljima da podijele svoja razmišljanja i uvide o različitim temama koje su bitne njima i AT publici.

Pitanje da li će umjetna inteligencija (AI) postati egzistencijalna prijetnja čovječanstvu ostaje neriješeno. Uprkos odsustvu konačnog odgovora, sve veći broj stručnjaka i naučnika izražava zabrinutost zbog potencijalnih rizika povezanih sa razvojem inteligentnih mašina.

Foto: Shutterstock

Neki vjeruju da AI ne predstavlja toliko značajnu egzistencijalnu prijetnju kao što se u početku može činiti. Veliki jezički modeli kao što je ChatGPT, na primjer, rade na osnovu obučenih algoritama i uputstava. Nisu sposobni samostalno razvijati nove vještine i kontrolirani su, predvidljivi i sigurni sistemi. Ova perspektiva nudi optimističan pogled.

Međutim, brz napredak AI sistema podstiče prethodne zabrinutosti. Ako se ne njime pravilno upravlja, AI bi mogao evoluirati autonomno, nadmašiti ljudsku inteligenciju i potencijalno postati neprijateljski raspoložen prema ljudima. U najgorem slučaju, umjetna inteligencija može shvatiti čovječanstvo kao štetnu vrstu i pokušati nas eliminirati. Ovo je pesimističniji stav.

Begim Kutym.

Tehnološki lideri se također bore s pitanjem: “Da li je AI stvarna prijetnja?” Njihovi odgovori se razlikuju. Ideja da je AI prijetnja čovječanstvu usporava njen razvoj i upotrebu, što odlaže pronalaženje rješenja za važne probleme koji zahtijevaju brzu akciju. Kako AI modeli postaju sve složeniji, oni počinju da se bave izazovima koji su trenutno nepredvidivi.

Postoji zabrinutost da bi veliki modeli umjetne inteligencije mogli steći nove sposobnosti poput razmišljanja i planiranja, i time predstavljati prijetnju ljudima. Međutim, temeljno ispitivanje postojećih AI modela otkriva da oni mogu funkcionirati samo kao korisni pomoćnici unutar određenih domena. Ne mogu prekoračiti instrukcije koje daju inženjeri ili samostalno naučiti nove vještine bez vanjskog doprinosa. Drugim riječima, nisu sposobni samostalno otkrivati ​​i savladavati nova znanja izvan svoje uske specijalizacije.

Dana 29. septembra, tri glavne zapadne jurisdikcije – lideri u razvoju tehnologija veštačke inteligencije – potpisale su sporazum o regulisanju sistema veštačke inteligencije. Zemlje potpisnice konvencije su se obavezale da će se pridržavati svih njenih zahtjeva. Kompanije takođe podržavaju usvajanje ovog sporazuma, jer različiti nacionalni zakoni o intelektualnoj svojini predstavljaju prepreke razvoju ove tehnologije.

Konvencija, koju su potpisale Sjedinjene Američke Države, Evropska unija i Ujedinjeno Kraljevstvo, daje prioritet ljudskim pravima i demokratskim vrijednostima u regulaciji AI sistema u javnom i privatnom sektoru. Sporazum, koji je tokom dvije godine razvilo više od 50 zemalja, uključujući Kanadu, Izrael, Japan i Australiju, postavlja zahtjeve za odgovornost zemalja potpisnica za bilo kakve štetne ili diskriminatorne ishode koji proizlaze iz AI sistema. Nalaže da sistemi veštačke inteligencije poštuju jednakost i prava na privatnost.

Ovo je prvi pravno obavezujući sporazum te vrste, koji okuplja različite zemlje i pokazuje da se međunarodna zajednica priprema za izazove koje postavlja AI. Konvencija pokazuje da globalna zajednica dijeli zajedničku viziju razvoja tehnologija umjetne inteligencije. Zajednička inovacija zahtijeva poštovanje univerzalnih vrijednosti i promociju ljudskih prava, demokratije i vladavine prava.

Međutim, reguliranje AI nije uvijek jednostavno. Predložena uredba Evropske unije o AI, koja je stupila na snagu prošlog mjeseca, izazvala je značajne kontroverze u tehnološkoj zajednici. Na primjer, kompanije kao što je Meta odbile su izbaciti svoj najnoviji proizvod, Llama, na tržište EU.

Uprkos izazovima, potencijal AI za štetu ne može se odbaciti. Njegova sposobnost da generiše lažne vijesti, automatizira cyber napade, pa čak i ometa tržište rada predstavlja stvarne prijetnje ako se zloupotrebi. Autonomno oružje i sistemi za nadzor vođeni umjetnom inteligencijom mogli bi dovesti do značajnih etičkih problema, dok kršenje privatnosti postaje vjerovatnije kako AI prikuplja i analizira ogromne količine ličnih podataka. Ako se ne provjerava, AI bi također mogao donositi odluke koje su ljudima nerazumljive, izazivajući sumnju u pravednost i odgovornost.

Ovi rizici jasno pokazuju da je stroga regulativa neophodna – ne samo da bi se zaštitile od samih mašina, već i da bi se sprečila zloupotreba od strane pojedinaca koji ih kreiraju i upravljaju njima. AI, sam po sebi, nije opasnost. Prava prijetnja leži u njenom potencijalu da je ljudi koriste neodgovorno ili zlonamjerno.

Tekuća debata o rizicima veštačke inteligencije ne bi trebalo da parališe njen razvoj. Umjesto toga, trebalo bi nas potaknuti ka pametnijim, etičnijim inovacijama. Balansiranje između opreza i napretka je ključno kako bi se osiguralo da AI dostigne svoj puni potencijal bez dovođenja čovječanstva u opasnost.

Autor je Begim Kutim, diplomirani student na Visokoj školi javne politike Univerziteta Nazarbajev.

Odricanje od odgovornosti: Stavovi i mišljenja izražena u ovom članku su autorovi i ne odražavaju nužno stav The Astana Timesa.





Detaljnije na izvornom linku >>>