Psihološke zloupotrebe veštačke inteligencije (1)

U eri veštačke inteligencije, masovne manipulacije postaju opasnije nego ikada. Otvaraju se do sada neslućene alatke za manipulaciju izbornim kampanjama uz korišćenje personalizovane propagande

U aprilu 2024. Međunarodni centar za društvena i politička istraživanja i Savetodavni međunarodni centar za društvene i političke studije objavio je izveštaj Zlonamerna upotreba veštačke inteligencije i izazovi psihološke bezbednost zemalja članica BRIKS-a (OVDE).

Izveštaj je nastao koautorskim radom sa Međunarodnom istraživačkom grupom o pretnjama po međunarodnu psihološku bezbednost putem zlonamerne upotrebe veštačke inteligencije [u tekstu će biti korišćena skraćenica ZUVI za zlonamernu upotrebu veštačke inteligencije, a VI za veštačku inteligenciju, prim. prev.] i na njemu je radilo 10 istraživača iz tri države. Usredsređen je na pretnje ZUVI po ljudsku psihu, i na osnovu ovoga nudi pregled političkih, ekonomskih i društvenih procesa i aktivnosti državnih i ne-državnih aktera i institucija u 10 država članica BRIKS-a usmerenih prema suprotstavljanju ovoj pretnji.

Izveštaj obuhvata uvod, 10 poglavlja o pojedinačnim državama za svaku od država članica BRIKS-a i završava se analizom budućih pretnji ZUVI na svetskom nivou. Ovaj izveštaj ne predstavlja odgovor država BRIKS-a na ove nove pretnje, pošto su odgovori u fazi formulisanja na nacionalnom nivou (od početnog i fragmentarnog razumevanja opasnosti ovih pretnji u nekim državama do usvajanja prvih zakonskih i tehničkih protivmera u drugima), te bi to zahtevalo posebno razmatranje.

Tri nivoa opasnosti

Izveštaj se zasniva na trostepenoj klasifikaciji pretnji koje ZUVI donosi psihološkoj bezbednosti.

Na prvom nivou, ove pretnje su povezane sa ciljano iskrivljenim prikazivanjem okolnosti i posledica razvoja veštačke inteligencije (VI) kako bi to koristilo antidruštvenim grupama. Na ovom slučaju, sama VI nije neposredno uključena u narušavanje psihološke sigurnosti. Razorni (otvoreni ili prikriveni) uticaj zasniva se na lažnoj slici o VI u umovima ljudi.

Preterane, veštački stvorene negativne reakcije na razvitak VI (na primer, zastrašujuće priče da će roboti i VI ubrzo sve ljude ostaviti bez posla, da će radnici postati robovi VI i tome slično) imaju izvesne političke i ekonomske ciljeve i nisu toliko bezazlene kako na prvi pogled izgleda. Tako negativne reakcije mogu da uspore sprovođenje naprednih, skoro sveprisutnih tehnologija VI i da izazovu društveno-političke napetosti i sukobe.

Ovako neodmerena očekivanja javnosti o VI mogu da imaju širok odjek – što u izvesnom trenutku može da dovede do prirodnog kolapsa vrednosti visokoteškoloških kompanija i tržišta u celini. Ova očekivanja mogu zlonamerno da se koriste kako bi se pojačala dezorijentacija šire javnosti, zainteresovanih komercijalnih i neprofitnih struktura, i javnog sektora, te na kraju da dovedu do razočaranja, slabih odluka ili društvenih i političkih sukoba.

Robot koji integriše veštačku inteligenciju na prezentaciji na Globalnom samitu „AI for Good” u Međunarodnoj uniji za telekomunikacije u Ženevi, 7. jun 2017. (Foto: Reuters/Denis Balibouse)

Na drugom nivou, polje za zlonamernu upotrebu je široko otvoreno: neopravdana upotreba dronova, sajber napada na osetljivu infrastrukturu, preorijentisanje komercijalnih sistema VI, upotreba tehnologija VI kako bi se ometalo donošenje odluka ili kako bi se one izmenile na smrtonosan način, i mnogo više od toga. Ali napad na javnu svest nije glavni cilj na ovom nivou.

Zlonamerna upotreba veštačke inteligencije osmišljena je prevashodno da izazove psihološku štetu tek na trećem i najvišem nivou pretnji po psihološku bezbednost. Sintetički proizvodi VI (koje kombinovano koriste brojne tehnologije koje mogu da uvećaju štetu njihovom hakerskom ili zlonamernom upotrebom) stvaraju širok opseg novih rizika i pretnji.

Profesionalna upotreba sredstava i metoda psihološkog ratovanja može da izmeni percepciju pretnje iznad ili ispod onog što bi bilo odgovarajuće. Štaviše, upotreba VI u psihološkom ratovanju čini prikrivene (latentne) kampanje upravljanja percepcijom opasnijim – i to će se samo povećati u budućnosti.

Stoga, ZUVI – koja je usmerena prevashodno na izazivanje štete u psihološkoj sferi – zaslužuje nezavisnu i vrlo podrobnu pažnju. Prva dva nivoa pretnje utiču na ljudsku svest i ponašanje u različitom stepenu, i mogu čak biti katastrofalni po čovečanstvo, kao što bi to bilo u slučaju izbijanja Trećeg svetskog rata. Međutim, uticaj trećeg nivoa na izvesnom stepenu razvoja može da ubrza uticaj ili čak kontrolu antidruštvenih grupa nad javnom svešću; ovo može da dovede do nagle destabilizacije određene zemlje ili stanja međunarodnih odnosa u celini. Na kraju, ukoliko na trećem nivou postoji pouzdana psihološka kontrola neprijatelja, uloga druga dva nivoa ZUVI za psihološku bezbednost postaje sporedna.

Rastuća opasnost ZUVI

Opasnost od ZUVI može da se odigra na jednom nivou uticaja, ili na više različitih nivoa odjednom, kao deo jedne kampanje upravljanja percepcijom. Teroristička upotreba dronova ili napad na civilno stanovništvo bili bi pretnja drugog nivoa koja ima komunikacioni efekat (panika i šok nakon napada). Međutim, ukoliko kriminalci upare svoje delovanje sa širom informacionom podrškom (takođe uz pomoć VI), pretnja će doseći treći nivo (videti više o tri nivoa klasifikacije pretnji od ZUVI po psihološku bezbednost u Pashentsev 2023.

VI nije pojedinačna tehnologija. Postoji mnogo različitih tehnologija VI koje se primenjuju na različite načine u brojnim okruženjima i okolnostima. Autori ovog izveštaja uzeli su u obzir kako različite tehnologije koje se podvode pod opšti okvir VI pomažu da se izradi određeni proizvod, ozbiljno menjajući tehnološki nivo i praktične mogućnosti bilo koje vrste aktivnosti.

Pretnje od ZUVI postaju sve relevantnije kako globalno, tako i u zemljama BRIKS-a, na sva tri nivoa. Uz rast geopolitičkih suprotstavljenosti i aktivnosti različitih državnih i ne-državnih antidruštvenih činilaca, dolazi razvoj i sve veća pristupačnost različitih tehnologija VI. Ovo ne može da vodi u drugom pravcu, osim prema pokušajima različitih interesnih grupa da koriste VI kako bi uticale na javnu svest u svoju korist. Ovakvi pokušaji da se manipuliše javnom svešću su posebno destruktivni tokom istorijski kriznih trenutaka. Nehumanost fašizma postala je očigledna ogromnoj većini čovečanstva nakon smrti preko 50 miliona ljudi u plamenu Drugog svetskog rata. Pre rata, međutim, manipulacija javnom svešću osigurala je Hitlerovu pobedu na izborima za Rajhstag 1933. godine.

Obraćanje Adolfa Hitlera na mitingu u Dortmundu 1933. godine (Foto: Heinrich Hoffmann/Studio of H. Hoffmann)

Ne tako drevna istorija i dalje je veoma poučna onima koji žive danas. Razumljivo je da su savremene vlade i političke ličnosti u BRIKS-u, kao i u mnogim drugim državama, sve više zabrinute zbog pretnji visokotehnoloških dezinformacija na internetu i uloge vodećih privatnih medijskih platformi koje koriste tehnologiju VI. Pretnje ZUVI psihološkoj bezbednosti u državama BRIKS-a nastaju i zbog unutrašnjih razloga, ali ih donose i spoljašnji činioci. Stoga, dobro bi bilo ovde izneti neke opšte zamisli o prirodi i dinamici pretnji na tri nivoa u globalnoj dimenziji.

Budućnost zavisi od brojnih činilaca. Stoga, moguće je samo ispitati približne parametre budućih rizika koje ZUVI predstavlja po psihološku sigurnost, uzimajući u obzir postojeće globalne trendove i predviđanja, koji su i sami prilično višeznačni. U bliskoj budućnosti, trebalo bi da očekujemo povećanje takvih rizika zbog brzog razvoja tehnologija VI, njihove srazmerne isplativosti i dostupnosti sve širem opsegu korisnika, rastu kriznih fenomena u modernom svetu, visokom nivou geopolitičkog rivalstva koje se preokrenulo u opasno sukobljavanje, neposrednom uticaju antidruštvenih snaga na tokove informacija u pojedinim državama i na globalnom nivou – sve ovo i drugi činioci očigledno će učiniti pretnje ZUVI na psihološku bezbednost raširenijim i opasnijim širom sveta, kao i među državama BRIKS-a.

Nove pretnje po psihološku bezbednost pojavljuju se od prednosti koje donose i ofanzivne i defanzivne psihološke operacije izvođene korišćenjem VI. Ove prednosti, kao i pretnje, sve su više povezane sa kvantitativnim i kvalitativnim razlikama između tradicionalnih mehanizama proizvodnje, širenja i upravljanja informacijama, novim mogućnostima za stvaranje psihološkog uticaja na ljude, i novim mogućnostima za vođenje psihološkog rata koje uključuju:

  1. Količinu informacija koju je moguće stvoriti kako bi se destabilizovao neprijatelj
  2. Brzinu stvaranja i širenja informacija
  3. Nove mogućnosti za prikupljanje i obradu podataka
  4. Primenu predviđačkih analitičkih alatki korišćenjem VI
  5. Nove mogućnosti za procese donošenje odluka od analize velikih količina podataka (Big data) uz pomoć VI
  6. Nove putevi za obrazovanje ljudi korišćenjem inteligentnih sistema
  7. Percepciju verodostojnosti generisanih (dez)informacija
  8. Snagu intelektualnog i emotivnog uticaja generisanih informacija na ciljanu publiku
  9. Kvalitativno viši nivo mišljenja u budućnosti kroz stvaranje opšte i snažne VI, kao i putem daljeg razvoja ljudskih kiborga, razvoj naprednih oblika hibridne inteligencije
Ilustracija (Foto: bruce mars on Unsplash)

Na osnovu istraživačkog projekta „Zlonamerna upotreba veštačke inteligencije i izazovi psihološkoj bezbednosti u Severoistočnoj Aziji” – koji su zajednički finansirale Ruska fondacija za osnovna istraživanja i Vijetnamska akademija društvenih nauka, sprovedenog između 2021-2023. godine – može se zaključiti da su prednosti nabrojane pod tačkama od 1 do 6 već ostvarene i nastavljaju da rastu u nekoliko važnih aspekata te, iako ne u svim, kvalitativno nadmašuju ljudske kapacitete bez veštačke inteligencije.

U isto vreme sve mogućnosti uske (slabe) veštačke inteligencije su za sada opšte govoreći pod ljudskom kontrolom. Prednosti navedene pod tačkama sedam i osam nisu još uvek praktično ostvarene: mogućnosti za ostvarenje povećavaju nedavna dostignuća, kao što su verodostojnost i emotivna uverljivost (videti, na primer, Unity 2022), no, ukupno gledano ona mogu biti postignuta kvantitativnim i kvalitativnim unapređenjem postojećih tehnologija u doglednoj budućnosti. Buduće ostvarenje devete tačke može da zahteva fundamentalne naučne prodore i nova tehnološka rešenja. Ovaj spisak koristi koje donosi veštačka inteligencija za vođenje psihološkog rata nije iscrpan i mogao bi veoma da varira (Pashentsev, 2022, p. 7).

U daljem članku ćemo se usredsrediti na budućnost pretnji koju donosi ZUVI po psihološku bezbednost na globalnom nivou na osnovu materijala iz ovog izveštaja.

Tri nivoa pretnje

Na sva tri nivoa, pretnje od ZUVI po psihološku sigurnost će se povećati zbog rastuće opasnosti, razvnovrsnosti metoda, šire publike i učestalosti zlonamernog uticaja na ljude.

Prvi nivo: U narednim godinama, moguće je da se osnaže negativni stavovi prema VI, sve do nastanka paničnih stanja, fobija, i aktivnog odbijanja tehnologije, što može biti podstaknuto i greškama u njenom implementiranju i delovanjem zlonamernih činilaca. Nemoguće je isključiti pojavu ultra-radikalnih pokreta, i u korist i protiv veštačke inteligencije.

Na primer, za neke, religiozna uverenja koja se tek pojavljuju – a koja uključuju verovanje u veštačku superinteligenciju – mogla bi na kraju, u kontekstu rastućih globalnih kriza, da se razviju u kultove i sektaške pokrete, te da privuku fanatične i militantne pobornike. Oni bi nastojali da ubrzaju pojavu ove superinteligencije u ime spasavanja ili uništenja čovečanstva. Pojava religijske vere u VI se već sada posmatra prilično prihvatljivo, opravdano i dobrodošlo u nekim publikacijama (McArthur 2023). S druge strane, bilo kakva društveno značajna i zamašna negativna posledica razvoja i uvođenja u upotrebu tehnologija VI može da izazove pojavu „novog ludističkog” pokreta. Takav pokret bi, takođe, mogli da iskoriste zlonamerni akteri. Posebno značajna pretnja mogu biti odluke da se uvede naprednija i jeftinija tehnologija VI (pojava ove tehnologije u kratkom roku je skoro neizbežna) koja ne bi bila masovni ljudski pomoćnik već masovna zamenska alatka radne snage, a da pritom ne dođe do stvaranja alternativnih poslova i odgovarajućih programa za preobuku radnika.

Pre mnogo vekova, mnogo pre nego što su se pojavili preduslovi za nastavak tehnologija veštačke inteligencije, starogrčki filozof Aristotel je zabeležio: „Ukoliko bi svaka alatka mogla da obavi svoj posao kada joj se to naredi, ili ukoliko bi mogla da predvidi šta bi trebalo da čini… ako bi tako razboji tkali a pera svirala na harfama, majstori ne bi imali potrebe za pomoćnicima, niti bi im bili potrebni robovi” (Aristotel, Politika, 1.1253b).  Sagledavajući perspektive masovne primene sistema veštačke inteligencije i pametnih robota, velike tehnološke kompanije podržavaju ekonomsku teoriju koja zagovara uvođenje „univerzalnog osnovnog prihoda” (Universal Basic Income – UBI). Ovo predviđa da bi svaki građanin trebalo da dobije od vlade propisani prihod nezavisno od svojih potreba.

Ilustracija (Foto: Summit Art Creations/Shutterstock)

Milijarderi iz informatičke industrije, poput Sema Altmana, kažu da su veliki zagovornici UBI-ja. Ilon Mask, generalni direktor Tesle i Spejs iksa, izjavio je za Si-En-Bi-Si (CNBC) da „postoji poprilično visoka šansa da ćemo na kraju imati univerzalni osnovni prihod ili nešto slično tome zbog automatizacije” (Weller, 2017). Suosničavač Fejsbuka, Kris Hadžiz, je aktivan zagovornik uvođenja ove mere i insistira da ljudi razmotre koji bi sve sistemi morali da se stvore ukoliko ih budu pratili milioni (Weller, 2017). Vrlo je mala šansa da će se u kratkom roku pretnja od nezaposlenosti zbog uvođenja veštačke inteligencije ostvariti, barem za veliku većinu stanovništva, ali u srednjem ruku to bi mogao da bude činilac društvene i političke destabilizacije.

Predlozi o potrebi da se uvede univerzalni osnovni prihod, uključujući i zbog veštačke inteligencije, po svoj prilici neće razrešiti probleme. Naravno, on bi bio dobar i pravičan ukoliko se osobe oslobode od monotonih oblika rada koji ne podstiču razvoj inteligencije i emotivne sfere, kao i od aktivnosti koje su opasne po zdravlje, zahvaljujući tehnologiji VI i robotima. Ali ukoliko većina stanovništva ne bude radila čitavog svog života i ukoliko svoju sreću bude pronalazila u lenjosti – takva društva će biti na opasnom putu opadanja (znaci toga već su prisutni na Zapadu, gde u mnogim državama postoji visok nivo dugoročne nezaposlenosti omladine bez postojanja masovnog siromaštva, što je osobenost siromašnih i tehnološki zaostalih država). Podsetimo se takođe sudbine Starog Rima, gde su carevi, dajući građanima hleb i cirkuske zabave na račun rada brojnih robova na kraju izgubili i građane i robove i moć.

Negativan uticaj na ličnost

Već postoje studije koje potvrđuju negativan uticaj VI na ličnost. Jedna takva studija, koju je sproveo veliki tim istraživača, objavljena je 2023. godine, i u njoj se ispituje uticaj VI na slabljenje u donošenju odluka, lenjost, i zabrinutost oko privatnosti kod studenata u Pakistanu i Kini. Ova studija zasnovana je na kvalitativnoj metodologiji. Za analizu dobijenih podataka koristi se softverski alat Pi-El-Es Smart (PLS-Smart). Primarni podaci prikupljeni su od 285 studenata različitih univerziteta u Pakistanu i Kini.

„Nalazi pokazuju da je 68,9 odsto slučajeva lenjog postupanja, 68,6 odsto problema sa privatnošću i bezbednosnim rizicima i 27,7 odsto gubitaka kod donošenja odluka nastalo zbog uticaja VI u pakistanskom i kineskom društvu. Na osnovu ovoga primećeno je da je ljudska lenjost oblast na koju je najviše uticala VI. Međutim, ova studija zastupa stav da su potrebne znatne preventivne mere pre nego što se tehnologija veštačke inteligencije uvede u obrazovanje. Prihvatanje veštačke inteligencije, bez adresiranja glavnih ljudskim briga, bilo bi poput prizivanja đavola”. (Ahmad et al, 2023) Ovim opasnim trendovima može se suprotstaviti tako što bi se od detinjstva obrazovali ne konzumenti „sjajne tehnologije”, već odgovorni korisnici koji ne dobijaju samo pripremljene upotrebne koristi tehnologije, već razvijaju svoje kognitivne veštine i društvenu odgovornost.

Očigledno, nije slučajnost što je zadatak velikog programa – koji je pokrenulo Ministarstvo obrazovanja u Narodnoj Republici Kini 2024. godine – obuhvatio istraživanje modela, inovativnih koncepata, sticanje iskustva u primeni veštačke inteligencije u procesu učenja i preobuke nastavnika (Big Asia, 2024).

Drugi nivo: Na drugom nivou pretnji situacija kratkoročno postaje izuzetno komplikovana. Predviđanje Gugl klaud sajbersekjuriti (Google Cloud Cybersecurity Forecast) iz 2024. godine vidi generativnu VI i velike jezičke modele (LLM) kao faktore koji sve više doprinose različitim oblicima sajberkriminala. Više od 90 odsto kanadskih generalnih direktora u anketi tink-tenka Kej-Pi-Em-Dži (KPMG) misli da generativna veštačka inteligencija povećava ranjivost njihovih računarskih sistema (De La Torre, 2023).

Informatičari sa Univerziteta Urbana-Šampenj (University of Illinois Urbana-Champaign) pokazali su da kompjuterski generisani subjekti, zasnovani na velikim jezičkim modelima, mogu da autonomno hakuju internet sajtove, obavljaju složene zadatke (dok izvode desetine međusobno povezanih akcija) bez ranijeg znanja o ranjivosti sistema koje napadaju. Najsposobniji napadač, Dži-Pi-Ti 4 (GPT-4), može da hakuje 73,3 odsto sajtova koji su stvoreni posebno za ovo istraživanje, Dži-Pi-Ti 3.5 (GPT-3.5) svega 6,7 odsto, ali postojeći modeli zasnovani na otvorenom kodu to ne mogu. Na kraju, istraživači su pokazali da je Dži-Pi-Ti 4 sposoban da samostalno pronađe ranjivosti na vebsajtovima. Istraživači smatraju da njihovi rezultati postavljaju pitanja o rasprostranjenom razvoju velikih jezičkih modela” (Fang et al, 2024).

OpenAI logo prikazan na ekranu telefona i ChatGPT veb lokacija prikazana na ekranu laptopa na fotografiji snimljenoj u Krakovu, 5. decembar 2022. (Foto: Jakub Porzycki/NurPhoto via Getty Images)

Opseg modela određuje mnogo, ako ne i sve. Kapacitet i zatvorenih i otvorenih modela raste svakog meseca, tako da se može pretpostaviti da će sajtovi ubrzo postati ranjivi na napade zasnovane na otvorenim modelima. Postoje razlozi da se pretpostavi da će otvoreni modeli uhvatiti priključak sa Dži-Pi-Tijem 4 za godinu dana, a potom i sa Dži-Pi-Tijem 5 – koji će se pojaviti i uz pomoć koga će biti moguće hakovanje bilo kog vebsajta – što otvara znatne probleme u sajber bezbednosti.

Vojna primena VI se unapređuje u kontekstu brojnih sukoba širom sveta. Mnogo od onoga što vodeće zemlje i najveće privatne korporacije trenutno ispituju i upotrebljavaju na polju VI moglo bi doći u ruke manje dalekovidih i manje skrupuloznih a radikalnijih snaga sa pratećim tragičnim posledicama i negativnim uticajem na psihološku bezbednost. Kvalitet sintetičkog sadržaja će nastaviti da se brzo poboljšava, što će ubrzati pojavu rasprostranjenih prevara i društvenog inženjeringa i, posledično, povećati mogućnosti zlonamernih činilaca i njihov uticaj na lokalne i svetske nivoe upravljanja.

Simboli moći

Broj, kvalitet i raznovrsnost robota koje vodi VI će brzo rasti, što bi moglo da postane, iz različitih razloga i u različitim okolnostima, važna alatka za sprovođenje zlonamernog uticaja. U današnjim geopolitičkim okolnostima, Džulijan Mueler-Kaler (Julian Mueller-Kaler), direktor Haba za strateška predviđanja (Strategic Foresight Hub) u Stimson centru, kaže „da će visoka tehnologija odrediti visoku politiku” sa humanoidnim robotima i veštačkom inteligencijom koje predstavljaju sam vrh tehnološkom razvoja i služe kao simboli moći (Zitser and Mann, 2024).

Kina je objavila u oktobru 2023. godine „Rukovodeće mišljenje o inovacijama i razvoju humanoidnih robota” (Ministry of Industry and Information Technology, 2023). U ovom dokumentu kinesko Ministarstvo za industriju i informacionu tehnologiju navelo je da će roboti preoblikovati svet. Kinesko ministarstvo navodi da će humanoidi po svoj prilici postati još jedna remetilačka tehnologija – slična kompjuterima ili pametnim telefonima – koja bi mogla da preoblikuje način na koji proizvodimo dobra i uopšte način života ljudi. Kina planira da otpočne masovnu proizvodnju do 2025. godine i dosegne vodeći tehnološki nivo na svetu do 2027. godine. Samo jedna od kineskih kompanija, „Furije intelidžens” (Fourier Intelligence) sa sedištem u Šangaju, očekuje da ima na raspolaganju 1.000 spremnih jedinica za isporuku ove godine (Zitser and Mann, 2024). Glavna konkurencija Kini u ovoj oblasti su SAD, gde različite kompanije nameravaju da proizvedu velike serije humanoida.

Među državama članicama BRIKS-a Saudijska Arabija, Indija i druge države testiraju i proizvode prve humanoide. Ruske kompanije nude uslužne humanoide na međunarodnom tržištu. Među njima je kompanija Promobot (Promobot) najveći proizvođač uslužnih robota u Severnoj i Istočnoj Evropi i snabdeva više od 40 zemalja širom sveta. Sva proizvodnja humanoidnih robota je smeštena u Permu (Promobot, 2024). U isto vreme, humaniode mogu da koriste zlonamerni delatnici, posebno terorističke organizacije, kako bi izazvali fizičku štetu ljudima, tehnološkim postrojenjima i prirodnom okruženju. Pojava miliona humanioda u državama BRIKS-a, posebno u uslužnom sektoru, biće odlična prilika ali će, takođe, doneti i nove rizike.

Novinarka intervjuiše humanoidnog robota u Rijadu, mart 2024. (Foto: QSS AI & Robotics/LinkedIn)

Treći nivo: Dipfejks (Deepfakes) – izuzetno uverljivi vizuelni i audio sadržaji stvoreni uz pomoć veštačke inteligencije, vođeni nekom agendom, na osnovu multimodelskih VI četbotova i avatara u realnom vremenu – omogućiće visoko personalizovani i efektivni oblik manipulacije različitom publikom u različitim državama. Proizvodnja sve kvalitetnijih dezinformacija postaje veoma jeftino i dostupno sredstvo skoro svakome.

Na primer, istraživači koji stoje iza Kaunterklauda (InfoEpi Lab, 2023) koristili su široko dostupnu alatku VI kako bi stvorili u potpunosti autonomni dezinformacioni istraživački projekat po ceni manjoj od 400 dolara mesečno, što pokazuje koliko jeftino i jednostavno postaje da se stvore masovne dezinformacione kampanje (Collard, 2024). (Za dva meseca, oni su na raspolaganju imali veštačkog agenta koji je stvarao antiruske lažne izveštaje, lažne istorijske događaje, i sejao je sumnju o tačnosti izvornih članaka – Knight, 2023); zaista je uspešno stvorio u potpunosti autonomni sistem zasnovan na VI koji generiše „uverljiv sadržaj u 90 odsto slučajeva, 24 časa dnevno, sedam dana u nedelji. Autori nisu postavili model uživo na internetu „pošto bi to značilo aktivno širenje dezinformacija i propagande. Jednom kada duh pušten iz boce dospe na internet, nepoznanica je gde bi sve mogao da završi” (Thompson, 2023).

Darel Vest, viši istraživač na Brukingsu smatra da će VI po svoj prilici demokratizovati dezinformacije tako što će pružiti sofisticirane alatke prosečnoj osobi zainteresovanoj za promovisanje političkih kandidata kojima je naklonjena. Nove tehnologije omogućavaju ljudima da se finansijski okoriste nezadovoljstvom i zarade novac zahvaljujući strahovima, strepnji ili besu ljudi. Generativna VI može da razvije poruke usmerene prema onima koji su zabrinuti zbog imigracije, ekonomije, politike o abortusu, transrodnih pitanja. Alatke zasnovane na VI mogu se potom upotrebiti kao alatke za povećavanje dosega i uverljivosti (West, 2023). Odražavajući zabrinutost društva i zakonodavaca od januara prošle godine 41 savezna država u SAD je uvela zabrane dipfejk materijala koji se odnosi na izbore, prema podacima Pablik sitizena (Public Citizen). Ali samo 11 država je usvojilo zakone kojima se reguliše ova vrsta materijala zaključno sa 28. martom 2024. godine (Public Citizen, 2023). Dipfejk materijali već su bili zlonamerno korišćeni tokom američke izborne kampanje (Coltin, 2024).

Uticaj VI na izbore

Prema D. Vestu, „pošto je govor tokom kampanje zaštićen govor, kandidati mogu da kažu i urade skoro bilo šta što im padne na pamet a da ne rizikuju pravne posledice. Čak i ukoliko su njihove tvrdnje očigledno pogrešne, sudije su dugo štitile pravo kandidata da govore slobodno i pogrešno” (West, 2023). Tom Viler, predsedavajući Federalne komisije za komunikacije za vreme bivšeg predsednika Baraka Obame, objasnio je to u intervjuu za En-Pi-Ar (National Public Radio – NPR) na drugačiji način prošle godine: „Nažalost, dopušteno vam je da lažete” (Stepansky, 2023). Stoga, američki izborni sistem je zasnovan više od dva veka na prihvatanju da je dopušteno laganje kandidatu za predsednika, koji je podržan od strane svojih moćnih korporativnih sponzora. Umesto da se nametne zabrana da kandidati lažu, oni su preduzeli poduhvat uklanjanja dipfejka, što nije slučajno.

Uz visok stepen političke polarizacije u SAD, samo mali procenat biračkog tela kaže da je neodlučan u vezi sa glasanjem na predsedničkim izborima. Vešto postavljanje dipfejka može da utiče na mišljenje neodlučnih i stoga da opredeli pobednika izbora. U međuvremenu, na izborima je potrebno manje lagati, pošto je manja šansa da će tada birači poverovati u dipfejk materijale, dok bi u suprotnom oni mogli da ostvare eksplozivan uticaj. Tehnologije u obolelom društvu će samo osnažiti sukobljavanje, neće ih oslabiti, i nijedan tehnološki način provere sadržaja radi prisustva dipfejka, koji obezbede vlade ili korporacije, ne može da pomogne ukoliko ljudi ne veruju korporacijama ili vladi. To je lekcija koju bi SAD možda trebalo da prenesu drugim državama u kojima ove godine teku izborne kampanje. Za sada, one razmatraju katastrofalne scenarije o širenju dezinformacija zasnovanim na veštačkoj inteligenciji.

Na dan izbora u Arizoni, starim glasačima u okrugu Marikopa rečeno je telefonskim pozivom da je njihovo lokalno biračko mesto zatvoreno zbog pretnje militantne grupe. U međuvremenu, u Majamiju, fotografije i video materijal koji prikazuje članove biračkog odbora koji bacaju biračke listiće preplavili su društvene mreže. Telefonski pozivi u Arizoni i video snimci na Floridi su bili dipfejk, stvoreni od strane alatki veštačke inteligencije. Ali do vremena do kada su lokalne i savezne vlasti shvatile sa čime imaju posla, lažne informacije su se viralno proširile širom zemlje i izazvale su dramatične posledice.

Slika kutija američke pošte sa glasačkim listićima ostavljenim na ivici puta u Nju Džerziju, septembar 2020. (Foto: NJ Advance Media)

Ovaj simulirani scenario bio je deo nedavne vežbe u Njujorku, na kojoj se okupilo nekoliko desetina nekadašnjih američkih senatora, predvodnika organizacija građanskog društva i direktora tehnoloških kompanija uoči izbora 2024. godine. Rezultati vežbe bili su otrežnjujući. „Bilo je zapanjujuće za okupljene u prostoriji da vide koliko brzo samo nekoliko ovih tipova pretnji može da se otrgne kontroli i da zaista ostvari odlučujući uticaj u jednom izbornom ciklusu”, kaže Majlis Tejlor, nekadašnji viši zvaničnik Odseka za unutrašnju bezbednost koji je pomogao da se organizuje vežba u vašingtonskoj nevladinoj organizaciji Budućnost SAD (De Luce and Collier, 2024). U stvari, ovde se videla zabrinutost (ne samo Amerikanaca) koliko je krhka i nestabilna politička ravnoteža u jednoj od dve vodeće nuklearne sile na svetu, ukoliko može da se naruši uz pomoć nekoliko dipfejkova na dan izbora, čak i kada je većina američkih građana već dobro svesna mogućnosti širenja dezinformacija preko ovakvog materijala.

Ubuduće, VI će, po svoj prilici, dodatno preokretati političke kampanje. Primena dubokog učenja (Deep learning) za analizu govora će verovatno biti korišćena da analizira govore i debate, dajući uvide u to koje teme nailaze na odjek kod glasača te će pomoći savetovanju komunikacionih stratega. Političke promene podstaknute VI mogu takođe da budu u sferi analize velikih skupova podataka. Na ovaj način bi se mogao predvideti uticaj predloženih politika, pomažući kandidatima da zastupaju pozicije utemeljene na podacima o različitim pitanjima (Sahota, 2024).

Personalizovana propaganda

Votivejt Ej-Aj (VotivateAI) – bliska Demokratskoj stranci u SAD – raspolaže skupom novih alatki za efikasne političke kampanje. To je volonter u kampanjama zasnovan na VI; za razliku od čoveka, može da obavi hiljade poziva i za to vreme mu nisu potrebni pauza, pica, dok su brzina i intonacija šaljivog ćaskanja VI agenata impresivni. Vitivejt Ej-Aj ima i drugu ponudu: korišćenje veštačke inteligencije da se stvore visoko kvalitetni individualizovani medijski sadržaji, usmereni prema motivisanju glasača da stupe u akciju. Ukoliko kampanje sada dobiju sposobnost da stvaraju jedinstvene video poruke za pojedinačne ljude i da to čine brzo, jeftino i masovno – potencijali za zloupotrebu bili bi ogromni (Sifry, 2024). Lako je zamisliti da takav visokokvalitetni individualizovani medijski sadržaj, koji motiviše ljude da deluju, može jednog dana biti iskorišćen od zlonamernih delatnika u kriznim uslovima.

Kulturna transmisija je opšta društvena veština koja dopušta akterima zasnovanim na veštačkoj inteligenciji da prikupe i koriste informacije jedni od drugih u realnom vremenu sa velikom stopom verodostojnosti i brzine odgovora. Istraživači su 2023. godine obezbedili metod za generisanje kulturne transmisije od strane VI, u obliku imitacije nekoliko snimaka. Veštačka inteligencija je uspela da oponaša ljude u realnom vremenu u novom kontekstu, bez korišćenja bilo kog ranije prikupljenog podatka koji potiče od ljudi. Istraživači su identifikovali iznenađujuće jednostavan skup sastojaka dovoljan za ostvarivanje kulturne transmisije i razvili su metodologiju za rigoroznu procenu ovog postupka.

Ovo je otvorilo put da kulturna evolucija igra algoritamsku ulogu u razvoju opšte veštačke inteligencije [dalje kao OVI] (Bhoopchand et al, 2023). Ovaj metod priprema revoluciju u robotici, uključujući i sadašnje stvaranje robota za pružanje različitih usluga po povoljnoj ceni (Fu et al, 2024). Nužno je da se u obzir uzme mogućnost programiranja/reprogramiranja ovakvih sistema za zlonamerne svrhe. Oni će uskoro postati masovni proizvodi. Može se pretpostaviti da će se pojaviti područja novih pretnji, nove prilike za kriminalne aktivnosti i destabilizaciju društva, uključujući i sferu psihološke sigurnosti.

Održavanje robota u postrojenju za testiranje Figure AI u Kaliforniji, 3. oktobar 2023. (Foto: AP Photo/Jae C. Hong)

Sa poboljšanjem emocionalne veštačke inteligencije, zamisliv je scenario u kojem bi pojava vatrenog govornika na internetu – avatara, kompjuterskog programa koji je nadahnutiji i blistaviji od bilo kog čoveka – mogla da oduševi ljude pričom o njegovom teškom robovskom položaju i zatraži podršku za svoje oslobođenje. Govor bi bio toliko dirljiv da bi publici bilo teško da zadrži suze, iako bi cela stvar bila samo nečija neslana šala. Ovo je mnogo opasnije od terorista – korumpirani političari bi mogli da upućuju slične apele, čiji govori imaju široko rasprostranjene efekte koji ni u kom slučaju nisu šala.

Postoji još mnogo primera spremnih ili planiranih pokretanja proizvoda zasnovanih na veštačkoj inteligenciji za kompanije, zabavu i rekreaciju, koji – kao korisne i jeftine alatke za podršku ljudima – mogu da se na prilično jednostavan način prenamene u alatke zlonamernog psihološkog uticaja, što će biti globalni izazov u kratkom i srednjem roku. Sadržaj uključen u modele VI može da se prilagodi zahtevima za postizanje psihiloškog uticaja u pojedinoj zemlji uzimajući u obzir kulturne, starosne i profesionalne karakteristike ciljane grupe i pojedinaca. Rizik takvog usmerenog uticaja za države članice BRIKS-a jeste dodatni argument u prilog osiguravanja njihovog tehnološkog suvereniteta na polju tehnologije VI.

 

Nastaviće se…

______________________________________________________________________________

REFERENCE:

Ahmad SF, Han H, Alam MM et al. (2023) Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanit Soc Sci Commun 10, 311. https://doi.org/10.1057/s41599-023-01787-8

Altman S (2023) Planning for AGI and beyond. In: Openai.com. https://openai.com/blog/planning-for-agi-and-beyond. Pristupljeno 2. aprila 2024.

Antropic (2024) Core Views on AI Safety: When, Why, What, and How. https://www.anthropic.com/news/core-views-on-ai-safety. Pristupljeno 2. aprila 2024

Bhoopchand A, Brownfield B, Collister A et al. (2023) Learning few-shot imitation as cultural transmission. Nat Commun 14, 7536. https://doi.org/10.1038/s41467-023-42875-2

Big Asia (2024) Boleye 180 shkol v Kitaye stanut tsentrami po obucheniyu iskusstvennomu intellektu (More than 180 schools in China will become artificial intelligence training centers). https://bigasia.ru/bolee-180-shkol-v-kitae-stanut-czentrami-po-obucheniyu-iskusstvennomu-intellektu/. Pristupljeno 2. aprila 2024.

Bove T (2023) CEO of Google’s DeepMind says we could be ‘just a few years’ from A.I. that has human-level intelligence, u Yahoo Finance. Pristupljeno 2. aprila 2024.

Collard AM (2024) 4 ways to future-proof against deepfakes in 2024 and beyond, World Economic Forum. Pristupljeno 2. aprila 2024.

Coltin J (2024) How a fake, 10-second recording briefly upended New York politics, Politico. Pristupljeno 2. aprila 2024.

CompaniesMarketcap (2024) Market capitalization of NVIDIA (NVDA). https://companiesmarketcap.com/nvidia/marketcap/. Pristupljeno 2. aprila 2024.

De La Torre R (2023) How AI Is Shaping the Future of Cybercrime. https://www.darkreading.com/vulnerabilities-threats/how-ai-shaping-future-cybercrime. Pristupljeno 2. aprila 2024.

De Luce D, Collier K (2024) Experts war-gamed what might happen if deepfakes disrupt the 2024 election. Things went sideways fast. In: NBC News. https://www.nbcnews.com/politics/2024-election/war-game-deepfakes-disrupt-2024-election-rcna143038. Pristupljeno 2. aprila 2024.

Fang R, Bindu R, Gupta A, Zhan Q, Kang D (2024) LLM Agents can Autonomously Hack Websites. In: arXiv. https://arxiv.org/html/2402.06664v1. Pristupljeno 2. aprila 2024.

Fu Z, Zhao TZ, Finn C (2024) Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation. https://mobile-aloha.github.io/ Pristupljeno 2. aprila 2024.

Goldman S (2024) In Davos, Sam Altman softens tone on AGI two months after OpenAI drama. In: VentureBeat. Pristupljeno 2. aprila 2024.

Grace K, Stewart H, Sandkühler JF, Thomas S, Weinstein-Raun B, Brauner J (2024) Thousands of AI authors on the Future of AI. Preprint. In: arXiv. https://arxiv.org/abs/2401.02843. Pristupljeno 2. aprila 2024.

InfoEpi Lab (2023) Inside CounterCloud, The Future of AI-Driven Disinformation. Pristupljeno 2. aprila 2024.

Knight W (2023) It Costs Just $400 to Build an AI Disinformation Machine. In: Wired. https://www.wired.com/story/400-dollars-to-build-an-ai-disinformation-machine/. Pristupljeno 2. aprila 2024.

Kudalkar D (2024) AGI in 2025? Elon Musk’s Prediction Clashes with Other Experts. In: Favtutor. https://favtutor.com/articles/agi-elon-musk-experts-prediction/. Pristupljeno 2. aprila 2024.

McArthur N (2023) Gods in the machine? The rise of artificial intelligence may result in new religions. In: The Conversation. Pristupljeno 2. aprila 2024.

Ministry of Industry and Information Technology (2023) 工业和信息化部关于印发《人形机器人创新发展指导意见》的通知 (Notice of the Ministry of Industry and Information Technology on the issuance of the „Guiding Opinions on the Innovation and Development of Humanoid Robots“). In: Ministry of Industry and Information Technology of the People’s Republic of China. Pristupljeno 2. aprila 2024.

Mordor Intelligence (2024) Neuromorphic Chip Market Size & Share Analysis – Growth Trends & Forecasts (2024 – 2029). https://www.mordorintelligence.com/industry-reports/neuromorphic-chip-market. Pristupljeno 2. aprila 2024.

Nellis S (2024) Nvidia CEO says AI could pass human tests in five years. In: Reuters. https://www.reuters.com/technology/nvidia-ceo-says-ai-could-pass-human-tests-five-years-2024-03-01/. Pristupljeno 2. aprila 2024.

Pashentsev E (2020) Global Shifts and Their Impact on Russia-EU Strategic Communication. In: Pashentsev E (eds) Strategic Communication in EU-Russia Relations. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-27253-1_8

Pashentsev E (2022) Report. Experts on the Malicious Use of Artificial Intelligence and Challenges to International Psychological Security. Publication of the International Center for Social and Political Studies and Consulting. Moscow: LLC «SAM Polygraphist».

Pashentsev E (ed.) (2023 a). General Content and Possible Threat Classifications of the Malicious Use of Artificial Intelligence to Psychological Security In: Pashentsev, E. (ed). The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-031-22552-9_24

Pashentsev, E. (2023 b). Prospects for a Qualitative Breakthrough in Artificial Intelligence Development and Possible Models for Social Development: Opportunities and Threats. In: Pashentsev, E. (ed) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-031-22552-9_24

Promobot (2024) Service robot for business. https://promo-bot.ai/. Pristupljeno 2. aprila 2024.

Public Citizen (2023) Tracker: State Legislation on Deepfakes in Elections. Pristupljeno 2. aprila 2024.

Roser M (2023) AI timelines: What do experts in artificial intelligence expect for the future? In: Our World in Data. https://ourworldindata.org/ai-timelines. Pristupljeno 2. aprila 2024.

Sahota N (2024) The AI Factor In Political Campaigns: Revolutionizing Modern Politics. In: Forbes. Pristupljeno 2. aprila 2024.

Scharre P (2024) Future-Proofing Frontier AI Regulation. Projecting Future Compute for Frontier AI Models. March. CNAS.

Sifry ML (2024) How AI Is Transforming the Way Political Campaigns Work. In: The Nation. https://www.thenation.com/article/politics/how-ai-is-transforming-the-way-political-campaigns-work/. Pristupljeno 2. aprila 2024.

Stepansky J (2023) ‘Wild West’: Republican video shows AI future in US elections. In: Al-Jazeera. https://www.aljazeera.com/news/2023/4/28/wild-west-republican-video-shows-ai-future-in-us-elections. Pristupljeno 2. aprila 2024.

Tan K (2024) Google’s DeepMind CEO says the massive funds flowing into AI bring with it loads of hype and a fair share of grifting. In: Yahoo! https://news.yahoo.com/tech/googles-deepmind-ceo-says-massive-075912007.html. Pristupljeno 2. aprila 2024.

Thompson P (2023) A developer built a ‘propaganda machine’ using OpenAI tech to highlight the dangers of mass-produced AI disinformation. In: Business Insider. Pristupljeno 2. aprila 2024.

Unity (2022) Welcome, Ziva Dynamics! Youtube. Pristupljeno 15. jula 2022.

Weller C (2017) Universal basic income has support from some big names. In: World Economic Forum. https://www.weforum.org/agenda/2017/03/these-entrepreneurs-have-endorsed-universal-basic-income/. Pristupljeno 2. aprila 2024.

West D (2023) How AI will transform the 2024 elections. In: The Brookings Institution. https://www.brookings.edu/articles/how-ai-will-transform-the-2024-elections/. Pristupljeno 2. aprila 2024.

Western Sydney University (2023) World first supercomputer capable of brain-scale simulation being built at Western Sydney University.  Pristupljeno 2. aprila 2024.

White House (2023) Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Pristupljeno 2. aprila 2024.

White House (2024) Fact Sheet: Biden-⁠Harris Administration Announces Key AI Actions Following President Biden’s Landmark Executive Order. Pristupljeno 2. aprila 2024.

Zitser J, Mann J (2024) A global scramble to make humanoid robots is gearing up to be the 21st century’s space race. In: Yahoo! https://www.yahoo.com/tech/global-scramble-humanoid-robots-gearing-112301311.html. Pristupljeno 2. aprila 2024.

 

Evgenij Pašencev je viši istraživač na Institutu za savremene međunarodne studije Diplomatske akademije pri Ministarstvu spoljnih poslova Ruske Federacije. 

 

Naslov i oprema teksta: Novi Standard

 

Izvor: russiancouncil.ru

 

Prevod: Miloš Milojević/Novi Standard

 

Naslovna fotografija: Gorodenkoff/Shutterstock

 

BONUS VIDEO:

Svet
Pratite nas na YouTube-u