Koliku opasnost nosi vještačka inteligencija?

Veštačka inteligencija je neminovnost koja će promeniti naš način života, ali treba povesti računa da ona može biti zloupotrebljena u četiri oblasti - naoružanju, sajber napadima, širenju dezinformacija i govora mržnje i razvoju novih tehnologija u neregulisanim uslovima, kažu sagovornici Novog dana.

Informacione tehnologije 27.03.2024 | 21:05
Koliku opasnost nosi vještačka inteligencija?

Podsetimo, Savet bezbednosti UN održao je prvu sednicu o veštačkoj inteligenciji (AI). Sednica je usledila nakon poziva Velike Britanije na neophodni međunarodni dijalog o uticaju AI na globalni mir i bezbednost.

„Uticaj veštačke inteligenicije biće dosta širok. Razne teme su pominjane na Savetu bezbednosti i izražena je potreba za regulacijom za države članice. Jedan odbor će biti oformljen kako bi se došlo do tih smernica. Pitanje je globalno i samo globalno može da se reguliše. Nakon preporuka, idu zakoni u pojedinačnim državama. Veoma je bitno pitanje, jer AI već sada na nas utiče.

Drugi korak, generalno AI će samo povećati taj problem“, kaže Ljubiša Bojić, komunikolog, istraživač i naučni saradnik na Institutu za filozofiju i društvenu teoriju Univerziteta u Beogradu.

On dodaje da se najveći uticaj AI sada ogleda u polarizaciji društva.

„Imamo veću distancu između grupa u društvu, tzv. društvene mehure, a to utiče na demokratiju, za koju je potreban dijalog. Veštačka inteligencija nalazi se između nas i sadržaja i u tome je mnogo uspešnija od bilo kog urednika, zato što na osnovu dosta data points odlučuje šta će nam biti prezentovano i to je opasnost“, objasnio je on.

Vladimir Radunović, predavač i direktor obrazovnih programa iz oblasti upravljanja Internetom, sajber-bezbednosti i e-diplomatije pri međunarodnoj nevladinoj instituciji Diplo Foundation, izdvojio je četiri rizika koja se najviše dovode u spregu sa veštačkom inteligencijom.

„Ovo je prvi put da smo videli diplomate i političare da reaguju na ovu tehnologiju, šest meseci otkako smo videli 100 miliona korisnika ChatGPT-ja.  Dva su razloga. Jedan zato što se vrlo brzo nakon jeseni kada se ChatGPT zavrteo videlo koliko su fascinantni potencijali, ali koji su i problemi, koliko se brzo ta tehnologija razvija, a mi smo spori da regaujemo na njih. Čini se da su države to shvatile“, kazao je Radunović.

Drugi razlog je da AI sada ne razvijaju samo velike kompanije, objasnio je.

„AI je otišla u tzv. open source, otvoreni kod, manje-više svako može da je razvija. Pretpostavlja će da će taj razvoj biti i jači, i brži nego komercijalni. Velike države su navikle da te vrhunske tehnologije moći da kontrolišu, što je problem za njih“, rekao je.

Prvi veliki rizik, objasnio je, je upotreba AI u naoružanju.

„Videli ste poluautomatizovane dronove u Ukrajini, ili izraelskog robota koji je ubio iranskog naučnika. Te stvari se već dešavaju i to je nezaustavljivo. Pitanje je sada kako implementirati međunarodno pravo ako čovek tu više ništa ne odlučuje. U međunarodnom pravu čak i u ratu morate da napravite ralliku između vojske i civila, kako će ih veštačka inteligencija razlikovati?

Ili ranjenike i neranjenike, bataljon koji se predaje i koji se ne predaje. Vojske idu ka tome da automatizuju ratovanje, jer je brže, imaju veću dobit, ali su i rizici sve veći. Ono što regulativa treba da kaže je da se ne dozvoli kompletna automatizacija, već da čovek mora da donosi konačnu odluku, bar kad je pitanje života i smrti. Drugi problem je da to ne ide van država. Kada to uđe u terorističke grupe, međunarodno pravo ne može da se implementira“, kazao je.

Drugi rizik su, navodi, sajber napadi.

„To smo takođe već viđali. S jedne strane je automatizaicja napada, izbegavanje sistema odbrane, a sa druge to što su sistemi veštačke inteligencije i sami ranjivi i mogu biti hakovani“, rekao je.

Treća je dezinformacija ili govor mržnje, nabrojao je.

„Veliki problem je deep fake, koji može da kreira bilo kakav video, te vi ne možete biti sigurni da li je na kameri prava osoba ili avatar. Zamislite da imate premijere ili predsednike koji nešto pričaju a onda se to zavrti kroz društvene mreže“, upozorio je.

Četvrti segment je upotreba AI sa kvantnim kompjuterima u razvoju novih tehnologija, rekao je.

„To je, naravno, pozitivno, ali biotehnologije mogu dovesti do stvaranja biološkog oružja, u laboratorijama koje nisu državne“, naveo je.

„Neće više biti ljudskih botova“

Bojić je dodao da se sve promenilo kada je META odlučila da jezički model (model koji može da kreira tekst) da svima kao otvoreni kod.

„Terorističke grupe ili političke partije mogu da ga koriste da naprave veliki broj profila na društvnim mrežama, koji su lažni i kontroliše ih veštačka inteligencija i non-stop komentariše ili piše objave za različite mreže. Kao neka vrsta AI botova. Nećemo više imati potrebu za ljudskim botovima, ali i to je veoma opasno jer će stranka koja ima veću procesorsku moć imaće veću prednost, a mi nećemo znati ko razgovara sa kim“, opisao je on.

Rekao je da se na jednom samitu u Beču došlo do zaključka da bi trebalo zabraniti objavljivanje automatizovano kreiranih sadržaja, naročito u toku predizbornih kampanja, koji bi svakako uticali na ishode izbora.

„Duh je izašao iz boce“

Na pitanje može li se veštačka inteligencija koristiti za ocenjivanje ljudi i njihovog ponašanja, Radunović kaže da sistemi regulative koje smo imali, više ne funkcionišu.

„Onog trena kada je algoritam META otišao u otvorene krugove, duh je izašao iz boce. Ne možete samo da kontrolišete velike kompanije. Kina je uvela određene regulative, ali njihov sistem je suštinski drugačiji. SAD pokušava da uvede jasnu pravnu odgovornost za kompanije koje se ovim bave, od čega je Amerika sve ovo vreme bežala“, naveo je.

Predaleko smo otišli sa inovacijama, smatra.

„Ne u smislu nauke, već komercijalizacije tehnologije, sa kojom ne znamo šta ćemo. Mi sada inoviramo radi inovacije, dok manje zemlje ili Afrika tačno znaju za rešenje kog problema im tehnologija treba. Zakonodavstvo će da uradi jedan deo posla, ali mi već imamo Evropsku regulativu o zaštiti podataka, koja je odlična, ali jako teško primenjiva. Ono što je važno shvatiti da države ne mogu same. Ovo će morati da bude ozbiljna saradnja izmežu država, regulatora, kompanija, nama kao pojedinicima, udruženjima građana, akademijama…“, rekao je Radunović.

Gde je tu Srbija?

Srbija je usvojila Strategiju za razvoj veštačke inteligencije, napomenuo je Bojić.

„Takođe je osnovala instititut koji se bavi razvojem AI. Strageški cilj je da napravimo rešenja koja može da koristi ceo svet. To je pravac koji je sasvim u redu, treba da budemo u nekim segmentima lideri. Održavamo godišnju konferenciju na kojoj okupljamo regulatore, ljude iz industrije i naučnike. Veoma je bitno da svi razgovaramo i tražimo rešenje koje je dobro za našu budućnost, ne smemo da to prepustimo velikim kompanijama koje će mnogo pre razviti AI, nego što će to regulisati Ujedinjene nacije ili bilo koja druga organizacija“, zaključio je on.

(N1 Beograd) Foto: Shutterstock 

Komentari / 14

Ostavite komentar
Name

Micko

27.03.2024 21:44

Pa ako znate da nosi opasnosti, jednostavno je ukinite i ne dozvolite da zazivi. Prosto...

ODGOVORITE
Name

Nije

13.04.2024 12:25

Ni jednostavno ni iskljuceno...

Name

Lav

27.03.2024 21:54

Vještačka inteligencija uništava čitav svijet,uništava radnu snagu,plate,ljude...nema ništa pozitivno od nje,sve je negativno,negativni uticaji

ODGOVORITE
Name

Abc

28.03.2024 00:12

Reče Lav, sjedeći u toploj kući kuckajući na telefonu preko website-a čiji serveri su na hiljade km daleko. Luditi

Name

Dusevna

13.04.2024 12:26

Milicija

Name

Dario Djapa

27.03.2024 22:04

Sta ce nam vestacka intiligencija

ODGOVORITE
Name

Eto

13.04.2024 12:26

Sud ba neka...

Name

Ma

27.03.2024 23:49

Prokleti PROFIT!!!

ODGOVORITE
Name

Puste

13.04.2024 12:27

Pare proklete...

Name

Direkt

28.03.2024 02:27

Za naše društvo opasnija je lopovska inteligencija.

ODGOVORITE
Name

Ma

13.04.2024 12:28

Evo AI sudba...

Name

Za propadanje

13.04.2024 12:23

Kazu neces dalje od zemlje....

ODGOVORITE
Name

Za AI

13.04.2024 12:23

Ima sferu sveznanja....

ODGOVORITE
Name

Internet

13.04.2024 12:24

Sfera covjekovih pretraga...

ODGOVORITE