U sredu, 11. juna, u Beogradu održana je panel diskusija na temu: Regulacija AI u Srbiji – da li nam je i šta nam je potrebno? u organizaciji Libek-a.
Učesnici su bili Đorđe Krivokapić iz Share Fondacija, Aleksandar Linc Đorđević, osnivač i direktor Data Science Conference (DSC Europe), a diskusiju je moderirao Mihailo Gajić, programski direktor Libek-a.
Diskusija o regulaciji veštačke inteligencije u Srbiji otvorila je niz složenih pitanja, od osnovnih pojmova, preko identifikacije rizika, do uticaja regulative na razvoj i inovacije.
Ne znamo šta tačno regulišemo?
Gajić je otvorio diskusiju podsećanjem da ni na nivou EU još uvek ne postoji jasan odgovor na pitanje šta tačno regulišemo. Bez jasnih definicija, pravni okvir deluje neodređeno, a sama regulacija klimavo.
Krivokapić je skrenuo pažnju na to da je AI tehnologija sa potencijalom za dobru i lošu primene. Ključno pitanje je: koje su rizične oblasti na koje treba obratiti pažnju? Rizici mogu, ali i ne moraju biti isti kao oni prepoznati u AI Act-u. Rizici se ne eliminišu zabranama, već regulatornim okvirima i normama koje ih svode na minimum. U trenutku kada sistemu damo autonomiju, prestajemo da imamo kontrolu. I tu počinje priča o rizicima koji proizilaze iz nepredvidivosti ponašanja takvih sistema.
Regulacija ne cilja veštačku inteligenicju, već procese i rizike
Krivokapić je dodao da danas ne regulišemo same AI sisteme, već u njima ugrađene rizike. Kada sistem veštačke inteligencije postane dovoljno jasan i predvidiv, on zapravo izlazi iz sfere AI-ja i postaje samo još jedna tehnologija. Dakle, trenutak kada se gubi predvidivost i javlja autonomno ponašanje je trenutak kada treba vršiti regulaciju.
Drugim rečima, neadekvatno razumevanje nečega što smo sami stvorili predstavlja dodatni rizik. I zato je potrebna regulacija.
Gajić je otvorio pitanje: može li regulacija predstavljati prepreku za dalji razvoj i primenu AI-ja, naročito za startape koji nemaju resurse za prilagođavanje kao što to imaju velike korporacije? Može li to dugoročno uticati na konkurentnost evropskih firmi za koje važi regulacija koja ne važi za svetske kompanije?
Krivokapić je potvrdio da će ovakva regulacija najviše će odgovarati velikima. Giganti koji su nastali tokom perioda deregulacije sada će profitirati kroz komplikovane sisteme usklađivanja koje samo oni mogu da prate. S druge strane, male kompanije će imati visoke troškove kada njihovi modeli dođu do tržišne faze, a posebno ako ciljaju regulisane industrije poput finansija, energetike i sl.
Zato ćemo, kako kaže, videti sledeći obrazac: mali razvijaju, dolaze do potrošača i dokaza koncepta, ali onda ih veliki kupuju i to ne zato što im trebaju, već kako bi sprečili konkurenciju.
AI modeli nisu kao običan softver
Linc je naglasio važnu razliku AI modeli, za razliku od klasičnih softverskih rešenja, nastavljaju da uče i menjaju se i nakon što ih pustimo u rad. Drugim rečima, AI modeli su „živi sistemi“. I upravo zato ne možemo da ih tretiramo istim pravnim okvirima.
Postavio je i šire pitanje: čega se mi zapravo plašimo? AI-ja ili ljudi koji ga koriste? Zaključak je da se plašimo sebe samih. Velike kompanije mogu da preuzmu veći rizik i plate veće kazne, dok mali to ne mogu. Etika i obrazovanje moraju biti ključni oslonci. Profesori i obrazovni sistem treba da budu nosioci vrednosti koje sprečavaju zloupotrebu tehnologije.
Industrijska samoregulacija kao rešenje?
Gajić je postavio pitanje o ulozi same industrije u oblikovanju normi. Istorijski, mnogi zakoni nastajali su kroz dogovor među akterima u industriji može li to da se primeni i na AI?
Krivokapić je bio jasan: ili ćemo se sami regulisati ili će nas neko regulisati. AI Act, GDPR i slične regulative ne ulaze detaljno u tehničku primenu, već uvode princip zasnovan na proceni rizika. To znači da je na industriji da proceni koje su moguće negativne posledice i da preduzme mere koje ih ublažavaju ili eliminišu.
Zakon ne propisuje tačne metode – on od pojedinca traži da poznaje svoj sektor i dizajnira proizvod na način koji je u skladu sa tim. Ukoliko tako ne bude, odgovara se za posledice. Krivokapić je to ilustrovao primerom: ako profesori dobiju softver za ocenjivanje i pregledanje eseja, oni sami treba da smisle kako da ga koriste u skladu sa etikom i propisima, jer zakonodavac to ne može predvideti za svaki poseban slučaj.
Gajić je podsetio da je Srbija već usvojila etičke smernice i nacrt zakona o veštačkoj inteligenciji. Međutim, Linc je upozorio da su mnogi elementi prepisani iz EU regulativa bez dovoljno razumevanja lokalnog konteksta. Kazne koje se pominju su ozbiljne, i mogu delovati obeshrabrujuće za domaće inovatore.
On ističe da je neophodna javna rasprava kako zakon ne bi bio samo slovo na papiru. Ako se AI u Srbiji bude razvijao u takvom regulatornom vakuumu, rizik je da ćemo završiti sa zakonima koji postoje samo na papiru.
Prema informacijama, zakon o veštačkoj inteligenciji trebalo bi da bude usvojen do marta naredne godine, kao deo reformske agende.





