Veštačka inteligencija (Artificial Intelligence – AI) je tema koja je zavladala društvenim diskursom, ali šta zapravo znamo o AI? Koliko smo sigurni da je ova tehnologija bezopasna po čovečanstvo? Možemo li stati kao društvo iza određenih etičkih principa?
Veštačka inteligencija (Artificial Intelligence – AI) je u društvu mistifikovana, i potrebno nam je da razumemo tehnologiju, kako bismo znali kako da je koristimo, da prepoznamo rizike i prilike, ali i da pravno uredimo novu oblast. Pre svega, sam naziv je nezgrapno skrojen, jer se ne radi zapravo o inteligenciji, ako je poredimo sa intelektualnim kapacitetima ljudskog bića. Veštačka inteligencija nije tako pametna, izostaju neki bitni elementi ljudske inteligencije, emocije, empatija, socijalna inteligencija, sistem vrednosti i dr. Zapravo, veštačka inteligencija je machine learning + data + statistika (proporcije).
Da bismo ograničili rizike od razvoja i upotrebe veštačke inteligencije potrebno je prihvatiti opšte etičke principe kojima bismo se vodili u ovoj oblasti, a koji bi kasnije kroz dalju razradu prerasli u regulaciju ove oblasti. Za to, prvo je potrebno da se društvo dogovori oko toga koji su etički principi kojima ćemo se voditi. Ti etički principi su kao kompas, a cilj je da prerastu u zakonska načela jednog dana. U jedno naučnom radu izdvojili smo sedam potencijalnih načela koja predlažemo:
- Transparentnost – Prvo, početno načelo koje govori o tome da čoveku uvek mora biti dostupna informacija da komunicira sa AI tehnologijom ili da konzumira sadržaj koji je generisala AI tehnologija i tako dalje. Takođe tehnologija mora da transparentno poštuje prava intelektualne svojine autora od kojih „uči“ ili „pozajmljuje“ znanje. Ako znamo da je nešto generisao AI, mi smo informisani, sve je transparentno i onda sami možemo da odlučimo, uključujući sve činjenice, da li ćemo pokloniti poverenje ovakvom sadržaju.
- Odgovornost – Naravno da je sa strane prava najbitnije pitanje toga čija je odgovornost u kojem slučaju, odnosno kada su odgovorne kompanije koje razvijaju ovu tehnologiju, a kada su odgovorni pojedinci, korisnici (pravna ili fizička lica). Jedno od najvećih pitanje je i koji oblik odgovornosti gde koristimo, a pre svega kod kompanija smatramo da je potrebno uspostaviti objektivnu odgovornost.
- Tačnost – Iako je regulacija društvenih mreža pokazala da ne postoji mogućnost da se suzbiju lažne vesti i masovna manipulacija, ovo je načelo putem kojeg bi trebalo da budu uvedena rešenja za ograničavanje ovih negativnih društvenih pojava.
- Sigurnost – Ova tehnologija mora biti sigurna za korisnike. Sa jedne strane, sistem mora biti siguran, sa druge strane, ne sme ugrožavati korisnike i njihovo zdravlje, sigurnost.
- Privatnost – Privatnost je jedno od najugroženijih ljudskih prava u modernom dobu. Informacione tehnologije su pogodno sredstvo za prenos ličnih podataka. GDPR je uveo neke standarde u zaštiti podataka o ličnosti, ali odnos GDPR-a i AI Act-a će morati da obezbedi da se AI tehnologija koristi tako da ne povređuje lične podatke.
- Zabrana diskriminacije – Ovo je jedno od veoma važnih načela u pravu uopšteno. Potrebno je da se ovo načelo pravilno primeni i na novu tehnologiju. Pokazalo se da AI može biti pristrasan i neka istraživanja su dokazala da AI iako ne prepoznaje diskriminaciju, može da je vrši. „Mozak“ veštačke inteligencije radi na statistici, a to može dovesti i do neželjenih rezultata. Na primer, ukoliko se generišu fotografije, i ako se traži generisanje slike lopova, velike su šanse da će generator stvoriti sliku afro-amerikanca.
- Ljudska kontrola (human overview) – Čovek mora biti u kontroli nad tehnologijom. GDPR i ZZPL su već delom uredili ovu oblast, tako što su uveli pravilo da svako može da traži da se na njega ne primenjuje automatizovana odluka koja utiče na prava tog lica (nastanak, menjanje ili prestanak nekog prava). To podrazumeva da na svaku automatizovanu odluku mora postojati pravo da tražimo da tu odluku zamenimo ljudskom odlukom, kao i da u samovozećim kolima uvek mora postojati opcija da čovek preuzme kontrolu. Znamo da u Kini već AI učestvuje u sudskim predmetima, kada bi donosio odluku, odnosno presudu, morao bi se uvesti pravni lek koji uvodi ljudsku kontrolu nad ovim odlukama.
Ovi etički principi komuniciraju međusobno, usko su povezani, ali osnovni nivo i početka tačka svakako jeste transparentnost. Bez transparentnosti teško da mogu biti sprovodiva u praksi i druga načela. Odgovornost je tu da poveže dispoziciju sa sankcijom, odnosno da oživi načela. Svakako da će budući neki zakon morati predvideti određene kaznene odredbe (prekršaj, pa možda i krivično delo). Ljudska kontrola je višnja na vrhu torte koja će omogućiti ljudima da se osećaju sigurno koristeći ovu tehnologiju. Cilj ovih načela je da učine tehnologiju sigurnom, a sekundarni cilj je svakako da ljudi prihvate ovu tehnologiju. Lakše ćemo prihvatiti ono okruženje u kojem se osećamo sigurnim.
Daćemo samo jedan primer, zašto se ne osećamo sigurno trenutno. Postavićemo pitanje: “Čije znanje veštačka inteligencija koristi?” Obzirom da znamo da sadržaj stvara samo na osnovu onoga što je prethodno primila u memoriju, odnosno na osnovu onoga na čemu je “učila”. Evo primera kako izgleda kada veštačka inteligencija poštuje pravo intelektualne svojine:
Pravo veštačke inteligencije (AI Law) tek dolazi. To je deo IT prava i koliko ova tehnologija postaje bitna, toliko će i ova oblast prava rasti i razvijati se. Za sada regulacija u Srbiji ne postoji, AI Act u EU je na čekanju, a period implementacije je svakako određen na dve (2) godine. Naravno da će tendencija našeg zakonodavca biti da izjednači pravila sa pravilima u EU. Uzmimo primer GDPR-a i Zakona o zaštiti podataka o ličnosti.
Napomena: Ovaj tekst predstavlja lični stav autora, proizašao iz iskustva u oblasti IT prava, praktičnih iskustava, istraživačkog rada o sedam etičkih principa koji u ovom trenutku još uvek nije objavljen. Ovaj tekst nije zamena za angažovanje pravnog konsultanta za IT pravo u konkretnoj situaciji.
Autor: Denis Tul