Zbornik radova Pravnog fakulteta, Novi Sad
2023, vol. LVII, br. 4, str. 1357-1378
jezik rada: engleski
Originalni naučni rad
udk: 343:004.8(450)
doi:10.5937/zrpfns57-47113
Autor:
Karlo Piparo
Univerzitet u Udinama
carlopiparo@gmail.com
ORCID ID: 0009-0009-7965-0770
Sažetak:
Ubrzan napredak i rasprostranjeno implemntiranje Informaciono-komunikacione tehnologije (ITT) uveli su nas u sveobuhvatnu društvenu i pravnu transformaciju. Od mnogih revolucionarnih napredaka, veštačka inteligencija iskristalisala se kao klјučna sila, prožimajući skoro svako gledište svakodnevnog života. Od carstva trgovine i industrije do zdravstvene zaštite, transporta, zabave, tehnologija veštačke inteligencije postala je neophodno sredstvo oblikovanja načina na koji komuniciramo, radimo i krećemo se u svetu oko nas. Sa njenim čudesnim mogućnostima i sve širim domašajem, veštačka inteligencija ostaje kao zaveštanje čovečanskoj nemilosrdnoj težnji za inovacijama i bezgraničnom potencijalu od tehnologije do revolucionarne društvene zajednice. Dok obavlјaju sve poverene zadatke za koje su programirani, sistemi veštačke inteligencije mogu preduzimati radnje, koje mogu rezultirati u zločine počinjene od strane lјudi. Ali zločini prate rezerve prava, stoga može biti teško inkriminisati takve zločine zbog nedostaka pisanog prava. Ipak, u savremenim pravnim sistemima ne zahteva se da struktura zločina bude samo izvršenje tipičnih činjenica, već i odlučnost da se to učini.
U ovom scenariju, budući da je veštačka inteligencija ne-lјudski entitet, krivičnu odgovornost je naročito teško definisati. Ovo je uglavnom tačno zbog posebne prirode okruženja u kojem mašina živi: digitalno okruženje je napravlјeno od digitalne stvarnosti, a mnogi njeni akteri (na primer algoritmi, protokoli i programi) nisu čak ni lјudi i mogu samo da postoje u toj stvarnosti. To znači da u ovom okruženju mašine mogu da deluju, određuju se i eventualno vrše zločine sa ili bez lјudskog korisnika.
Ovaj scenario čini neophodnim da se analiziraju zločini veštačke inteligencije u svetlu uobičajenih, koristeći uobičajenu pravnu disciplinu. Ova analiza omogućava korisnicima (advokatima, sudijama i naučnicima) da koriste tri tradicionalna modela odgovornosti: „izvršenje-preko drugog”, „prirodna verovatna posledica” i „direktna odgovornost”. Preko ovih modela korisnici mogu da procene da li je mašina počinila krivično delo.
Ipak, tri gore pomenuta modela odgovornosti otvaraju vrata potpuno savremenom scenariju: konkurentnost čoveka i mašine (podudarnost između čoveka i algoritma veštačke inteligencije). U stvari, ako definisanje odgovornosti mašine dolazi sa izazovima, još je komplikovanije prilagoditi savremenim ustavima podudarnost između živog i digitalnog. U stvari, potrebno je proceniti da li mašina može da čini zločine (ili je to samo instrument), utvrditi kako se mašina može slagati sa čovekom i kolika je odgovornost na nju. Ovim radom se žele analizirati karakteristike veštačke inteligencije, razraditi tri moguća modela odgovornosti veštačke inteligencije i, na kraju, definsati zločinačko učešće čovek-mašina kroz sočiva italijanskog prava.
Ključne reči:
odgovornost, zločinačka namera, participacija, programer, algoritam, krivično pravo.