Никола Милосављевић*

Оригинални научни чланак

УДК: 004.8:34

doi: 10.46793/GP.1402.23M

ПРАВНО РЕГУЛИСАЊЕ ОДЛУЧИВАЊА ВЕШТАЧКЕ ИНТЕЛИГЕНЦИЈЕ**

Рад примљен: 13. 04. 2023.

Рад прихваћен за објављивање: 02. 10. 2023.

 

Капацитети вештачке интелигенције отварају нове могућности када је реч о унапређивању рада државних органа. Иако је примена ових система у раду државних органа увелико почела, још увек нема потпуно аутоматског одлучивања од стране вештачке интелигенције. Аутор у раду испитује на који начин је постојећим прописима регулисано питање аутоматског одлучивања вештачке интелигенције, посебно у домену заштите података о личности. Аутор анализира да ли је постојеће решење адекватно и које су могућности за унапређење решења. Циљ рада је да се применом социолошке и правнодогматске методе најпре испитају евентуални недостаци постојећег решења у погледу аутоматског одлучивања, а да се затим понуде нова решења којима ће се адекватније одговорити на притисак развоја вештачке интелигенције.

Кључне речи: вештачка интелигенција, аутоматизовано одлучивање, заштита података о личности.

I УВОД

Вештачка интелигенција (енг. artificial intelligence, нем. Künstliche Intelligenz) представља појаву која полако почиње да захвата све аспекте друштва. Између осталог, у правној теорији се све више разматра питање одлучивања вештачке интелигенције у правним стварима. Ово би могло имати утицаја на бројне процесноправне и материјалноправне аспекте одлучивања. Осим тога, одлучивање од стране вештачке интелигенције подразумева и обраду података о личности, те је важно испитати у којој мери појединци имају могућност да одлучују о оваквој обради овог аспекта њихове личности. У наставку рада се најпре разматра примена вештачке интелигенције у одлучивању државних органа, а затим се испитује постојеће правно регулисање ове области. На крају се испитује домашај аутоматизованог одлучивања вештачке интелигенције и потреба за детаљним правним регулисањем. Настојимо да кроз овакву анализу испитамо да ли је постојећи ниво правног регулисања адекватан, како би дали предлоге за будући развој регулативе у овој области.

II ПРИМЕНА ВЕШТАЧКЕ ИНТЕЛИГЕНЦИЈЕ УЧЕЊА                            У ОДЛУЧИВАЊУ

Употреба вештачке интелигенције већини и даље изгледа као секвенца из научно-фантастичног филма. Стога ће многе зачудити да се вештачка интелигенција већ неко време примењује у раду привреде и државних органа. Развијене државе су препознале потенцијал који вештачка интелигенција може да пружи у решавању великог броја предмета. Како би ово боље разумели, потребно је да објаснимо принципe функционисања вештачке интелигенције.

Најпре треба истаћи да вештачка интелигенција на овом нивоу развоја не представља у потпуности реплику људске интелигенције. Под вештачком интелигенцијом се подразумевају системи код којих се поједине функције „природне“ или људске интелигенције имитирају или реплицирају. У данашњем смислу речи, вештачка интелигенција се највише везује за појам машинског учења (енг. machine learning). Класични софтвери (енг. rule based) су подразумевали да програмер састави алгоритам који се након тога извршава, чиме се обављају поједине логичке операције много брже него што то чини човек. Тако је први рачунарски програм Deep Blue победио светског првака у шаху Гарија Каспарова. Ипак, иако је савладао природну интелигенцију, Deep Blue још увек није користио машинско учење. Ово зато што су сви потези које је овај софтвер рачунао били унапред задати од стране програмера.[1] Са машинским учењем је развијена могућност да софтвер самостално, на бази постојећих информација и класификација, извуче закључак о правилу поступања у одређеној области и затим, на основу тако изведеног закључка, сам поступа. Нешто прецизније, вештачка интелигенција се састоји од два алгоритма – „класификатора“ и „ученика“. „Класификатор“ је и даље под пуном контролом човека. Реч је о алгоритму који врши класификацију података по одређеном задатом правилу. Други алгоритам, „ученик“ има задатак да уочи правило по коме се врши класификација података и да након тога то исто правило примени на нове податке.[2] Осим ових система, које можемо назвати и супервизованим, јер програмер мора да објасни машини како да врши класификацију, развијени су и несупервизовани системи који, на основу постојеће структуре података, извлаче закључак о класификацији коју треба извршити.[3] Такође, развијени су и системи тзв. дубоког учења (енг. deep learning) код којих долази до стварања вештачких неуролошких веза између алгоритама, што се још више приближава природној интелигенцији.[4] Суштински, оно што је постигнуто јесте да је софтвер способан да сам изводи закључак на бази података који су му предочени. Ипак, услов је да је софтвер располагао довољном количином података, те се овде уводи појам „велике групе података“ (енг. big data). Велике групе података представљају полазну основу за софтвер који примењује машинско учење и изводи закључак о поступању и начину класификовања, а затим и доноси одлуку у складу са изведеним закључком.[5] Конкретна корист за човека се састоји управо у томе што се велике количине података могу обрадити у јако кратком временском року.[6]

Поставља се питање како се овакви системи машинског учења могу користити у области рада државних органа. Најпре, ови системи се користе код програма које називамо „детектори“. На бази „научене“ класификације, ови софтвери претражују податке и истовремено елиминишу оне који се сматрају непожељним. Тако се користе софтвери подешени да траже говор мржње или друге неприкладне коментаре или кривична дела на интернету и аутоматски их бришу. Осим тога детектори се користе и у доказном поступку како би се брже лоцирали документи који представљају доказ. Затим, ту су и софтвери који применом машинског учења „предвиђају будућност“. На бази података о досадашњим догађајима, софтвер може предвидети догађаје који ће се десити у будућности. Овакви софтвери могу бити веома корисни у планирању буџета или опредељивању средстава за рад служби за ванредне ситуације, јер се на бази података о досадашњем броју пожара, криминала и слично могу направити предвиђања о алокацији средстава и опреме према потребама. Затим, могу се користити и „симулатори“. Софтвер овог типа применом машинског учења, на бази постојећих података, симулира будуће проблематичне ситуације и омогућава њихово решавање унапред и адекватну припрему (нпр. поступање у ванредном стању).[7] Софтвери који примењују машинско учење могу бити употребљени и за „профилисање“ одређене личности, што може бити значајно за утврђивање идентитета починиоца кривичног дела.[8] Коначно, ови софтвери се могу користити и за просто одлучивање и решавање појединачних управних и судских ствари.

Наведене ситуације представљају само потенцијалне могућности за примену вештачке интелигенције. Ипак, државни органи у САД, Аутралији, Канади и другим развијеним државама већ користе неке од система који примењују машинско учење. Тако се у САД користе системи који асистирају полицији и правосуђу. Америчка полиција користи PredPol, софтвер помоћу кога предвиђа извршење кривичних дела у појединим деловима градова и других насеља и према њему алоцира своје ресурсе.[9] С друге стране, у америчком правосуђу је већ неко време у употреби систем COMPAS (енг. Correctional Offender Management Profiling for Alternative Sanctions) помоћу кога се, употребом вештачке интелигенције, предвиђа колико је вероватно да окривљени, с обзиром на досадашње понашање, понови кривично дело. На овај начин, софтвер помаже судији да одлучи коју казну треба одредити окривљеном.[10] Применом система e-discovery амерички адвокати смањују време и трошкове припреме за суђење, јер помоћу њега детектују документе који представљају доказ у поступку.[11] Слично овоме, компаније користе Blue J Legal систем вештачке интелигенције помоћу ког детектују пореске утаје међу пореским пријавама на бази претходног искуства.[12] Аустралијска пореска управа примењује слични софтвер за обрачун пореске обавезе.[13] Такође, у Аустралији је планирано увођење система контроле пасоша применом вештачке интелигенције.[14] Канада примењује системе вештачке интелигенције ради анализе поднетих имиграционих пријава, што знатно скраћује време доношења одлуке по предмету.[15] Осим државних органа и приватне компаније се широко користе овим системима. Тако банке користе системе засноване на машинском учењу у циљу анализе поднетих захтева за добијање кредита, којима се предвиђа вероватноћа враћања кредита и процењује оправданост доделе кредита по захтеву.[16]

Наведени примери показују да су системи засновани на вештачкој интелигенцији већ неко време присутни у нашим животима. Могућности и поузданост ових система свакодневно напредују и скраћују време које је потребно за одлучивање, што је у крајњем у интересу свих нас. Ипак, ову помало идиличну слику доводи у сумњу питање заштите људских права. Да ли ће некоме бити продужена казна затвора, одобрен кредит, покренута истрага и сл., директно зависи од ових система. Пошто је реч о важним људским правима, поставља се питање колико поверење можемо пружити овим системима.

Емпиријски је потврђено да су управо наведени системи, COMPAS и PredPol показали изражени расизам у доношењу одлука.[17] Наиме, иако се у теорији често идеализује да су машине, за разлику од људи, потпуно објективне и непристрасне, пракса је показала другачије. Показало се да наведени системи одређују дуже казне и чешће препознају као криминалце афро-американце и латино-американце.[18] Осим тога, софтвери које примењују банке су се показали такође као расистички, будући да су ређе одобравали кредит афро-американцима и латино-американцима.[19] Иако су наведени софтвери објективни, проблем настаје због начина на који функционишу. Сви наведени софтвери своје одлучивање базирају на већ донетим одлукама из појединих служби. Будући да је расизам био присутан у ранијим одлукама које су доносили људи, тај расизам је само пренет на софтвер који се користио тим одлукама.[20] Поред тога, емпиријски је утврђено да извођење закључака од стране ових софтвера некада може бити непредвидиво. Софтвери још увек нису способни да оцене који су критеријуми битни са људског аспекта.[21] Тако је у пракси тестиран систем детектора који је требало да разликује слике паса од вукова. Након пар унетих класификација, систем је готово без грешке разликовао псе од вукова. Међутим, у току теста је утврђено да је критеријум разликовања који је систем користио шума која је редовно била у позадини на сликама вукова, а није је било на сликама паса.[22] Коначно, могуће су и грешке карактеристичне за све компјутерске програме, односно да машина просто начини грешку. Тако је примена ових софтвера у Аустралији и Канади праћена скандалом, јер је софтвер који је примењен у социјалној служби доделио више средстава корисницима изазивајући огромну штету у буџету.[23]

Наведене грешке не треба да обесхрабре. Сви наведени системи су релативно скоро развијени. Постојеће грешке и неизвесности временом ће готово извесно бити превазиђене. Ипак, чињеница је да примена ових система у одлучивању о људским правима изазива како моралне, тако још више правне дилеме. Основни проблем код примене ових система се састоји у томе што ток одлучивања није транспарентан.[24] Другим речима, ови системи на овом нивоу развоја могу да донесу одлуку на бази наученог метода одлучивања и претраге, али не могу да је образложе. Једно од могућих решења би било дозволити транспарентност у погледу начина функционисања ових софтвера. Међутим, истраживања показују да откривање изворног кода ових софтвера не значи пуно. Поред чињенице да већина не може да протумачи наведени код, из кода није могуће видети на који начин је у конкретном случају изведен закључак. Осим тога, изворни код може бити злоупотребљен од стране конкурената, што може нанети штету компанијама које развијају ове софтвере.[25] Једна од могућности превазилажења ових проблема је заправо контрола input-а односно података на којима се софтвери „уче“. Међутим, показало се у једном емпиријском истраживању да је и поред искључивања тзв. „расистичких“ input-а, систем и даље показивао висок степен расизма  у одлучивању.[26]

Услед постојања наведених недостатака ради се на развоју софтвера, којима ће се омогућити увид у начин одлучивања софтвера који примењују машинско учење.[27] Осим тога, системи се све више усавршавају како би се могућност грешке свела на минимум. Ипак, дискутабилно је да ли је увођење оваквих система у складу са начелима судских и управних поступака и са правним системом уопште. Принципи правног одлучивања развијани су у време када су по путевима ишле коњске запреге, те су прописи у многим аспектима неприлагођени могућности вођења поступка и доношења одлуке од стране машина. Стога је потребно након овог кратког прегледа могућности вештачке интелигенције и проблема који настају у пракси испитати како правни систем одговара на примену наведених софтвера.

III ПРАВНО РЕГУЛИСАЊЕ АУТОМАТСКОГ ОДЛУЧИВАЊА

Одлучивање применом вештачке интелигенције је у позитивном праву регулисано само делимично и то у оквирима права заштите података о личности. На европском нивоу оно је уређено Општом уредбом о заштити података о личности,[28] на чијим основама је, у складу са обавезом хармонизације, усвојен Закон о заштити података о личности.[29] Одредбама ових прописа регулише се аутоматизовано одлучивање и профилисање. Оне су уведене управо са циљем регулисања аналитичког одлучивања заснованог на великим групама података. Дефиниција аутоматизованог одлучивања није дата, док је чланом 4. ЗЗПЛ (4. GDPR) одређено да је профилисање сваки облик аутоматизоване обраде који се користи да би се оценило одређено својство личности, посебно у циљу анализе или предвиђања радног учинка физичког лица, његовог економског положаја, здравственог стања, личних склоности, интереса, поузданости, понашања, локације или кретања. У вези са аутоматским одлучивањем и профилисањем је прописано да лице на које се подаци односе има право да се на њега не примењује одлука донета искључиво на основу аутоматизоване обраде, укључујући и профилисање, ако се том одлуком производе правне последице по то лице или та одлука значајно утиче на његов положај.[30] Ова одредба представља заправо примену принципа контроле података од стране лица на које се подаци односе који је примењен кроз цело право заштите података о личности.[31] Одредбом се омогућује лицу на које се подаци односе да одлучи о томе да ли ће на њега бити примењено аутоматизовано одлучивање и профилисање или не.

У теорији је спорно да ли оваква одредба представља „забрану одлучивања“ или „право на супротстављање аутоматизованом одлучивању“.[32] Проблем у тумачењу је настао због начина на који је одредба редигована, јер је одређено да лице „има право да се на њега не примењује“ (енг. “right not to be subject to…”). Иако је било предлога да се ова одредба изричито уреди као забрана, задржано је решење из раније Директиве у овој области.[33] У теорији је чак изражен став да је решење из Директиве било више конципирано као забрана него што је то случај са садашњим решењем.[34] Разлика није само стилска. Уколико наведена одредба представља забрану, у том случају се на лице на које се подаци односе не сме применити аутоматско одлучивање и профилисање, сем ако не постоје изузеци из наредног става. Уколико је пак реч о праву, онда лице на које се подаци односе има само право да се супротстави пред надлежним органима аутоматском одлучивању, а ни на то неће имати право ако су присутни изузеци из наредног става.[35] У нашој правној теорији је изражен став да је реч о праву.[36] Ипак, Article 29 Working Party /European Data Protection Board, као тело у које су окупљени сви повереници за заштиту података о личности Европске уније, изразило је став да је у питању забрана, а не право.[37] Ставови овог тела су веома утицајни. Међутим, једино релевантно тумачење права Европске уније је тумачење Суда правде Европске уније, те ћемо у будућности видети како ће у судској пракси ова недоумица бити решена.

Оно што је несумњиво јесте да домашај одредбе није велики. Истина је да је одредба тако формулисана да аутоматизовано одлучивање није искључиво везано за системе машинског учења, што је добро, јер се у будућности могу развити и други напреднији системи. Истовремено покривени су и традиционални софтвери (енг. rule based). Такође, одредба није ограничена само на одлучивање од стране државних органа, већ се односи и на приватне компаније.[38] Ипак, њено дејство је ограничено на случајеве искључивог или предоминантног аутоматизованог одлучивања и профилисања, што значи да не покрива случајеве у којима системи вештачке интелигенције само асистирају одлучивању.[39] Ово ограничење је уведено под притиском банака и осигуравајућих друштава које примењују софтвере за профилисање и аутоматско одлучивање, али се коначна одлука доноси од стране човека.[40] Притом, захтевано је да ниво људског одлучивања буде значајан, што није лако одредити. Затим, примена одредбе је додатно ограничена захтевом да одлучивање или профилисање мора имати правне последице или значајно утицати на живот лица на које се подаци односе. Према ставовима у теорији реч је о свакој одлуци која утиче на понашање, преференце и околности лица на које се подаци односе. Под њима нарочито треба разумети одлуке којима се утиче на финансије, образовање, запослење или приступ здравственом систему. Овде су убројане и све одлуке којима се лице на које се подаци односе дискриминише по неком основу.[41] Према другима, овде треба подвести све одлуке којима се регулише неки друштвени однос.[42] Коначно, дејство одредбе је искључено и у случајевима када се аутоматизовано одлучивање и профилисање примењује од стране надлежних органа у посебне сврхе, што значи да ове гаранције неће важити у случају када аутоматизовано одлучивање и профилисање примењују органи кривичног гоњења.[43]

Осим ових ограничења, ставом другим је прописано да наведено право или забрана неће важити ако је одлука: 1) неопходна за закључење или извршење уговора између лица на које се подаци односе и руковаоца; 2) заснована на закону, ако су тим законом прописане одговарајуће мере заштите права, слобода и легитимних интереса лица на које се подаци односе; 3) заснована на изричитом пристанку лица на које се подаци односе. Прописивање могућности пристанка и унапред датог пристанка кроз уговор на аутоматизовану обраду изазива одређене сумње у гаранцију заштите интереса појединца. Ово због тога што би економски јача страна, која по правилу примењује системе машинског учења, могла да принуди лице на које се подаци односе на пристанак, као услов за закључење посла (нпр. давање кредита).[44] Из тог разлога су предвиђене додатне гаранције прописане ставом 3. према којима је руковалац дужан да примени одговарајуће мере заштите права, слобода и легитимних интереса лица на које се подаци односе, а најмање право да се обезбеди учешће физичког лица под контролом руковаоца у доношењу одлуке (енг. human in the loop), право лица на које се подаци односе да изрази свој став у вези са одлуком, као и право лица на које се подаци односе да оспори одлуку пред овлашћеним лицем руковаоца. Сем тога, да би пристанак био валидан, у складу са чл. 23. ЗЗПЛ (чл. 13. GDPR), потребно је да је лице пре давања пристанка било упознато са тим да ће бити примењено аутоматизовано одлучивање или профилисање и да добије најмање сврсисходне информације о логици која се при томе користи, као и о значају и очекиваним последицама те обраде по њега.

Овим последњим условом је заправо захтевано постојање образложења аутоматизоване одлуке. Ипак, ово образложење не представља ex post, већ ex ante образложење одлуке.[45] Другим речима, лице пре него што да пристанак мора бити упознато са основним начинима функционисања система који се примењује. Ово је и изричито признато у одлукама италијанског Касационог и немачког Савезног врховног суда.[46] Међутим, дато образложење не подразумева откривање изворног кода програма нити других пословних тајни.[47] Такође, није захтевано да наведено образложење садржи правно-логичко образложење одлуке коју је аутоматизовани систем донео попут образложења одлуке државних органа, већ само значајну информацију о томе на који начин систем технички обрађује податке.[48] Значај оваквог образложења, с обзиром на различитост образовања појединаца, би могао бити дискутабилан.[49]

Пристанак лица на које се подаци односе је праћен још једним условом. Аутоматизована обрада и профилисање на бази пристанка, не може бити заснована на посебним врстама података о личности, сем у случајевима у којима је обрада ових података изузетно допуштена у складу са ЗЗПЛ и ако су обезбеђене одговарајуће мере заштите права, слобода и легитимних интереса лица на које се подаци односе.[50] Реч је о заштити посебно осетљивих података о личности, који у оквиру целе области имају посебну заштиту и њихова обрада је забрањена осим у посебним случајевима. Додатна заштита ових података је у складу са ризиком који производи могућност давања пристанка на обраду.[51]

IV ПОТРЕБА СВЕОБУХВАТНОГ РЕГУЛИСАЊА

Није тешко закључити на основу анализе наведене одредбе да је регулисање одлучивања вештачке интелигенције у доброј мери поднормирано и неадекватно. Ово тврдимо из више разлога. Прво, вештачка интелигенција, односно примена метода машинског учења представља свеобухватни друштвени феномен. Наведеном одредбом је регулисано само питање заштите података о личности са аспекта аутоматизованог одлучивања и профилисања. Иако је наведена одредба уведена управо из разлога примене метода машинског учења на велике групе података (енг. big data analytics),[52] овим се не завршавају све правне последице и ризици које примена ових метода изазива, јер као што смо видели, постоје системи који се примењују и за детектовање, симулацију и слично. Штавише, ни предлог нове регулативе о вештачкој интелигенцији који је у припреми, не регулише још увек све области.[53] Даље, поред чињенице да се морају регулисати аспекти и других грана права, наведена одредба је ограниченог дејства и у погледу заштите података, јер се њоме пружа заштита само подацима о личности, а не и осталим подацима.

Чак и на нивоу заштите података о личности, наведена одредба се чини поднормираном и неадекватном. Најпре, није адекватно регулисати јединственом одредбом одлучивање јавног и приватног сектора. Аутоматизовано одлучивање у јавном сектору мора бити праћено вишим стандардима и гаранцијама него што је то случај са приватним сектором. Наведена одредба је више прилагођена потребама банака и осигуравајућих друштава, које за сада једине примењују машинско учење у ширем обиму. Међутим, као што смо видели, због ограничења дејства она се управо на њих не примењује. С друге стране, државни органи у свом одлучивању морају остварити далеко виши ниво транспарентности у одлучивању.[54] Осим тога, ту су и одређена начела судског и управног поступања која се морају испоштовати, која су неважна у приватном сектору. У првом реду ту мислимо на право на жалбу. Како би се оно адекватно остварило неопходно је да свака одлука државног органа има правно-логичко образложење. На овом нивоу развоја софтвери који примењују машинско учење нису још увек у стању да за донету одлуку пруже правно-логичко образложење. Самим тим је ограничена и могућност жалбе, а чини се илузорним и признато право да се аутоматизована одлука оспори.[55] Другостепени орган не може одлучивати по жалби уколико не постоји образложење које наведену одлуку прати. Образложење начина функционисања система је стога недовољно када је реч о одлучивању државних органа. Поставља се и питање процесне равноправности, јер се може десити да једна страна у поступку примењује системе вештачке интелигенције у циљу прибављања доказа, док друга нема средстава да то себи приушти.[56]

Осим наведеног и гаранције које су пружене се не чине адекватним ни када је реч о приватном сектору. У теорији је изражен јасан став о потреби увођења више транспарентности и контроле рада алгоритама уз примену принципа минимизације података.[57] Прво, ex ante информисање о начину функционисања система не значи пуно лицима која нису информатичари и не разумеју принципе машинског учења. Отуда, ова одредба не пружа пуно у погледу демократизације примене вештачке интелигенције. Осим тога, пристанак као средство при овако ограниченим могућностима за транспарентност има мали значај, а може бити и изнуђен у циљу закључења неопходних уговора.[58] Коначно, ни гаранција којом се предвиђа да крајњу одлуку мора донети човек не представља идеално решење. У теорији је утврђено да је могуће симулирати људско присуство у одлучивању.[59] Дискутабилно је и колико би уопште било могуће да човек обради велике групе података.[60] Сем тога, људско одлучивање је по многим карактеристикама слично одлучивању вештачке интелигенције, нарочито у погледу могућности грешке и дискриминације. Чак је и транспарентност упитна имајући у виду могућност постојања скривених мотива.[61] Због тога се у теорији истиче да људско одлучивање није pancea, односно лек за све проблеме.[62] Ипак, обезбеђивање људског одлучивања на овом нивоу развоја представља и даље најзначајнију гаранцију. Ово је потврђено и у одлуци Врховног суда Савезне државе Висконсин из 2016. године.[63] Предлог AIA Европске уније, управо предвиђа људско одлучивање као главни гарант заштите од потенцијално штетних ефеката вештачке интелигенције. У овој фази усвајања предвиђено је да се увек мора обезбедити људски надзор у функционисању вештачке интелигенције, како у погледу података који се уносе, тако и у погледу могућности да се рад вештачке интелигенције прекине.[64] Ово је у складу са прокламованом „човеко-центричном“ оријентацијом акта.[65] Људско одлучивање се за разлику од вештачке интелигенције карактерише већом отвореношћу у погледу примене различитих правних принципа. Примена вештачке интелигенције би потенцијално могла да ограничи или у потпуности искључи развој праксе у одлучивању.  Коначно, машинско учење није могуће применити у областима у којима не постоји развијена пракса.[66]

Док се системи машинског учења не усаврше толико да могу да образложе донету одлуку, сматрамо да је оправдано увести право на приговор лица на које се подаци односе. Уместо информације о начину функционисања система, лице би било информисано о томе да се примењује аутоматизовано одлучивање и да против такве одлуке има право да поднесе приговор. Уколико лице не би било задовољно необразложеном одлуком, оно би могло да упути приговор, након чега би о његовом предмету одлучивао човек. На овај начин би се постигла равнотежа интереса. С једне стране, омогућава се коришћење машинског учења за решавање великог броја предмета, чиме се остварује општи интерес убрзавања одлучивања, а, с друге стране, странци се даје могућност да, ако није задовољна одлуком, приговором тражи одлучивање од стране човека. Истовремено, тиме се превазилази проблем који постоји у погледу одсуства ex post образложења, јер се приговором само одлука оспорава и тражи класично одлучивање од стране човека. Под овим условима сматрамо да би било могуће увести аутоматизовано одлучивање и у рад јавних органа, мада је потребно решити и друге проблеме.

V ЗAКЉУЧАК

Спроведеном анализом утврдили смо да постоје капацитети и могућности за примену вештачке интелигенције у одлучивању државних органа. Штавише, бројни системи већ сада асистирају раду државних органа САД, Аустралије и Канаде, са различитим успехом. Основни проблем ових система јесте недостатак транспарентности, односно чињеница да још увек нису развијени начини да се уђе у логику одлучивања ових система која је аутономна. Поред тога, показали су известан степен дискриминативности у одлучивању. Овакви проблеми не треба да чуде нити да обесхрабре, јер су наведени системи још увек у повоју. Ипак, ово актуелизује потребу правног регулисања аутоматизованог одлучивања, које је у овом тренутку ограничено на област заштите података о личности. Иако је дискутабилно да ли је реч о општој забрани или праву, начелно лице на које се подаци односе има могућност да искључи аутоматизовано одлучивање и профилисање, што не представља пуну контролу будући да може бити принуђено да пристанком од ове могућности одустане. Стога сматрамо да је приговор на одлуку донету од стране вештачке интелигенције, којим би се омогућило одлучивање од стране човека, далеко боље решење. На овај начин би били боље заштићени интереси појединца и превазиђен проблем нетранспарентности одлучивања вештачке интелигенције.

 

 

 

Nikola Milosavljević*

THE LEGAL REGULATION OF ARTIFICIAL INTELLIGENCE AUTOMATED DECISION MAKING

Summary

Capacities of artificial intelligence create new possibilities in advancing governmental work. Although the application of these systems already started, there is still no complete automated artificial intelligence decision-making. In the following paper, the author examines the current regulation of artificial intelligence automated decision-making, especially in the data protection domain. The author analyses if the current solution is acceptable and if there were possibilities for advancement. The aim of the paper is, using the sociological and dogmatic method, to make a survey of possible deficiencies of current automated decision-making regulation and to offer new solutions that would be aligned with artificial intelligence development.

Keywords: artificial intelligence, automated decision-making, data protection.

 


 



* Aсистент Правног факултета Универзитета у Крагујевцу, nmilosavljevic@jura.kg.ac.rs.

** Рад је настао као резултат рада на пројекту Нормативно кодирање вештачке интелигенције: изабрана питања – NormoCodeAI-034, финансиран од Центра за научноистраживачки рад САНУ и Универзитета у Крагујевцу.

[1] M. C. Hong, C. K. Hui, Towards a Digital Government: Reflections on Automated Decision-Making and the Principles of Administrative Justice, 879, https://heinonline.org/HOL/Page? handle=hein.journals/saclj31&collection=journals&id=512&startid=&endid=543, датум посете: 23. 09. 2022.

[2] L. Barrett, Deconstructing Data Mining: Protecting Privacy and Civil Liberties in Automated Decision-Making,155-156, https://heinonline.org/HOL/Page?handle=hein.journals/gtltr1&collection=journals&id=153&startid=&endid=159, датум посете: 23. 09. 2022.

[3] A. Z. Huq, A Right to a Human Decision, 631, https://www.jstor.org/stable/10.2307/ 27074704, датум посете: 23. 09. 2022.

[4] C. Castets-Renard, Accountability of Algorithms in the GDPR and beyond: A European Legal Framework on Automated Decision-Making, 98, https://heinonline.org/HOL/Page? handle=hein.journals/frdipm30&collection=journals&id=97&startid=&endid=144, датум посете: 23. 09. 2022.

[5] L. Barrett, op. cit., 153-154; A. E. Waldman, Power, Process, and Automated Decision-Making, 614, https://heinonline.org/HOL/Page?handle=hein.journals/flr88&collection= journals&id=629&startid=&endid=648, датум посете: 23. 09. 2022.

[6] С. Андоновић, Стратешко-правни оквири вештачке интелигенције у упоредном праву, Страни правни живот бр. 3, 2020, 120.

[7] H. Margetts, Rethinking AI for Good Governance, 361-365, https://www.jstor.org/stable/ 10.2307/48662048, датум посете: 23. 09. 2022.; A. E. Waldman, op. cit., 617.

[8] K. Weste, T. Clarke, Human Rights Drowning in the Data Pool: Identity-Matching and Automated Decision-Making in Australia, 25, https://heinonline.org/HOL/Page?handle=hein. journals/hurighdef27&collection=journals&id=101&startid=&endid=104, датум посете: 23. 09. 2022.

[9] M. C. Hong, C. K. Hui, op. cit., 883.

[10] H. Margetts, op. cit., 364.

[11] D. N. Kluttz, D. K. Mulligan, Automated Decision Support Technologies and the Legal Profession, 872, https://heinonline.org/HOL/Page?handle=hein.journals/berktech34&collection =journals&id=907&startid=&endid=944, датум посете: 23. 09. 2022.

[12] A. Agrawal, J. S. Gans, A. Goldfarb, Artificial Intelligence: The Ambiguous Labor Market Impact of Automating Prediction, 35, https://www.jstor.org/stable/10.2307/26621238, датум посете: 23. 09. 2022.

[13] M. C. Hong, C. K. Hui, op. cit., 880.

[14] K. Weste, T. Clarke, op. cit., 26.

[15] M. C. Hong, C. K. Hui, op. cit., 883.

[16] Ibid., 898.

[17] L. Barrett, op. cit., 157; M. Langford, Taming the Digital Leviathan: Automated Decision-Making and International Human Rights, 144, https://heinonline.org/HOL/Page? handle=hein.journals/ajilunbo114&collection=journals&id=141&startid=&endid=146, датум посете: 23. 09. 2022; H. Margetts, op. cit., 364; M. C. Hong, C. K. Hui, op. cit., 883; K. Weste, T. Clarke, op. cit., 27.

[18] L. Barrett, op. cit., 158; H. Margetts, op. cit., 364.

[19] T. B. Gillis, J. L. Spiess, Big Data and Discrimination, 464, https://www.jstor.org/stable/ 10.2307/26590562, датум посете: 23. 09. 2022.

[20] M. C. Hong, C. K. Hui, op. cit., 886; A. E. Waldman, op. cit., 622.

[21] M. C. Hong, C. K. Hui, op. cit., 885.

[22] A. E. Waldman, op. cit., 618.

[23] M. C. Hong, C. K. Hui, op. cit., 881; M. Langford, op. cit., 142.

[24] J. A. Kroll et al., Accountable Algorithams, https://www.jstor.org/stable/26600576? seq=1&cid=pdf-reference#references_tab_contents, датум посете: 23. 09. 2022; H. Margetts, op. cit., 366; A. E. Waldman, op. cit., 623-624.

[25] J. A. Kroll, et al., op. cit., 657-660.

[26] T. B. Gillis, J. L. Spiess, op. cit., 469.

[27] J. A. Kroll, et al., op. cit., 650-651; M. C. Hong, C. K. Hui, op. cit., 889; A. E. Waldman, op. cit., 618-619.

[28] Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (GDPR), OJ L 119, 1–88, 4. 5. 2016.

[29] Закон о заштити података о личности (ЗЗПЛ), Службени гласник РС, бр. 87 од 13. новембра 2018.

[30] Чл. 38. ст. 1. ЗЗПЛ и чл. 22. ст. 1. GDPR.

[31] M. Hawath, Regulating Automated Decision-Making: An Analysis of Control over Processing and Additional Safeguards in Article 22 of the GDPR, 162, https://heinonline.org/HOL/Page?handle=hein.journals/edpl7&collection=journals&id=179&startid=&endid=191, датум посете: 23. 09. 2022.

[32] M. Hawath, op. cit., 164; L. Tosconi, The right to object to automated individual decisions: Resolving the ambiguity of Article 22(1) of the General Data Protection Regulation, 1, https://ssrn.com/abstract=3845913, датум посете: 23. 09. 2022.

[33] L. Tosconi, op. cit., 11.

[34] A. Himanshu, Automated Decision Making: European (GDPR) and Indian Perspective (Indian Personal Data Protection Bill, 2018), 2, https://ssrn.com/abstract=3680409, датум посете: 23. 09. 2022.

[35] S. Wachter, B. Mittelstadt, L. Floridi, Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation, 37-39, https://ssrn.com/abstract=2903469, датум посете: 23. 09. 2022; M. Hawath, op. cit., 164.

[36] Z. Jovanović, S. Andonović, Automated decision making in administrative procedure: myth or reality?, НБП,  Наука, безбедност, полиција: часопис Полицијске академије бр. 25 (3), 2020, 67.

[37] E. Bayamlıoğlu, Transparency of Automated Decisions in the GDPR: An Attempt for systemization, 32, https://ssrn.com/abstract=3097653, датум посете: 23. 09. 2022; L. Tosconi, op. cit., 3-4.

[38] E. Bayamlıoğlu, op. cit., 8.

[39] Ово је изричито потврђeно и у пресуди немачког Савезног врховног судa VI ZR 156/13, 28. 01. 2014 – SCHUFA, нав. према: E. Bayamlıoğlu, op. cit., 6-7; S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 34.

[40] E. Bayamlıoğlu, op. cit., 7.

[41] A. Himanshu, op. cit., 7.

[42] E. Bayamlıoğlu, op. cit., 10.

[43] A. von Ungern-Sternberg, § 30 Diskriminierungsschutz bei algorithmenbasierten Entscheidungen, 20, https://ssrn.com/abstract=3828696, датум посете: 23. 09. 2022.

[44] E. Bayamlıoğlu, op. cit., 34.

[45] S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 47. Има и ставова према којима се овде може мислити и на ex post и на ex ante образложење. A. Himanshu, op. cit., 10. У пракси, међутим, видели смо да системи за ex post образложење још увек нису развијени.  

[46] Пресуда немачког Савезног врховног суда VI ZR 156/13, 28. 01. 2014, SCHUFA нав. према: S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 24.; и пресуда италијанског Касационог суда 14381/2021, 25. 05. 2021. год., нав. према: G. Bincoletto, Supreme Court of Cassation on Automated Decision Making: Invalid Consent if an Algorithm is Not Transparent, 252, https://heinonline.org/HOL/Page?handle=hein.journals/edpl7&collection =journals&id=266&startid=&endid=271, датум посете: 23. 09. 2022.

[47] S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 29-30.

[48] E. Bayamlıoğlu, op. cit., 19-20; S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 19.

[49] S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 46.

[50] Чл. 38. ст. 3. ЗЗПЛ и чл. 22 ст. 3. GDPR.

[51] L. Tosconi, op. cit., 16.

[52] E. Bayamlıoğlu, op. cit., 27; A. Himanshu, op. cit., 1.

[53] European Comission, Proposal for a regulation of the european parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts (AIA), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206, датум посете: 16. 03. 2023.

[54] E. Bayamlıoğlu, op. cit., 17; S. Wachter, B. Mittelstadt, L. Floridi, op. cit., 31.

[55] E. Bayamlıoğlu, op. cit., 40.

[56] M. Hawath, op. cit., 168.

[57] M. Hawath, op. cit., 169-173.

[58] M. Hawath, op. cit., 166.

[59] K. Brennan-Marquez, K. Levy, D. Susser, Strange Loops: Apparent versus Actual Human Involvement in Automated Decision Making, 749. и даље, https://heinonline.org/HOL/Page? handle=hein.journals/berktech34&collection=journals&id=799&startid=&endid=826, датум посете: 23. 09. 2022.

[60] M. Hawath, op. cit., 167-168.

[61] A. Z. Huq, op. cit., 636-646.

[62] G. Lazcoz, P. De Hert, Humans in the GDPR and AIA governance of automated and algorithmic systems. Essential pre-requisites against abdicating responsibilities, 27, https://ssrn.com/abstract=4016502, датум посете: 23. 09. 2023.

[63] A. Z. Huq, op. cit., 617.

[64] Чл. 14. AIA.

[65] G. Lazcoz, P. De Hert, op. cit., 9.

[66] A. Z. Huq, op. cit., 684.

* Teaching assistant, Faculty of Law, University of Kragujevac.