Olgem algusest peale selged: kehtiva Hollandi ja ELi õiguse kohaselt ei saa algoritmi kuriteo eest kriminaalvastutusele võtta. See on algusest peale ebaloogiline. Põhilised õigusmõisted nagu kuritegelik kavatsus (meeste rea) ja juriidilise isiku staatus on reserveeritud inimestele ja teatud olukordades ka ettevõtetele.
See lihtne vastus on aga alles palju keerulisema vestluse algus. Algoritmi toimingud on muutumas ülioluliseks nende inimeste süü – või süütuse – tõestamisel, kes neid loovad, juurutavad ja jälgivad.
Kas algoritm saab kuriteos süüdi olla?
Kui me räägime tehisintellektist kriminaalasjas seadus Kontekstis on tegelik küsimus selles, kas algoritm võib sattuda kostja toolile. Juriidilisest vaatenurgast on vastus täna kindel ei. Ükskõik kui keerukas see ka poleks, algoritmil lihtsalt puuduvad kohtu alla andmiseks vajalikud põhijooned. Sellel pole teadvust, isiklikku vara, mida arestida, ega vabadust, mida ära võtta.
See juriidiline reaalsus sunnib tähelepanu keskpunkti nihkuma tööriistalt kasutajale. Kasulik on mõelda täiustatud tehisintellekti süsteemist kui väga keerulisest, kuid lõppkokkuvõttes elutust instrumendist – sarnaselt isejuhtiva auto või automatiseeritud tehasemasinaga. Kui masin tekitab kahju, ei algata seadus mitte masina vastu menetlust, vaid uurib selle taga olevaid inimesi.
Õigusliku isiku ja kavatsuse takistused
Kriminaalõigus tugineb kahele sambale, mida tehisintellekt lihtsalt ei suuda täita: juriidilise isiku staatus ja kuritegelik kavatsus. Selleks, et mis tahes üksust saaks süüdistuse esitada, peab seadus seda tunnustama "isikuna", mis tähendab kas füüsilist isikut (inimest) või juriidilist isikut (näiteks ettevõtet). Tehisintellekti süsteemid ei kuulu kumbagi kategooriasse.
Veelgi olulisem on see, et enamiku raskete kuritegude puhul on vaja tõendeid meeste rea– „süüdimõistus“. See seisneb tõestamises, et kostja tegutses kindla vaimse seisundiga, olgu see siis tahtlik, teadlik või hoolimatu. Algoritm töötab koodi ja andmete põhjal; see ei kujunda kavatsusi ega taba oma tegude moraalset väärust.
Peamine raskus tuleneb süsteemi võimest valida ja tegutseda iseseisvalt, lisades seeläbi inimliku kavatsuse ja sellest tuleneva kahju vahele mitte-inimliku agendi. See häirib kriminaalõiguses tavapärast vastutuse omistamise mudelit.
Otse asja juurde jõudes seisab seadus silmitsi oluliste takistustega sajanditevanuste õiguspõhimõtete kohaldamisel autonoomsele tehnoloogiale. Allolev tabel võtab kokku põhiprobleemi.
Algoritmilise kriminaalvastutuse praegune seis
| Õiguskontseptsioon | Rakendamine inimestele | Rakendus tehisintellekti süsteemidele |
|---|---|---|
| Juriidiline isik | Inimesed on "füüsilised isikud", kellel on seadusest tulenevad õigused ja kohustused. Korporatsioonid võivad olla "juriidilised isikud". | Tehisintellekti süsteemi peetakse omandiks või tööriistaks. Sellel puudub iseseisev õiguslik alus. |
| Kuritegelik kavatsus (Meeste Rea) | Prokurörid peavad tõestama "süüd meelt", näiteks kavatsust, hoolimatust või teadlikkust väärteost. | Algoritm toimib oma programmeerimise ja sisestatud andmete põhjal. Sellel puudub teadvus, uskumused või soovid. |
| Füüsiline tegu (Actus Reus) | Inimene peab olema toime pannud tahtliku füüsilise teo (või süülise tegevusetuse). | Tehisintellekti "toimingud" on koodi väljundid. Need ei ole inimese mõistes vabatahtlikud teod. |
| Karistus | Sanktsioonide hulka kuuluvad vangistus, rahatrahvid või ühiskondlikult kasulik töö, mille eesmärk on kättemaks ja heidutus. | Tehisintellekti ei saa vangistada ega trahvida. Koodi "karistamine" (nt kustutamine) ei sobi õiguslikesse raamistikesse. |
Nagu näete, on siin üks põhimõtteline ebakõla. Kogu kriminaalõiguse struktuur on üles ehitatud inimese tegutsemisvõimele, mis tehisintellektil puudub.
Omistatud vastutus kui õiguslik raamistik
Seega, kuna algoritmi ei saa süüdi mõista, tugineb Hollandi seadus kontseptsioonile omistatud vastutusSee tähendab lihtsalt seda, et vastutus tehisintellekti tegude eest määratakse – või omistatakse – inimesele või ettevõttele. Sellisel juhul saab tehisintellekti väljundist oluline tõend, mis viitab selle inimestest kontrollijate tegudele või hooletusele.
See lähenemisviis ei ole revolutsiooniline. See peegeldab otseselt seda, kuidas seadus käsitleb kuritegusid, mis on toime pandud teiste keerukate vahendite abil. Näiteks kui ettevõte müüb teadlikult ohtlikult defektiga toodet, mis põhjustab vigastusi, vastutavad ettevõte ja selle juhid, mitte toode ise.
Selle põhimõtted on kooskõlas väljakujunenud õigusdoktriinidega. Õigusspetsialistidele, kes selles valdkonnas orienteeruvad, on oluliseks lähtepunktiks olemasolevate raamistike põhjalik mõistmine. Meie üksikasjalik juhend ... kriminaalmenetlus Hollandis pakub suurepärase ülevaate sellest, kuidas need juhtumid uurimisest kohtuotsuseni jõuavad. Praegune väljakutse ei seisne mitte uute seaduste nullist leiutamises, vaid nende tõestatud põhimõtete kohandamises autonoomsete süsteemide ainulaadse keerukusega.
Kuidas Hollandi seadusandlus määrab süüd tehisintellekti abil toime pandud kuritegudes
Kuna algoritmi ennast ei saa kohtu alla anda, pöördub Hollandi õigussüsteem vastutuse määramiseks olemasolevate, inimkesksete doktriinide poole. Selle ülesande peamine õiguslik vahend on doktriin funktsionaalne toimepanemine (funktsionaalne esimees).
See võimas põhimõte lubab kohtul võtta isiku või ettevõtte kriminaalvastutusele teo eest, mida nad füüsiliselt ei toime pannud, kui nad olukorda tegelikult kontrollisid.
Mõelge sellele nii: ehitusfirma direktor ei opereeri isiklikult iga ehitusplatsil olevat kraanat. Aga kui nad käsivad operaatoril teadlikult vigast kraanat kasutada ja juhtub õnnetus, on direktor vastutav. Sama loogika kehtib ka siis, kui „kraana” on keerukas tehisintellekti süsteem. Tähelepanu keskmes on see, mida algoritm tegi, ja inimlikud otsused, mis võimaldasid õnnetusel juhtuda.
See on kriitilise tähtsusega kontseptsioon kõigile tehisintellektiga töötavatele inimestele, kuna see annab prokuröridele otsese tee siduda tehisintellekti kahjulik väljund isiku või ettevõttega. See väldib osavalt algoritmi „kavatsuse” tõestamise võimatut ülesannet ja keskendub selle asemel selle inimlike peremeeste kavatsustele ja hooletusele.
Kaks funktsionaalse toimepanemise testi
Selleks, et prokurör saaks kohtus funktsionaalse kuriteo olemasolu edukalt tõestada, peab ta vastama kahele peamisele kriteeriumile. Need kriteeriumid on sambad, mis määravad, kas inimest või ettevõtet saab pidada tehisintellekti abil toime pandud kuriteo „funktsionaalseks“ autoriks.
-
Kontrolli võim (Beschikkingsmacht)Kas isikul või ettevõttel oli tegelik võim otsustada, kas tehisintellekti kuritegelik käitumine aset leiab? See kõik puudutab autoriteeti ja järelevalvet – näiteks tehisintellekti tööreeglite kehtestamist, selle sulgemise võimalust või otsustusprotsessi suunavate parameetrite määratlemist.
-
Vastuvõtmine (Aanvaarding)Kas üksikisik või ettevõte võttis riski, et kuritegu võib aset leida? Oluline on see, et see ei nõua otsest tahtlust. Seda saab tõestada, kui nad teadsid kahjuliku tulemuse võimalusest, kuid otsustasid teadlikult mitte kehtestada piisavaid kaitsemeetmeid.
Need kaks sammast – kontroll ja aktsepteerimine – moodustavad aluse sellele, kuidas Hollandi seadusandlus vastab küsimusele „Kas algoritm saab olla osaliselt vastutav?“. Vastus on selge eitav, kuid selle inimlikku kontrollijat saab pidada tervikuna vastutav.
Praktiline stsenaarium: autonoomse drooni vigastus
Rakendame seda reaalses olukorras. Kujutage ette, et logistikaettevõte võtab kasutusele autonoomsete tarnedroonide laevastiku. Üks tehisintellekti navigatsioonisüsteemi juhitav droon läheb rahvarohke avaliku väljaku kohal rikki ja põhjustab tõsise vigastuse.
Ettevõtte vastu süüdistust koostav prokurör tugineks suuresti funktsionaalsele kuriteo raamistikule:
-
Kontrolli tõestamineNad demonstreeriksid, et ettevõttel oli droonide laevastiku üle täielik kontroll. Ettevõte määras tarnemarsruudid, haldas tarkvarauuendusi ja hoidis all "tapmislülitit", et droonid igal hetkel maandada.
-
Vastuvõtmise tõestamineVõib ilmneda tõendeid, mis näitavad, et ettevõte oli teadlik oma tehisintellekti olemasolust 5% veamäära tihedalt asustatud linnapiirkondades, kuid otsustas selle ikkagi kulude vähendamiseks kasutusele võtta. Süsteemi käitamisega hoolimata sellest teadaolevast riskist aktsepteeris ettevõte sisuliselt kahjuliku tulemuse võimalust.
Selle doktriini kohaselt saab ettevõte kuriteo toimepanijaks (nt raske kehavigastuse tekitamine hooletuse tõttu). Tehisintellekt on vaid vahend; ettevõtte otsused seda kasutada ja mitte piisavalt kontrollida moodustavad kuriteo.
Ettevõtte vastutus ja raske hooletus
See funktsionaalse kuriteo kontseptsioon laieneb otseselt ettevõtte kriminaalvastutusele. Organisatsiooni saab vastutusele võtta, kui kuritegelikku käitumist saab mõistlikult talle omistada. See tuleb sageli mängu raske hooletuse juhtudel, kus ettevõtte poliitika – või selle puudumine – lõi keskkonna, kus tehisintellektil põhinev kuritegu polnud mitte ainult võimalik, vaid ka ettenähtav.
Kuigi õiguspõhimõtted on hästi välja kujunenud, on nende kohaldamine tehisintellektile alles kujunemisjärgus. Hollandis ei ole 2025. aasta seisuga avaldatud ühtegi kohtuotsust, mis käsitleks konkreetselt kriminaalvastutust tekitatud kahju eest. Ainult tehisintellekti süsteemi autonoomse otsuse abil. See näitab, et õigusvaldkond on tehnoloogiale alles järele jõudmas.
Praegu kohandavad prokurörid neid üldisi doktriine, pidades isikuid vastutavaks, kui nad kontrollisid tehisintellekti ja aktsepteerisid selle potentsiaali õigusvastasteks tegudeks, näiteks hoolimatu tapmise juhtudel, mis tulenes tehisintellekti hoolimatust toimimisest. Lisateavet praeguse olukorra kohta saate lugeda siit. Tehisintellekt Hollandi õiguses ja selle mõju.
Õigusnõustajate jaoks seab see reaalsus fookuse ühele asjale: vastutustundliku inimliku järelevalve ja ennetava riskijuhtimise lähenemisviisi demonstreerimisele. Kontrolli puudumise tõestamine või väide, et kahjulik tulemus oli tõepoolest ettenägematu, on selliste süüdistuste vastu kaitsmisel kesksel kohal.
ELi tehisintellekti seaduse mõju kriminaalvastutusele
Kuigi Hollandi siseriiklik õigus meeldib funktsionaalne esimees pakub raamistiku süü omistamiseks, kuid maastikku kujundab dramaatiliselt ümber palju laiem algatus: Euroopa Liidu Tehisintellekti seadusSee ei ole lihtsalt järjekordne regulatsioon; see on terviklik riskipõhine raamistik, mis on loodud selleks, et reguleerida tehisintellekti süsteemide arendamist ja juurutamist ühtsel turul.
Õigusala spetsialistide ja ettevõtete jaoks on tehisintellekti seadusega tutvumine ülioluline, kuna see loob uusi vastavuskohustusi, millel on otsene seos kriminaalvastutusega. Selle rangete nõuete mittetäitmist saavad prokurörid kasutada hooletuse või kergemeelsuse võimsa tõendina, mis moodustab aluse kriminaalsüüdistustele, kui tehisintellekti süsteem tekitab kahju. See õigusakt nihutab vestluse pelgalt kahju tekitamisele reageerimisest selle ennetavale ennetamisele.
Tehisintellekti seadus kehtestab selge hierarhia, liigitades tehisintellekti süsteemid nende potentsiaali alusel kahjustada ohutust või põhiõigusi. See struktuur on võtmetähtsusega selle seose mõistmiseks kriminaalõigusega.
Riskikategooriate mõistmine
Seaduse kõige olulisem mõju tuleneb selle astmelisest lähenemisviisist. See ei kohtle kõiki tehisintellekte ühtemoodi. Selle asemel jagab see süsteemid kategooriatesse, millel kõigil on erinevad juriidilised kohustused.
-
Vastuvõetamatu riskNeid süsteeme peetakse põhiõigustele nii ohtlikuks, et need on täielikult keelatud. Mõelge valitsuse hallatavatele sotsiaalse hindamise süsteemidele või reaalajas biomeetrilisele tuvastamisele avalikes kohtades õiguskaitseorganite poolt (väheste eranditega).
-
Kõrge riskigaSee on kriminaalõiguse kõige kriitilisem kategooria. See hõlmab tehisintellekti kasutamist tundlikes valdkondades nagu kriitiline infrastruktuur, meditsiiniseadmed ja, mis kõige tähtsam, õiguskaitse ja õigusemõistmine. Ennustavad politseitöö vahendid ja tehisintellektil põhinev karistustarkvara kuuluvad täpselt sellesse rühma.
-
Piiratud riskSellistele süsteemidele, näiteks vestlusrobotitele, kehtivad leebemad läbipaistvusnõuded. Kasutajatele tuleb lihtsalt teada anda, et nad suhtlevad tehisintellektiga.
-
Minimaalne riskSellesse kategooriasse kuulub enamik tehisintellekti rakendusi, näiteks rämpsposti filtrid või tehisintellekt videomängudes, mis on suures osas reguleerimata.
Süsteemi juurutamine kategoorias „vastuvõetamatu risk” on otsene rikkumine, mis kahju tekitamisel võib kergesti toetada kriminaalse hooletuse juhtumi algatamist. Peamine õiguslik lahinguväli on aga kõrge riskiga süsteemid.
Kõrge riskiga süsteemid ja kuritegelik hooletus
Kõrge riskiga tehisintellekti puhul kehtestab seadus ranged nõuded, mis toimivad seadusliku hoolsusstandardina. Need kohustused ei ole soovitused, vaid arendajate ja juurutajate kohustuslikud ülesanded.
Kõrge riskiga süsteemide põhinõuete hulka kuuluvad tugev andmehaldus eelarvamuste vältimiseks, täielik tehniline dokumentatsioon, täielik läbipaistvus kasutajate jaoks, inimliku järelevalve võimaluse tagamine igal ajal ning kõrge täpsuse ja küberturvalisuse taseme säilitamine.
Kujutage ette, et ettevõte kasutab ennustavat politseialgoritmi ilma treeningandmeid korralikult rassilise eelarvamuse suhtes kontrollimata – see on seaduse andmehalduseeskirjade selge rikkumine. Kui see kallutatud süsteem viib alusetu vahistamiseni, mis tekitab kahju, on prokuröril valmis argument. Nad saavad viidata tehisintellekti seaduse mittejärgimisele kui otsesele tõendile ettevõtte suutmatusest mõistliku hoolsuse järele, muutes ettevõtte hooletuse süüdistuse tõestamise palju lihtsamaks.
ELi-ülene tehisintellekti seadus, mis jõustus Hollandis 2025. aasta veebruaris, kujundab seda õigusmaastikku põhjalikult. Seaduse mittetäitmine võib kaasa tuua ulatuslikke haldustrahve kuni 35 miljonit eurot ehk 7% aastasest kogukäibestHollandi valitsus on andnud organisatsioonidele korralduse tuvastada ja järk-järgult kõrvaldada kõik keelatud süsteemid, mis peegeldab tõsist muret vigase tehisintellekti pärast, mida on täheldatud näotuvastusvigade tõttu toimunud alusetute vahistamiste puhul. Kuna õigusteadlased propageerivad kostjate suuremaid õigusi tehisintellekti tõendeid vaidlustada, sillutab seadus teed rangemale kohtulikule kontrollile. Lisateavet nende uute eeskirjade kohta saate uurida Tehisintellekti seaduse jõustunud keelud.
Õppetunnid Hollandi lastehoiutoetuste skandaalist
Kuigi õigusteooriad pakuvad meile raamistikku, ei illustreeri miski algoritmilise ebaõnnestumise tegelikke riske nii hästi kui Hollandi lastehoiutoetuste skandaal või toeslagenaffaireSee riiklik kriis on südantlõhestav juhtumiuuring süsteemsest ebaõiglusest, mida ei juhi ükski pahatahtlik tegija, vaid läbipaistmatu, automatiseeritud süsteem, mis on täielikult kontrolli alt väljunud.
Skandaal paljastab laastava inimliku hinna, mis tekib siis, kui vastutus kaob nn musta kasti algoritmi sisse. Õigusspetsialistidele on see oluline õppetund sellest, kuidas automatiseeritud süsteemid, isegi kui neid ennast kriminaalkorras ei süüdistata, võivad põhjustada sügavat kahju ja purustada avalikkuse usalduse meie institutsioonide vastu.
Kuidas algoritm tuhandeid inimesi valesti süüdistas
Skandaali keskmes oli iseõppiv algoritm, mida kasutas Hollandi maksu- ja tolliamet. Selle ülesanne oli tuvastada võimalikke pettusi lastehoiutoetuste taotlustes. Kuigi eesmärk oli hea, oli süsteemi sisemine loogika sügavalt vigane ja lõppkokkuvõttes diskrimineeriv.
Algoritm hakkas tuhandeid peresid ekslikult petturiteks märgistama kriteeriumide alusel, mis oleksid pidanud olema ohutud. Väikesest haldusveast, näiteks puuduvast allkirjast, piisas täieulatusliku pettusejuurdluse käivitamiseks. Tagajärjed olid katastroofilised enam kui ... jaoks. 26,000 perekonda, kellelt kästi tagasi maksta kümneid tuhandeid eurosid, mis ajas paljud rahalisse hävingusse.
See olukord näitab, kui võimsalt suudab tehisintellekt ebaõiglust võimendada. Maksuhaldurite algoritmide diskrimineerivad mustrid olid ebaõiglaselt suunatud konkreetsetele rühmadele, põhjustades tõsist rahalist ja sotsiaalset kahju. Vastuseks riiklikule pahameelele avaldas Hollandi valitsus 2013. aastal „Käsiraamatu disainipõhise mittediskrimineerimise kohta“. 2021 et tulevastes tehisintellekti süsteemides selliseid eelarvamusi ennetavalt vältida. Lisateavet leiate Kuidas Hollandi seadusandlus tehisintellektiga kohaneb aadressil globalegalinsights.com.
Läbipaistvuse ja vastutuse kriitilised lüngad
. toeslagenaffaire rebis lahti mitu kriitilist lünka automatiseeritud otsuste tegemise õiguslikus ja eetilises järelevalves. Need puudused on keskse tähtsusega, et mõista, millal algoritmi väljund võib tekitada küsimusi selle inimestest operaatorite kriminaalvastutuse kohta.
Silma jäid kolm peamist ebaõnnestumist:
-
Läbipaistvuse puudumineMõjutatud peredele ei antud kunagi selget põhjust, miks nad märgistati. Süsteem oli must kast, mis tegi selle järelduste vaidlustamise võimatuks.
-
Inimese järelevalve puudumineAlgoritmi otsuseid käsitleti sageli absoluutsete tõestena. Inimametnikel oli süsteemne ebaõnnestumine automatiseeritud pettuste klassifikatsioonide kahtluse alla seadmisel või tühistamisel.
-
Süü presumptsioonKui süsteem perekonna süüks pani, peeti neid süüdi. See pööras tõendamiskoormise ümber, sundides neid võimatuks võitluseks oma süütuse tõestamiseks nähtamatu süüdistaja vastu.
Skandaal oli terav meeldetuletus, et kui automatiseeritud süsteem teeb elu muutva otsuse, ei ole "õigus selgitusele" luksus – see on õigluse põhikomponent. Ilma selleta ei saa olla sisukat apellatsiooni.
Kõigile, keda selliste süüdistustega silmitsi seisavad, on õigusraamistiku mõistmine ülioluline. Hollandi lähenemine pettustele on keeruline ja skandaal rõhutab vajadust ekspertide juhendamise järele. Lisateavet leiate siit. Hollandi õiguslik lähenemine pettustele ja finantskuritegevusele meie artiklis.
Tagajärjed: regulatsiooni edendamine
Kuigi ühtegi algoritmi kohtu alla ei antud, olid inimlikud ja poliitilised tagajärjed tohutud. See viis kogu Hollandi valitsuse tagasiastumiseni 1930. aastal. 2021Skandaalist sai võimas muutuste katalüsaator, mis mõjutas otseselt rangemate suuniste väljatöötamist tehisintellekti kasutamiseks avalikus halduses.
See tõestas, et isegi ilma kriminaalsüüdistusteta koodi enda vastu võib vigase ja kallutatud süsteemi hoolimatul juurutamisel olla samaväärsed tagajärjed kui laialt levinud institutsionaalsel hooletusel. See hoiatav lugu annab nüüd teavet regulatiivsetele aruteludele kogu Euroopas, sealhulgas ELi tehisintellekti seaduse üle, tagades, et läbipaistvus, õiglus ja inimjärelevalve oleksid iga tulevase tehisintellekti juurutamise esirinnas.
Kaitsestrateegiad tehisintellekti kaasamise korral
Kui kliendile esitatakse tehisintellekti süsteemi tegevuse tõttu kriminaalsüüdistus, astub tema õigusnõustaja uude ja keerulisse maailma. Tavapärane õiguskäsiraamat vajab põhjalikku ümbermõtestamist. Kindel kaitse peab keskenduma süüdistuse inimliku tahtluse või hooletuse süüdistuse lahtiseletamisele ning see tähendab sageli keskendumist algoritmi enda autonoomsele ja mõnikord ettearvamatule olemusele.
Suurim takistus iga prokuröri jaoks on tõestada, et inimesel oli konkreetne kuritegelik kavatsus.meeste rea) kui kahju otseseks põhjuseks oli keeruline algoritm. Just siin avaneb kaitsel parim võimalus. Eesmärk on tekitada mõistlik kahtlus, näidates, et inimesel lihtsalt puudus kontroll või ettenägelikkus, et teda tehisintellekti iseseisva otsuse eest kriminaalvastutusele võtta.
Musta kasti kaitsega kavatsuse vaidlustamine
Üks tugevamaid saadaolevaid argumente on see, "musta kasti" kaitseSee strateegia tugineb tõsiasjale, et paljud täiustatud tehisintellekti süsteemid, eriti süvaõppel või närvivõrkudel põhinevad, on oma olemuselt läbipaistmatud. Argument on lihtne: kui süsteemi loonud inimesed ei suuda täielikult selgitada, kuidas see konkreetse järelduseni jõudis, kuidas saab siis eeldada, et kasutaja oleks ette näinud ja kavatsenud kuritegelikku tulemust?
See kaitseargument puudutab otse tahtluse nõude tuuma. Advokaat saab väita, et tehisintellekti kahjulik tegu oli ettenägematu, tekkiv käitumine – omamoodi digitaalne juhus, mitte planeeritud kuritegu. Mida keerukam ja autonoomsem on tehisintellekt, seda veenvamaks see argument muutub.
Selle kaitse toimimiseks on teil absoluutselt vaja õigeid eksperte.
-
Digitaalse kohtuekspertiisi eksperdidNad saavad sukelduda tehisintellekti koodi, andmelogidesse ja otsustusprotsessidesse, et leida täpne punkt, kus see oma eeldatavast käitumisest kõrvale kaldus.
-
Tehisintellekti eetikud ja arvutiteadlasedNeed eksperdid saavad tunnistada teatud tehisintellekti mudelite sisseehitatud ettearvamatuse kohta. Nad saavad kohtule selgitada, miks „ebaõnnestunud” tulemus oli tehniline rike, mitte kostja tahte tulemus.
Käsitledes juhtunut ettenägematu rikkena, saab kaitsja sisuliselt väita, et süüdimõistmiseks vajalikku „süüdimõistust” lihtsalt ei ole.
Kontrolli puudumise või süülise tegematajätmise tõestamine
Teine tõhus strateegia on väita selle puudumist tõhus kontrollHollandi õiguspõhimõtte kohaselt funktsionaalne esimees (funktsionaalne toimepanemine) nõuab vastutus, et kostjal oleks olnud võim tegevust kontrollida. Kaitse saab sellele vastu vaielda, näidates, et kui tehisintellekt oli käivitatud ja tööle pandud, toimis see teatud määral autonoomselt, mis jättis selle tegevused kostja otsese mõju alt välja.
See võib hõlmata näitamist, et süsteem on loodud reaalajas õppima ja kohanema, muutes selle käitumise sujuvaks ja mitte täielikult etteaimatavaks. Kaitse seisukoht saab olema, et kostjat ei saa pidada vastutavaks tegevuse eest, mida ta ei saa otseselt juhtida ega mõistlikult peatada.
Selle kaitseargumendi tuum on nihutada narratiivi inimlikust süüst tehnoloogilise autonoomia narratiivi poole. See käsitleb kostjat mitte kui toimepanijat, vaid kui süsteemi ettearvamatu loogika ohvrit.
Kui tehisintellekti teod võivad kaasa tuua kriminaalvastutuse, on tugev Tehisintellekti agendi piirded Kohaldamine ei ole mitte ainult oluline ennetav meede, vaid ka tugeva kaitse oluline osa. Tõestades, et selliseid tipptasemel ohutusmeetmeid rakendati, saab tugevalt toetada argumenti, et kostja ei võtnud hoolimatult kahjuliku tulemuse riski.
Lõppkokkuvõttes on õigus õiglasele kaitsele ülimalt oluline, isegi tehniliselt keerulistes kohtuasjades. Kostjal on põhilised kaitsemeetmed, nagu iga inimkeskse kuriteo puhul. Nende põhiprintsiipide mõistmiseks laiemas kontekstis saate lisateavet järgmiste teemade kohta: õigus kriminaalasjades vaikida ja kuidas see Hollandi õiguses kohaldub.
Praktiline vastavuse tegevuskava tehisintellekti kasutavatele ettevõtetele
Õigusteooriate tundmine on üks asi, aga kindla vastavusraamistiku loomine on hoopis teine väljakutse. Tehisintellekti kasutavate ettevõtete jaoks Hollandis ja kogu ELis on kriminaalvastutuse riski juhtimise parim viis ennetav juhtimine ja võime näidata, et olete oma kodutöö ära teinud. Selge tegevuskava on hädavajalik.
Asi ei ole innovatsiooni lämmatamises. Asi on nutikate kaitsemeetmete kehtestamises oma ettevõtte, klientide ja maine kaitsmiseks. Tugeva sisemise raamistiku loomisega loote ka võimsa kaitse hooletuse või kergemeelsuse väidete vastu, kui tehisintellekti süsteem peaks kunagi ootamatut kahju tekitama.
Tehisintellekti juhtimise aluse loomine
Esiteks: teil on vaja selget järelevalve ja vastutuse struktuuri. See pole ainult IT-probleem; see on põhiline ärivastutus, mis vajab teie juriidiliste, vastavus- ja juhtkonna meeskondade täielikku tuge. Tugeva süsteemi kasutuselevõtt Tehisintellekti haldamise parimad tavad on oluline samm riskide juhtimiseks ja tehisintellekti seadusliku ja eetilise juurutamise tagamiseks.
Teie juhtimismudel peab tuginema mõnele põhisambale:
-
Inimkeskne järelevalveIga olulise otsuse puhul peab inimesel olema viimane sõna. Sellel inimesel või meeskonnal peab olema autoriteet ja tehniline oskusteave, et sekkuda, parandusi teha või tehisintellekti soovitused täielikult tühistada.
-
Selged vastutuspiiridPeate täpselt määratlema, kes vastutab tehisintellekti süsteemi eest igas etapis – alates arendamisest ja andmete hankimisest kuni juurutamise ja pideva jälgimiseni. Kõik siinsed hallid alad tekitavad olulisi õiguslikke riske.
-
Regulaarsed algoritmilised auditidNii nagu te auditeerite oma ettevõtte rahandust, peate regulaarselt auditeerima ka oma tehisintellekti süsteeme. Neid auditeid peaksid läbi viima sõltumatud kolmandad osapooled, et kontrollida toimivust, õiglust ja vastavust sellistele eeskirjadele nagu ELi tehisintellekti seadus.
Selgitatavuse ja andmete terviklikkuse rõhutamine
Kui sa ei suuda selgitada, kuidas sinu süsteem töötab, ei saa sa seda kohtus kaitsta. „Musta kasti” probleem on tohutu juriidiline nõrk koht, mistõttu on läbipaistvust silmas pidades kavandamine ülioluline.
Selgitatavus läbi disaini peaks olema mittekaubeldav põhimõte. Teie tehnilised meeskonnad peavad looma süsteemid, kus otsustusprotsessi saab dokumenteerida, mõista ja selgitada ka mitte-tehnilistele inimestele, näiteks kohtunikele ja regulaatoritele.
Kõik algab andmetest, mida teie mudelite treenimiseks kasutatakse. Hoolikas andmehaldus on teie parim kaitse eelarvamuste vastu – mis on algoritmilise kahju peamine allikas. Veenduge, et teie andmed on kvaliteetsed, asjakohased ja esindavad õigesti inimesi, keda need mõjutavad. Dokumenteerige iga samm andmete hankimisel, puhastamisel ja töötlemisel, et luua selge auditeerimisjälg. See dokumentatsioon on hindamatu tõend selle kohta, et olete rakendanud hoolsuskohustust.
ELi tehisintellekti seadusele vastavuse kontrollnimekiri
ELi tehisintellekti seadus keskendub ennetavale riskijuhtimisele, eriti kõrge riskiga süsteemide puhul. Teie vastavusstrateegia peab näitama pidevat pühendumust ohutusele ja õiglusele.
Praktiline kontrollnimekiri peaks sisaldama järgmist:
-
Riski klassifikatsioonLiigitage ametlikult iga teie ettevõtte kasutatav tehisintellekti süsteem vastavalt seaduse riskikategooriatele.
-
MõjuhinnangudEnne mis tahes kõrge riskiga tehisintellekti juurutamist tehke ja dokumenteerige andmekaitsealane mõjuhinnang (DPIA) ja põhiõiguste mõjuhinnang (FRIA).
-
Tehniline dokumentatsioonHoidke üksikasjalikku ja ajakohast tehnilist dokumentatsiooni käepärast, et seda regulaatoritele esitada alati, kui nad seda küsivad.
-
Pidev seireLooge turustamisjärgse järelevalve protsessid, et jälgida tehisintellekti toimivust ja tuvastada kõik ettenägematud riskid, mis ilmnevad pärast selle kasutuselevõttu.
Korduma kippuvad küsimused
Tehisintellekti ja kriminaalõiguse seos tekitab mõistetavalt palju küsimusi. Siin käsitleme mõningaid levinumaid muresid, mis tekivad juristidel, arendajatel ja ettevõtete omanikel, kes mõtlevad, kas algoritm saab kuriteos tõesti osaliselt süüdi olla.
Kas ettevõtet saab kriminaalvastutusele võtta, kui selle tehisintellekt diskrimineerib?
Jah, see on täiesti võimalik. Kuigi tehisintellekti süsteemi ennast süüdistuses ei nähta, võib ettevõte, kes selle kasutusele võttis, Hollandi ettevõtete kriminaalvastutuse põhimõtete kohaselt kindlasti silmitsi seista kriminaalsüüdistusega diskrimineerivate tagajärgede eest.
Kui ettevõtte juhtkond teadis tehisintellekti võimalikust eelarvamusest ja ei teinud midagi või kui nad olid oma järelevalves raskelt hooletud, on kriminaalsüüdistus väga reaalne võimalus. ELi tehisintellekti seadus kehtestab ka ranged eelarvamusvastased reeglid kõrge riskiga süsteemidele. Nende standardite mittetäitmine oleks igas kriminaalasjas võimas tõend hooletuse kohta. Õiguslik tähelepanu on alati kõige eredamalt suunatud inimeste otsustele, mis on tehtud tehisintellekti loomise, koolitamise ja juurutamise kohta.
Mis on musta kasti probleem tehisintellektis?
„Musta kasti” probleem on termin, mis hõlmab keerulisi tehisintellekti mudeleid, mille puhul isegi need, kes neid ehitasid, ei suuda täielikult jälgida, kuidas konkreetse väljundini jõuti. See on tohutu probleem, kui tehisintellekt ja kriminaalõigus põrkuvad.
Kohtus võib see tegelikult saada kaitse nurgakiviks. Advokaat võib väita, et kahjulik tulemus oli täiesti ettenägematu, mis tähendab, et kostjal puudus vajalik kuritegelik kavatsus (meeste rea). Argument on lihtne: kuidas nad saidki ette näha tulemust, mida nad ei osanud kuidagi ennustada?
Kuid prokuröridel on tugev vastus. Nad võivad väita, et võimsa ja ettearvamatu süsteemi rakendamine ilma nõuetekohaste kaitsemeetmeteta on iseenesest hoolimatus või raske hooletus. Ja sellest võib piisata, et täita kriminaalvastutuse jaoks vajalikku vaimset elementi.
See loob pinnase kõrgete panustega õigusvaidluseks etteaimatavuse ja hoolsuskohustuse üle.
Kuidas on arendajate jaoks parim viis juriidilist riski piirata?
Kõige tõhusam asi, mida arendajad saavad teha juriidilise riski eest kaitsmiseks, on pidada tehisintellekti eluea igas etapis täpset ja läbipaistvat dokumentatsiooni. Mõelge sellele kui detailse "auditeerimisjälje" loomisele, millest võib saada teie kõige olulisem tõend.
See dokumentatsioon peaks tõesti hõlmama kõike algusest lõpuni:
-
AndmeallikadKust treeningandmed pärinesid ja kuidas nende kvaliteeti ja eelarvamusi kontrolliti?
-
Eelarvamuste leevendamineMilliseid konkreetseid samme astuti andmekogumitest eelarvamuste leidmiseks ja eemaldamiseks?
-
Kujunduse põhjendusMilline oli peamiste arhitektuuriliste valikute ja algoritmide taga olev loogika?
-
Testimise tulemusedTäielik aruanne iga testi käivitamise kohta, sealhulgas tõrked ja nende parandamise viisid.
Sama oluline on kehtestada selge raamistik inimjärelevalveks. Kui uurimine peaks aset leidma, on see dokument vaieldamatu tõend hoolsuskohustuse täitmise kohta. See aitab näidata, et tekitatud kahju oli tõeliselt ettenägematu õnnetus, mitte hooletuse tagajärg – ja see moodustab kindla õiguskaitse aluse.