Svoboda | Graniru | BBC Russia | Golosameriki | Facebook
Skip to main content
Shaping Europe’s digital future

Mākslīgā intelekta akts

Mākslīgā intelekta akts ir pirmais tiesiskais regulējums mākslīgā intelekta jomā, kas pievēršas mākslīgā intelekta radītajiem riskiem un liek Eiropai uzņemties vadošo lomu pasaulē.

MI akta mērķis ir nodrošināt MI izstrādātājiem un ieviesējiem skaidras prasības un pienākumus attiecībā uz konkrētiem MI lietojumiem. Tajā pašā laikā regulas mērķis ir samazināt administratīvo un finansiālo slogu uzņēmumiem, jo īpaši mazajiem un vidējiem uzņēmumiem (MVU).

Mākslīgā intelekta akts ir daļa no plašāka politikas pasākumu kopuma uzticama mākslīgā intelekta izstrādes atbalstam, kas ietver arīmākslīgā intelektainovācijas paketi unkoordinētomākslīgā intelekta plānu. Kopā šie pasākumi garantēs cilvēku un uzņēmumu drošību un pamattiesības MI jomā. Tie arī stiprinās MI ieviešanu, investīcijas un inovāciju visā ES.

Mākslīgā intelekta akts ir pirmais visaptverošais tiesiskais regulējums mākslīgā intelekta jomā visā pasaulē. Jauno noteikumu mērķis ir veicināt uzticamu MI Eiropā un ārpus tās, nodrošinot, ka MI sistēmās tiek ievērotas pamattiesības, drošība un ētikas principi, un novēršot ļoti spēcīgu un ietekmīgu MI modeļu riskus.

Kāpēc mums ir vajadzīgi noteikumi par mākslīgo intelektu?

Mākslīgā intelekta akts nodrošina, ka eiropieši var uzticēties tam, ko var piedāvāt mākslīgais intelekts. Lai gan lielākā daļa MI sistēmu nerada nekādu risku un var palīdzēt atrisināt daudzas sabiedrības problēmas, dažas MI sistēmas rada riskus, kas mums jānovērš, lai izvairītos no nevēlamiem rezultātiem.

Piemēram, bieži vien nav iespējams noskaidrot, kāpēc MI sistēma ir pieņēmusi lēmumu vai prognozi un veikusi konkrētu darbību. Tādējādi var būt grūti novērtēt, vai persona ir bijusi netaisnīgi nelabvēlīgā situācijā, piemēram, pieņemot lēmumu par pieņemšanu darbā vai piesakoties sabiedriskā labuma shēmai.

Lai gan spēkā esošie tiesību akti nodrošina zināmu aizsardzību, tie nav pietiekami, lai risinātu īpašās problēmas, ko var radīt MI sistēmas.

Ierosinātie noteikumi:

  • novērst riskus, ko īpaši rada MI lietojumi;
  • aizliegt MI praksi, kas rada nepieņemamus riskus;
  • izveido sarakstu ar augsta riska lietojumiem;
  • noteikt skaidras prasības AI sistēmām attiecībā uz augsta riska lietojumiem;
  • nosaka konkrētus pienākumus augsta riska MI lietojumu ieviesējiem un sagādātājiem;
  • pieprasīt atbilstības novērtēšanu, pirms konkrētā AI sistēma tiek nodota ekspluatācijā vai laista tirgū;
  • ievieš izpildi pēc tam, kad attiecīgā AI sistēma ir laista tirgū;
  • izveidot pārvaldības struktūru Eiropas un valstu līmenī.

Uz risku balstīta pieeja

Tiesiskajā regulējumā AI sistēmām ir noteikti četri riska līmeņi:

piramīda, kas parāda četrus riska līmeņus: nepieņemams risks; augsta riska; ierobežots risks, minimāls risks vai riska nav vispār

 

Tiks aizliegtas visas mākslīgā intelekta sistēmas, kas uzskatāmas par nepārprotamu apdraudējumu cilvēku drošībai, iztikas līdzekļiem un tiesībām, sākot ar valdību veiktu sociālo vērtēšanu un beidzot ar rotaļlietām, kurās tiek izmantota balss palīdzība, kas veicina bīstamu uzvedību.

Augsts risks

AI sistēmas, kas identificētas kā augsta riska sistēmas, ietver AI tehnoloģiju, ko izmanto:

  • kritiskās infrastruktūras (piemēram, transports), kas varētu apdraudēt iedzīvotāju dzīvību un veselību;
  • izglītība vai profesionālā apmācība, kas var noteikt piekļuvi izglītībai un profesionālajam dzīves ciklam (piemēram, eksāmenu vērtēšana);
  • produktu drošības sastāvdaļas (piemēram, mākslīgā intelekta izmantošana robotizētā ķirurģijā);
  • nodarbinātība, darba ņēmēju pārvaldība un piekļuve pašnodarbinātībai (piemēram, CV šķirošanas programmatūra darbā pieņemšanas procedūrām);
  • būtiski privātie un sabiedriskie pakalpojumi (piemēram, kredītspējas novērtēšana, kas liedz iedzīvotājiem iespēju saņemt aizdevumu);
  • tiesībaizsardzība, kas var ietekmēt cilvēku pamattiesības (piemēram, pierādījumu ticamības novērtēšana);
  • migrācijas, patvēruma un robežkontroles pārvaldība (piemēram, vīzu pieteikumu automatizēta izskatīšana);
  • tiesas spriešana un demokrātiskie procesi (piemēram, MI risinājumi tiesas nolēmumu meklēšanai).

Uz augsta riska AI sistēmām pirms to laišanas tirgū attieksies stingri pienākumi:

  • atbilstīgas riska novērtēšanas un mazināšanas sistēmas;
  • sistēmā ievadīto datu kopu augsta kvalitāte, lai līdz minimumam samazinātu riskus un diskriminējošus iznākumus;
  • darbības reģistrēšana, lai nodrošinātu rezultātu izsekojamību;
  • detalizētu dokumentāciju, kurā sniegta visa nepieciešamā informācija par sistēmu un tās mērķi, lai iestādes varētu novērtēt tās atbilstību;
  • skaidru un atbilstīgu informāciju ieviesējam;
  • piemēroti cilvēka virsvadības pasākumi, lai līdz minimumam samazinātu risku;
  • augsts noturības, drošības un precizitātes līmenis.

Visas biometriskās tālidentifikācijas sistēmas tiek uzskatītas par augsta riska sistēmām, un uz tām attiecas stingras prasības. Biometriskās tālidentifikācijas izmantošana sabiedriskās vietās tiesībaizsardzības nolūkos principā ir aizliegta.

Šauri izņēmumi ir stingri noteikti un reglamentēti, piemēram, ja tas ir nepieciešams, lai meklētu pazudušu bērnu, novērstu konkrētus un nenovēršamus terorisma draudus vai atklātu, atrastu, identificētu vai sauktu pie atbildības vainīgo vai aizdomās turēto par smagu noziedzīgu nodarījumu.

Šādai izmantošanai ir vajadzīga tiesu iestādes vai citas neatkarīgas struktūras atļauja un atbilstoši laika, ģeogrāfiskā tvēruma un meklēto datubāzu ierobežojumi.

Ierobežots risks

Ierobežots risksnorāda uz riskiem, kas saistīti ar pārredzamības trūkumu MI izmantošanā. Mākslīgā intelekta akts ievieš īpašus pārredzamības pienākumus, lai nodrošinātu, ka cilvēki vajadzības gadījumā tiek informēti, veicinot uzticēšanos. Piemēram, izmantojot tādas MI sistēmas kā sarunboti, cilvēki būtu jāinformē par to, ka viņi mijiedarbojas ar mašīnu, lai viņi varētu pieņemt apzinātu lēmumu turpināt vai atkāpties. Pakalpojumu sniedzējiem būs arī jānodrošina, ka MI radītais saturs ir identificējams. Turklāt MI radītais teksts, kas publicēts ar mērķi informēt sabiedrību par sabiedrības interešu jautājumiem, ir jāmarķē kā mākslīgi radīts. Tas attiecas arī uz audio un video saturu, kas ir dziļviltojumi.

Minimāls risks vai tā nav

Mākslīgā intelekta akts ļauj brīvi izmantot minimāla riska mākslīgo intelektu. Tas ietver tādus lietojumus kā MI iespējotas videospēles vai surogātpasta filtri. Lielākā daļa AI sistēmu, ko pašlaik izmanto ES, ietilpst šajā kategorijā.

Kā tas viss darbojas praksē attiecībā uz augsta riska MI sistēmu sagādātājiem?

pakāpenisks atbilstības deklarēšanas process
How does it all work in practice for providers of high risk AI systems?

Tiklīdz AI sistēma ir laista tirgū, iestādes ir atbildīgas par tirgus uzraudzību, ieviesēji nodrošina cilvēka virsvadību un uzraudzību un sagādātāji ir ieviesuši pēctirgus uzraudzības sistēmu. Pakalpojumu sniedzēji un ieviesēji ziņos arī par nopietniem incidentiem un darbības traucējumiem.

Risinājums lielu MI modeļu uzticamai izmantošanai

Arvien vairāk vispārēja lietojuma MI modeļi kļūst par MI sistēmu komponentiem. Šie modeļi var veikt un pielāgot neskaitāmus dažādus uzdevumus.

Lai gan vispārēja lietojuma MI modeļi var nodrošināt labākus un jaudīgākus MI risinājumus, ir grūti pārraudzīt visas spējas.

Tajā MI akts ievieš pārredzamības pienākumus attiecībā uz visiem vispārēja lietojuma MI modeļiem, lai nodrošinātu labāku izpratni par šiem modeļiem un papildu riska pārvaldības pienākumus ļoti spējīgiem un ietekmīgiem modeļiem. Šie papildu pienākumi ietver sistēmisko risku pašnovērtēšanu un mazināšanu, ziņošanu par nopietniem incidentiem, testu un modeļu izvērtēšanu, kā arī kiberdrošības prasības.

Nākotnes prasībām atbilstoši tiesību akti

Tā kā mākslīgais intelekts ir tehnoloģija, kas strauji attīstās, priekšlikumā ir izmantota nākotnes prasībām atbilstoša pieeja, kas ļauj noteikumus pielāgot tehnoloģiskajām pārmaiņām. AI lietojumiem būtu jāpaliek uzticamiem arī pēc to laišanas tirgū. Tam nepieciešama pastāvīga kvalitātes un riska pārvaldība, ko veic pakalpojumu sniedzēji.

Izpilde un īstenošana

Komisijas ietvaros 2024. gada februārī izveidotais Eiropas Mākslīgā intelekta birojs kopā ar dalībvalstīm pārrauga Mākslīgā intelekta akta izpildi un īstenošanu. Tās mērķis ir radīt vidi, kurā MI tehnoloģijas respektē cilvēka cieņu, tiesības un uzticēšanos. Tā arī veicina dažādu ieinteresēto personu sadarbību, inovāciju un pētniecību MI jomā. Turklāt tā iesaistās starptautiskā dialogā un sadarbībā MI jautājumos, atzīstot nepieciešamību pēc globālas saskaņošanas MI pārvaldības jomā. Ar šiem centieniem Eiropas MI birojs cenšas pozicionēt Eiropu kā līderi MI tehnoloģiju ētiskā un ilgtspējīgā attīstībā.

Turpmākie pasākumi

2023.gada decembrī Eiropas Parlaments un ES Padome panāca politisku vienošanos par Mākslīgā intelekta aktu. Teksts pašlaik tiek oficiāli pieņemts un tulkots. MI akts stāsies spēkā 20 dienas pēc tā publicēšanas Oficiālajā Vēstnesī un būs pilnībā piemērojams divus gadus vēlāk, ar dažiem izņēmumiem: aizliegumi stāsies spēkā pēc sešiem mēnešiem, pārvaldības noteikumi un pienākumi attiecībā uz vispārēja lietojuma MI modeļiem kļūs piemērojami pēc 12 mēnešiem, un noteikumi par MI sistēmām, kas iegultas regulētos produktos, tiks piemēroti pēc 36 mēnešiem. Lai atvieglotu pāreju uz jauno tiesisko regulējumu, Komisija ir uzsākusi Mākslīgā intelekta paktu— brīvprātīgu iniciatīvu, kuras mērķis ir atbalstīt turpmāko īstenošanu, un aicina mākslīgā intelekta izstrādātājus Eiropā un ārpus tās laikus izpildīt Mākslīgā intelekta aktā noteiktos galvenos pienākumus.

Jaunākās ziņas

MI rūpnīcu izveide tagad ir iespējama pēc EuroHPC regulas grozījuma

Stājās spēkā EuroHPC regulas grozījums, ar ko izveido mākslīgā intelekta rūpnīcas, ļaujot izveidot jaunu darbību pīlāru Eiropas Augstas veiktspējas datošanas kopuzņēmumam (kopuzņēmums EuroHPC).

Līdzīgs saturs

Lielais attēls

Eiropas pieeja mākslīgajam intelektam

ES pieeja mākslīgajam intelektam ir vērsta uz izcilību un uzticēšanos, un tās mērķis ir palielināt pētniecības un rūpniecības spējas, vienlaikus nodrošinot drošību un pamattiesības.

Rociet dziļāk!

Mākslīgā intelekta pakts

Mākslīgā intelekta pakts mudina un atbalsta organizācijas plānot uz priekšu Mākslīgā intelekta akta pasākumu īstenošanu.

Skatīt arī

Koordinētais mākslīgā intelekta plāns

Koordinētā mākslīgā intelekta plāna mērķis ir paātrināt ieguldījumus mākslīgajā intelektā, īstenot mākslīgā intelekta stratēģijas un programmas un saskaņot mākslīgā intelekta politiku, lai novērstu sadrumstalotību Eiropā.

Eiropas mākslīgā intelekta alianse

Eiropas MI alianse ir Eiropas Komisijas iniciatīva izveidot atklātu politikas dialogu par mākslīgo intelektu. Kopš MI alianses izveides 2018. gadā tā ir iesaistījusi aptuveni 6000 ieinteresēto personu regulāru pasākumu, sabiedriskās apspriešanas un tiešsaistes forumu apmaiņas...