Susisiekti su mumis

dirbtinis intelektas

Dirbtinio intelekto aktas: Taryba ir Parlamentas susitarė dėl pirmųjų dirbtinio intelekto taisyklių pasaulyje

Dalintis:

paskelbta

on

Mes naudojame jūsų registraciją, kad pateiktume turinį jūsų sutiktais būdais ir pagerintume jūsų supratimą. Prenumeratą galite bet kada atšaukti.

Po tris dienas trukusių „maratoninių“ derybų Tarybai pirmininkaujanti valstybė narė ir Europos Parlamento derybininkai pasiekė preliminarų susitarimą dėl pasiūlymo dėl suderintų dirbtinio intelekto (DI) taisyklių, vadinamojo dirbtinio intelekto akto. Reglamento projektu siekiama užtikrinti, kad Europos rinkai pateiktos ir ES naudojamos dirbtinio intelekto sistemos būtų saugios ir gerbtų pagrindines teises bei ES vertybes. Šiuo svarbiu pasiūlymu taip pat siekiama skatinti investicijas ir inovacijas dirbtinio intelekto srityje Europoje.

Carme Artigas, Ispanijos valstybės sekretorius skaitmeninimui ir dirbtiniam intelektui

Tai istorinis laimėjimas ir didžiulis žingsnis į ateitį! Šiandienos susitarimu veiksmingai sprendžiamas pasaulinis iššūkis sparčiai besivystančioje technologinėje aplinkoje, kuri yra pagrindinė mūsų visuomenės ir ekonomikos ateities sritis. Siekdami šių pastangų, mums pavyko išlaikyti itin subtilią pusiausvyrą: skatinti naujoves ir dirbtinio intelekto įsisavinimą visoje Europoje, kartu visapusiškai gerbdami pagrindines mūsų piliečių teises. Carme Artigas, Ispanijos valstybės sekretorė skaitmeninimui ir dirbtiniam intelektui

AI aktas yra a flagmanas teisės aktų leidybos iniciatyva, galinti paskatinti saugaus ir patikimo dirbtinio intelekto kūrimą ir įsisavinimą visoje ES bendrojoje rinkoje tiek privatiems, tiek viešiesiems subjektams. Pagrindinė idėja yra reguliuoti DI, remiantis pastarojo gebėjimu padaryti žalą visuomenei po a "pagrįsta rizika" metodas: kuo didesnė rizika, tuo griežtesnės taisyklės. Kaip pirmasis tokio pobūdžio teisės akto pasiūlymas pasaulyje, jis gali nustatyti a pasaulinis standartas dirbtinio intelekto reguliavimui kitose jurisdikcijose, kaip tai padarė GDPR, taip skatinant Europos požiūrį į technologijų reguliavimą pasaulinėje arenoje.

Pagrindiniai laikinojo susitarimo elementai

Palyginti su pradiniu Komisijos pasiūlymu, pagrindinius naujus laikinojo susitarimo elementus galima apibendrinti taip:

  • taisyklės dėl didelio poveikio bendrosios paskirties AI modeliai kurios gali sukelti sisteminę riziką ateityje, taip pat didelės rizikos AI sistemos
  • peržiūrėta sistema valdymas su tam tikrais vykdymo įgaliojimais ES lygmeniu
  • sąrašo pratęsimas draudimai bet su galimybe naudotis nuotolinis biometrinis identifikavimas teisėsaugos institucijos viešose erdvėse, laikantis apsaugos priemonių
  • geresnė teisių apsauga, įpareigojant didelės rizikos AI sistemų diegėjus vykdyti a poveikio pagrindinėms teisėms vertinimą prieš pradėdami naudoti AI sistemą.

Konkrečiau kalbant, laikinasis susitarimas apima šiuos aspektus:

Apibrėžimai ir taikymo sritis

Siekiant užtikrinti, kad apibrėžimas AI sistemoje pateikiami pakankamai aiškūs kriterijai, leidžiantys atskirti AI nuo paprastesnių programinės įrangos sistemų, kompromisiniame susitarime apibrėžimas suderinamas su EBPO pasiūlytu požiūriu.

Laikinajame susitarime taip pat paaiškinama, kad reglamentas netaikomas sritims, nepatenkančioms į ES teisės taikymo sritį, ir jokiu būdu neturėtų turėti įtakos valstybių narių kompetencijai Nacionalinė apsauga arba bet kuris subjektas, kuriam patikėtos šios srities užduotys. Be to, dirbtinio intelekto aktas nebus taikomas sistemoms, kurios naudojamos išskirtinai karinis or gynyba tikslai. Taip pat susitarime numatyta, kad reglamentas nebūtų taikomas dirbtinio intelekto sistemoms, naudojamoms vieninteliu tikslu mokslinius tyrimus ir naujoves, arba žmonėms, naudojantiems dirbtinį intelektą neprofesionaliais tikslais.

reklama

AI sistemų klasifikavimas kaip didelės rizikos ir draudžiamas DI praktika

Kompromisinis susitarimas numato a horizontalus apsaugos sluoksnis, įskaitant didelės rizikos klasifikaciją, siekiant užtikrinti, kad nebūtų užfiksuotos dirbtinio intelekto sistemos, kurios greičiausiai nesukels rimtų pagrindinių teisių pažeidimų ar kitos didelės rizikos. Tik pristatomos AI sistemos ribota rizika būtų veikiamas labai šviesos skaidrumo įsipareigojimai, pavyzdžiui, atskleisti, kad turinys buvo sukurtas dirbtinio intelekto, kad naudotojai galėtų priimti pagrįstus sprendimus dėl tolesnio naudojimo.

Platus pasirinkimas didelė rizika Dirbtinio intelekto sistemoms būtų suteiktas leidimas, tačiau joms būtų taikomi tam tikri reikalavimai ir įpareigojimai norint patekti į ES rinką. Šiuos reikalavimus teisės aktų leidėjai patikslino ir pakoregavo taip, kad jų daugiau techniškai įmanoma ir mažiau apsunkina kad suinteresuotosios šalys laikytųsi, pavyzdžiui, dėl duomenų kokybės arba techninių dokumentų, kuriuos turėtų parengti MVĮ, kad įrodytų, jog jų didelės rizikos dirbtinio intelekto sistemos atitinka reikalavimus.

Kadangi dirbtinio intelekto sistemos yra kuriamos ir platinamos per sudėtingas vertės grandines, kompromisiniame susitarime yra pakeitimų, paaiškinančių pareigų paskirstymas ir įvairių aktorių vaidmenys tose grandinėse, visų pirma dirbtinio intelekto sistemų teikėjų ir naudotojų. Taip pat paaiškinamas ryšys tarp atsakomybės pagal AI įstatymą ir pareigų, kurios jau egzistuoja pagal kitus teisės aktus, pavyzdžiui, atitinkamus ES duomenų apsaugos ar sektorių teisės aktus.

Manoma, kad kai kuriems AI naudojimo atvejams kyla rizika nepriimtinas ir todėl šios sistemos bus uždraustos ES. Laikinasis susitarimas draudžia, pavyzdžiui, pažintinį elgesio manipuliacija, netikslinis atidavimas į metalo laužą veido vaizdų iš interneto arba vaizdo stebėjimo kamerų, emocijų atpažinimas darbo vietoje ir mokymo įstaigose, socialiniai balai, biometrinė klasifikacija daryti išvadą apie neskelbtinus duomenis, pvz., seksualinę orientaciją ar religinius įsitikinimus, ir kai kuriais atvejais nuspėjamasis policijos darbas asmenims.

Teisėsaugos išimtys

Atsižvelgiant į ypatumus teisėsaugos institucijos ir būtinybę išsaugoti jų gebėjimą naudoti AI atliekant savo gyvybiškai svarbų darbą, buvo susitarta dėl kelių Komisijos pasiūlymo pakeitimų, susijusių su AI sistemų naudojimu teisėsaugos tikslais. Atsižvelgiant į atitinkamą apsaugos priemonės, šie pakeitimai skirti atspindėti būtinybę gerbti jautrių operatyvinių duomenų konfidencialumą, susijusį su jų veikla. Pavyzdžiui, buvo įvesta skubi procedūra, leidžianti teisėsaugos institucijoms įdiegti didelės rizikos AI įrankį, kuris nepraėjo atitikties vertinimą procedūra skubos atveju. Tačiau tam taip pat buvo sukurtas specialus mechanizmas pagrindinės teisės bus pakankamai apsaugotas nuo galimo piktnaudžiavimo dirbtinio intelekto sistemomis.

Be to, kalbant apie realiojo laiko naudojimą nuotolinis biometrinis identifikavimas sistemoms viešai prieinamose erdvėse, laikinajame susitarime paaiškinami tikslai, kai toks naudojimas yra griežtai būtinas teisėsaugos tikslais, todėl teisėsaugos institucijoms išimties tvarka turėtų būti leista naudoti tokias sistemas. Kompromisinis susitarimas numato papildomos apsaugos priemonės ir apriboja šias išimtis tam tikrų nusikaltimų aukomis, realių, esamų ar numatomų grėsmių, pvz., teroristinių išpuolių, prevencijai ir sunkiausiais nusikaltimais įtariamų asmenų paieškai.

Bendrosios paskirties AI sistemos ir pamatų modeliai

Pridėtos naujos nuostatos, kad būtų atsižvelgta į situacijas, kai dirbtinio intelekto sistemos gali būti naudojamos įvairiems tikslams (bendrosios paskirties AI) ir kur bendrosios paskirties AI technologija vėliau integruojama į kitą didelės rizikos sistemą. Laikinajame susitarime taip pat aptariami konkretūs bendrosios paskirties AI (GPAI) sistemų atvejai.

Taip pat susitarta dėl specialių taisyklių pamatų modeliai, didelės sistemos, galinčios kompetentingai atlikti įvairias išskirtines užduotis, tokias kaip vaizdo įrašų, teksto, vaizdų generavimas, pokalbis šonine kalba, skaičiavimas ar kompiuterio kodo generavimas. Laikinajame susitarime numatyta, kad fondų modeliai turi atitikti konkrečius skaidrumo įsipareigojimai prieš pateikiant juos į rinką. Buvo įvestas griežtesnis režimas 'didelis poveikis' pamatų modeliai. Tai yra pagrindiniai modeliai, parengti naudojant didelį duomenų kiekį ir pažangų sudėtingumą, galimybes ir našumą, gerokai viršijantį vidurkį, o tai gali paskleisti sisteminę riziką vertės grandinėje.

Nauja valdymo architektūra

Vadovaujantis naujomis taisyklėmis dėl GPAI modelių ir akivaizdaus poreikio juos įgyvendinti ES lygmeniu, an AI biuras Komisijoje įsteigtas padalinys, kuriam pavesta prižiūrėti šiuos pažangiausius dirbtinio intelekto modelius, prisidėti prie standartų ir testavimo praktikos puoselėjimo ir užtikrinti bendrų taisyklių vykdymą visose valstybėse narėse. A nepriklausomų ekspertų mokslinė komisija konsultuos AI biurą GPAI modelių klausimais, prisidės prie pamatų modelių galimybių vertinimo metodikos kūrimo, konsultuos dėl didelio poveikio pamatų modelių paskyrimo ir atsiradimo bei stebės galimas su pamatų modeliais susijusias medžiagų saugos rizikas.

Šios AI valdyba, kurią sudarytų valstybių narių atstovai, ji išliks kaip koordinavimo platforma ir patariamoji Komisijos institucija, o valstybėms narėms bus suteiktas svarbus vaidmuo įgyvendinant reglamentą, įskaitant fondų modelių praktikos kodeksų kūrimą. Galiausiai, an patariamasis forumas bus įsteigta suinteresuotosioms šalims, pavyzdžiui, pramonės atstovams, MVĮ, pradedančioms įmonėms, pilietinei visuomenei ir akademinei bendruomenei, skirta dirbtinio intelekto valdybai techninėmis žiniomis.

sankcijos

Baudos už AI įstatymo pažeidimus buvo nustatytos procentais nuo pažeidusios įmonės pasaulinės metinės apyvartos praėjusiais finansiniais metais arba iš anksto nustatyta suma, atsižvelgiant į tai, kuri suma didesnė. Tai būtų 35 mln. eurų arba 7 proc. už uždraustų dirbtinio intelekto programų pažeidimus, 15 mln. eurų arba 3 proc. už AI įstatymo įsipareigojimų pažeidimus ir 7,5 mln. eurų arba 1,5 proc. už neteisingos informacijos pateikimą. Tačiau preliminarioje sutartyje numatyta proporcingesnės ribos dėl administracinių baudų SVV ir steigiamoms įmonėms už AI įstatymo nuostatų pažeidimus.

Kompromisinėje sutartyje taip pat aiškiai nurodyta, kad fizinis ar juridinis asmuo gali pateikti skundą atitinkamam asmeniui rinkos priežiūros institucija dėl AI akto nesilaikymo ir gali tikėtis, kad toks skundas bus nagrinėjamas laikantis tos institucijos nustatytų procedūrų.

Skaidrumas ir pagrindinių teisių apsauga

Laikinojoje sutartyje numatyta a poveikio pagrindinėms teisėms vertinimą prieš tai, kai jos diegėjai pateiks į rinką didelės rizikos AI sistemą. Laikinajame susitarime taip pat numatyta padidinta skaidrumas dėl didelės rizikos AI sistemų naudojimo. Pažymėtina, kad kai kurios Komisijos pasiūlymo nuostatos buvo iš dalies pakeistos nurodant, kad tam tikri didelės rizikos AI sistemos naudotojai, kurie yra viešieji subjektai, taip pat turės registruotis ES duomenų bazėje didelės rizikos AI sistemoms. Be to, naujai pridėtose nuostatose pabrėžiama naudotojų pareiga emocijų atpažinimo sistema informuoti fizinius asmenis, kai jie susiduria su tokia sistema.

Inovacijų rėmimo priemonės

Siekiant sukurti naujovėms palankesnę teisinę sistemą ir skatinti įrodymais pagrįstą reglamentavimo mokymąsi, nuostatos dėl inovacijas remiančių priemonių buvo iš esmės pakeistos, palyginti su Komisijos pasiūlymu.

Pažymėtina, kad buvo išaiškinta, kad AI reguliavimo smėlio dėžės, kurios turėtų sukurti kontroliuojamą aplinką naujoviškų AI sistemų kūrimui, testavimui ir patvirtinimui, taip pat turėtų leisti išbandyti naujoviškas AI sistemas realiomis sąlygomis. Be to, buvo įtrauktos naujos nuostatos, leidžiančios bandymai AI sistemų realaus pasaulio sąlygas, tam tikromis sąlygomis ir apsaugos priemonėmis. Siekiant sumažinti administracinę naštą mažesnėms įmonėms, laikinajame susitarime pateikiamas veiksmų, kurių reikia imtis siekiant paremti tokius operatorius, sąrašas ir numatytos kai kurios ribotos ir aiškiai nurodytos leidžiančios nukrypti nuostatos.

Įsigaliojimas

Laikinajame susitarime numatyta, kad turėtų būti taikomas dirbtinio intelekto aktas dvejus metus jam įsigaliojus, su tam tikromis išimtimis konkrečioms nuostatoms.

Tolesni žingsniai

Remiantis šiandienos preliminariu susitarimu, artimiausiomis savaitėmis bus tęsiamas darbas techniniu lygmeniu, siekiant užbaigti naujojo reglamento detales. Kai šis darbas bus baigtas, pirmininkaujanti valstybė narė pateiks kompromisinį tekstą valstybių narių atstovams (COREPER) patvirtinti.

Visą tekstą turės patvirtinti abi institucijos ir teisiškai lingvistiškai persvarstyti, kol teisės aktų leidėjai jį oficialiai patvirtins.

Papildoma informacija

2021 m. balandžio mėn. pateiktas Komisijos pasiūlymas yra pagrindinis ES politikos, kuria siekiama skatinti saugios ir teisėtos dirbtinio intelekto, kuriame gerbiamos pagrindinės teisės, kūrimą ir įsisavinimą visoje bendrojoje rinkoje.

Pasiūlyme laikomasi rizika pagrįsto požiūrio ir nustatoma vienoda horizontali dirbtinio intelekto teisinė sistema, kuria siekiama užtikrinti teisinį tikrumą. Reglamento projektu siekiama skatinti investicijas ir inovacijas dirbtinio intelekto srityje, stiprinti valdymą ir veiksmingą galiojančių pagrindinių teisių ir saugos teisės aktų vykdymą bei palengvinti bendrosios dirbtinio intelekto taikomųjų programų rinkos plėtrą. Tai vyksta kartu su kitomis iniciatyvomis, įskaitant suderintą dirbtinio intelekto planą, kuriuo siekiama paspartinti investicijas į dirbtinį intelektą Europoje. 6 m. gruodžio 2022 d. Taryba pasiekė susitarimą dėl bendro požiūrio (derybų įgaliojimų) dėl šio dokumento ir 2023 m. birželio viduryje pradėjo tarpinstitucines derybas su Europos Parlamentu (trišaliai dialogai).

Pasidalinkite šiuo straipsniu:

EU Reporter publikuoja straipsnius iš įvairių išorinių šaltinių, kuriuose išreiškiamas platus požiūrių spektras. Šiuose straipsniuose pateiktos pozicijos nebūtinai yra ES Reporterio pozicijos.

Trendai