Európsky parlament prijal svoju rokovaciu pozíciu k Aktu o umelej inteligencii pred rokovaniami s členskými štátmi Európskej únie (EÚ) o konečnom znení zákona. Pravidlá by mali zabezpečiť, aby umelá inteligencia vyvinutá a používaná v Európe bola plne v súlade s právami a hodnotami EÚ vrátane ľudského dohľadu, bezpečnosti, súkromia, transparentnosti, nediskriminácie či dobrých sociálnych a environmentálnych podmienok.
Pravidlá sa riadia prístupom založeným na riziku a stanovujú povinnosti pre poskytovateľov a operátorov umelej inteligencie v závislosti od úrovne rizika, ktoré umelá inteligencia môže predstavovať. Systémy umelej inteligencie, v prípade ktorých je úroveň rizika pre bezpečnosť ľudí neprijateľná, napríklad také, ktoré sa využívajú na sociálne bodovanie (klasifikujú ľudí podľa ich spoločenského správania alebo osobných charakteristík) by preto mali byť zakázané. Poslanci tento zoznam rozšírili o zákaz používania umelej inteligencie spôsobom, ktorý narúša súkromie a je diskriminačný, akými sú napríklad:
· systémy diaľkovej biometrickej identifikácie „v reálnom čase“ a počas „následnej“ diaľkovej biometrickej identifikácie vo verejne prístupných priestoroch,
· systémy biometrickej kategorizácie, ktoré využívajú citlivé údaje (napr. pohlavie, rasa, etnický pôvod, občianstvo, náboženské vyznanie, politická orientácia),
· systémy prediktívneho vykonávania policajných funkcií (založené na profilovaní, lokalizácii polohy alebo predošlej trestnej činnosti),
· systémy rozpoznávania emócií v oblasti presadzovania práva, riadenia hraníc, na pracovisku a vo vzdelávacích inštitúciách a
· necielená extrakcia podôb tváre z internetu alebo zo záznamov z kamerového systému, ktoré slúžia na vytvorenie databáz na rozpoznávanie tvárí (ktoré môžu viesť k porušovaniu ľudských práv vrátane práva na súkromie).
Europoslancom sa podarilo presadiť, aby klasifikácia vysokorizikových aplikácií odteraz zahŕňala aj systémy umelej inteligencie, ktoré významne poškodzujú ľudské zdravie, bezpečnosť, základné práva alebo životné prostredie. Do zoznamu vysokorizikových aplikácií boli tiež pridané systémy umelej inteligencie, ktoré sa využívajú na ovplyvňovanie voličov a výsledkov volieb či v odporúčacích systémoch používaných platformami sociálnych médií (s viac ako 45 miliónmi používateľov).
Novým a rýchlo sa rozvíjajúcim trendom v oblasti umelej inteligencie sú poskytovatelia základných modelov, ktorí budú musieť posúdiť a zmierniť možné riziká (vo vzťahu k zdraviu, bezpečnosti, základným právam, životnému prostrediu, demokracii a právnemu štátu) a zaregistrovať svoje modely v databáze EÚ skôr, ako ich uvedú na trh EÚ. Generatívne systémy umelej inteligencie založené na modeloch, ako napríklad ChatGPT, budú podľa nových pravidiel musieť spĺňať požiadavky na transparentnosť (informovať o tom, že obsah bol vytvorený umelou inteligenciou a pomáhať tiež odlíšiť takzvané deepfake alebo falošné obrazy od skutočných) a poskytnúť záruky proti vytváraniu nezákonného obsahu. Zverejňovať sa budú musieť aj podrobné súhrny údajov chránených autorským právom, ktoré sa použili na trénovanie týchto systémov.
S cieľom podporiť inovácie v oblasti umelej inteligencie a malé a stredné podniky poslanci doplnili výnimky pre výskumné činnosti a komponenty umelej inteligencie poskytované na základe licencií s otvoreným zdrojovým kódom. Nový právny predpis podporuje tzv. experimentálne regulačné prostredia alebo kontrolované reálne priestory, ktoré vytvorili verejné orgány na testovanie umelej inteligencie pred jej zavedením. V neposlednom rade chcú poslanci posilniť právo občanov podávať sťažnosti na systémy umelej inteligencie, ako aj právo získať vysvetlenie rozhodnutí založených na vysokorizikových systémoch umelej inteligencie, ktoré majú významný vplyv na ich základné práva. Poslanci tiež prepracovali úlohu Úradu EÚ pre umelú inteligenciu, ktorý by mal po novom monitorovať uplatňovanie súboru pravidiel umelej inteligencie.