Prvého augusta 2024 nadobudol účinnosť európsky akt o umelej inteligencii, ktorý má zabezpečiť dôveryhodnosť umelej inteligencie vyvinutej a používanej v Európskej únii v súlade s ochranou základných práv ľudí. Členské štáty EÚ musia do 2. augusta 2025 určiť príslušné vnútroštátne orgány, ktoré budú dohliadať na uplatňovanie pravidiel pre systémy umelej inteligencie a vykonávať činnosti dohľadu nad trhom.
V akte o umelej inteligencii sa zavádza perspektívne vymedzenie umelej inteligencie založené na prístupe založenom na bezpečnosti výrobkov a riziku v EÚ:
• Minimálne riziko: Väčšina systémov umelej inteligencie, ako sú odporúčacie systémy založené na umelej inteligencii a spamové filtre, patrí do tejto kategórie. Tieto systémy nemajú žiadne povinnosti podľa aktu o umelej inteligencii z dôvodu ich minimálneho rizika pre práva a bezpečnosť občanov. Spoločnosti môžu dobrovoľne prijať ďalšie kódexy správania.
• Osobitné riziko transparentnosti: Systémy umelej inteligencie, ako sú chatboty, musia používateľom jasne oznámiť, že komunikujú so strojom. Určitý obsah vytvorený umelou inteligenciou vrátane deepfakes musí byť takto označený a používatelia musia byť informovaní o používaní systémov biometrickej kategorizácie alebo rozpoznávania emócií. Okrem toho budú poskytovatelia musieť navrhnúť systémy tak, aby syntetický obsah (napr. audio, video, texty a obrázky) bol označený v strojovo čitateľnom formáte a identifikovateľný ako umelo vygenerovaný alebo manipulovaný.
• Vysoké riziko: Systémy umelej inteligencie identifikované ako vysokorizikové budú musieť spĺňať prísne požiadavky vrátane systémov na zmiernenie rizika, vysokej kvality súborov údajov, záznamov o činnosti, podrobnej dokumentácie, jasných informácií pre používateľov, ľudského dohľadu a vysokej úrovne spoľahlivosti, presnosti a kybernetickej bezpečnosti. Experimentálne regulačné prostredie uľahčí zodpovednú inováciu a vývoj systémov umelej inteligencie spĺňajúcich pravidlá. Takéto vysokorizikové systémy umelej inteligencie zahŕňajú napríklad systémy umelej inteligencie používané na nábor alebo na posúdenie toho, či je niekto oprávnený získať úver alebo prevádzkovať autonómne roboty.
• Neprijateľné riziko: Systémy umelej inteligencie považované za jasnú hrozbu pre základné práva ľudí budú zakázané. Patria sem systémy alebo aplikácie umelej inteligencie, ktoré manipulujú ľudské správanie s cieľom obísť bezplatnú vôľu používateľov, ako sú hračky využívajúce hlasovú pomoc podporujúcu nebezpečné správanie maloletých, systémy, ktoré umožňujú „sociálne hodnotenie“ zo strany vlád alebo spoločností, a určité aplikácie prediktívnej policajnej práce. Okrem toho niektoré použitia biometrických systémov však budú zakázané: napríklad systémy rozpoznávania emócií používané na pracoviskách a niektoré systémy kategorizácie ľudí alebo biometrická identifikácia na diaľku v reálnom čase na účely presadzovania práva vo verejnom priestore (s niekoľkými výnimkami).
Na doplnenie tohto systému sa v akte o umelej inteligencii zavádzajú aj pravidlá pre tzv. modely umelej inteligencie na všeobecné účely, ktoré sú vysoko schopné modely umelej inteligencie, ktoré sú navrhnuté tak, aby vykonávali širokú škálu úloh, ako je vytváranie textu podobného človeku. Modely umelej inteligencie na všeobecné účely sa čoraz častejšie používajú ako komponenty aplikácií umelej inteligencie. Aktom o umelej inteligencii sa zabezpečí transparentnosť v celom hodnotovom reťazci a budú sa riešiť možné systémové riziká najschopnejších modelov.
Úrad komisie pre umelú inteligenciu bude kľúčovým vykonávacím orgánom aktu o umelej inteligencii na úrovni EÚ, ako aj orgánom presadzovania pravidiel pre modely umelej inteligencie na všeobecné účely. Vykonávanie pravidiel budú podporovať tri poradné orgány. Európska rada pre umelú inteligenciu zabezpečí jednotné uplatňovanie aktu o umelej inteligencii vo všetkých členských štátoch EÚ a bude pôsobiť ako hlavný orgán pre spoluprácu medzi Komisiou a členskými štátmi. Vedecká skupina nezávislých odborníkov bude poskytovať technické poradenstvo a podnety týkajúce sa presadzovania práva. Tento panel môže úradu pre umelú inteligenciu najmä vydávať upozornenia o rizikách spojených s modelmi umelej inteligencie na všeobecné účely. Úrad pre umelú inteligenciu môže takisto získať usmernenia od poradného fóra zloženého z rôznych zainteresovaných strán.
Spoločnosti, ktoré nebudú dodržiavať pravidlá, budú pokutované. Pokuty by sa mohli zvýšiť až na 7 % celosvetového ročného obratu za porušenia zakázaných aplikácií umelej inteligencie, až 3 % za porušenie iných povinností a až o 1,5 % za poskytnutie nesprávnych informácií.