Využívanie umelej inteligencie predstavuje neuveriteľné šetrenie času aj zdrojov. Okrem množstva benefitov, ktoré prináša, však existujú aj riziká, predovšetkým pokiaľ k implementácii AI dochádza nekontrolovaným spôsobom. „Umelá inteligencia funguje na základe učenia sa, čo znamená, že sa neriadi vopred naprogramovanými pokynmi. V dôsledku toho môže vytvoriť viacero nejasností a právnych obáv, napr. neobjektívne či diskriminačné prijímanie rozhodnutí, ktoré porušuje všeobecné požiadavky na spravodlivosť a zodpovednosť stanovené GDPR,“ upozorňuje Jakub Berthoty. Takéto situácie môžu podľa neho nastať, keď by AI rozhodovala v pracovno-právnej oblasti (začatie, zmena, ukončenie zmluvných pracovných vzťahov), v oblasti verejnej pomoci (hodnotenie oprávnenosti prideľovania dávok, overovanie pravosti dokladov), v bankovom sektore (rozhodovanie o bonite klienta) či v oblasti súdnictva (posúdenie dôkazov, ich prijateľnosť) a rôznych iných rizikových sektoroch, kedy je nevyhnutné posúdenie ľudským faktorom. Umelá inteligencia často zhromažďuje a analyzuje veľké množstvo osobných údajov, čo vyvoláva otázky týkajúce sa ochrany súkromia a bezpečnosti údajov. Chatboty akým je napr. ChatGPT, využívajú na trénovanie svojho jazykového modelu nespočetné množstvo dostupných údajov z webu, vrátane príspevkov na sociálnych sieťach. Mnohé z týchto údajov sú osobné údaje alebo sú chránené autorskými právami. „Dotknuté osoby musia byť v každom prípade adekvátne informované o používaní umelej inteligencie na spracovanie ich osobných údajov. Ak navyše dochádza k automatizovanému individuálnemu rozhodovaniu (AIR) o ich právach, majú dotknuté osoby právo, aby sa takéto rozhodovanie na nich za stanovených podmienok nevzťahovalo. Pri nezohľadnení týchto faktorov môže dôjsť k porušeniu transparentnosti a zákonného spracúvania osobných údajov,“ zdôrazňuje Jakub Berthoty.
Riziká AI si začali všímať európske dozorné orgány. Taliansky dozorný orgán, ako najaktívnejší spomedzi európskych úradov na ochranu osobných údajov v postupe voči AI technológiám, už zakročil proti ChatGPT, AI Chatbot aj voči Clearview. Dôvodom bolo využívanie množstva údajov zozbieraných z internetu bez právneho základu a ďalších náležitostí. O AI sa však aktívne zaujíma aj nemecký a španielsky dozorný orgán a pracovnú skupinu už vytvoril aj Európsky výbor pre ochranu údajov (EDPB). Napriek rizikám je možné umelú inteligenciu využívať v súlade s GDPR. Dôležitá je zvýšená miera senzitivity pri ochrane súkromia, tak zo strany štátnych inštitúcií, ako aj samotných dotknutých osôb. „Pri používaní AI je potrebný proaktívny prístup k zabezpečeniu ochrany osobných údajov a dbať na dodržanie všetkých podmienok stanovených GDPR. Predovšetkým ide o dodržiavanie základných zásad pri spracúvaní osobných údajov, v rámci vopred vymedzených účelov a existujúcich právnych základov. Rovnako treba dbať na zvýšenú mieru transparentnosti a v tom zmysle náležité informovanie dotknutých osôb, že dochádza k spracúvaniu ich údajov - predovšetkým informovanie dotknutých osôb v prípade AIR, profilovania, či spracúvania osobitných kategórií osobných údajov,“ vysvetľuje Jakub Berthoty. Súčasná regulácia na európskej úrovni má len dopomôcť tomu, aby sa z dobrého sluhu nestal zlý pán. V tomto smere bude vítaným prvkom aj návrh Aktu o umelej inteligencii, ktorý zastreší v budúcnosti predmetnú problematiku na európskej úrovni.