Máme sa báť umelej inteligencie?

Obsah marcového dTestu

Aktuální číslo časopisu dTest 3/2024 Obsah marcového dTestu

Sdílejte

Publikované v časopise 3/2023

Umelá inteligencia sa pomaly, ale isto stáva neoddeliteľnou súčasťou našich životov. Prostredníctvom internetu sleduje naše správanie a zvyklosti a na ich základe nám napríklad podsúva ďalšie spotrebiteľské voľby a ovplyvňuje, aké správy a reklamy sa nám zobrazujú. Hoci to môže naše každodenné činnosti urýchľovať a uľahčovať, sú s tým spojené aj mnohé riziká. Je preto nevyhnutné, aby na používanie umelej inteligencie existovali jasne definované pravidlá hry. O nich sme sa rozprávali so špecialistkou na problematiku IT práva, doktorkou Evou Fialovou.

Umelá inteligencia je dnes hojne používaný pojem. Laik si pod ním často predstaví napríklad robota, ktorý bude hovoriť a správať sa ako on sám, alebo počítač, s ktorým sa môže porozprávať (tzv. ChatGPT). Ako by ste nám umelú inteligenciu vysvetlili?

Umelá inteligencia je, zjednodušene povedané, schopnosť počítačových programov napodobňovať ľudské schopnosti. Umelá inteligencia sa učí, premýšľa a rozhoduje tak, ako by to robil človek. Vlastne ešte lepšie, pretože bude mať oveľa viac informácií, ako má človek a v rozhodovaní bude presnejšia a rýchlejšia. Umelá inteligencia, ktorá by toto dokázala vo všetkých oblastiach ľudskej existencie, sa nazýva silná umelá inteligencia alebo strong AI. Umelá inteligencia, ktorá toto dokáže len v úzko vymedzenej oblasti, sa nazýva slabá umelá inteligencia, alebo weak AI. Silnú umelú inteligenciu ešte nemáme, ale vyhliadky na jej vývin sa stále približujú.

V ktorých oblastiach sa umelá inteligencia používa?

Umelá inteligencia sa používa od zdravotníctva cez logistiku a dopravu až po najrôznejšie asistenčné systémy. Koncovým používateľom je často spotrebiteľ. Ide o najrôznejšie prístroje, ktoré monitorujú návyky, telesnú kondíciu (tzv. wearables), inteligentné spotrebiče, dokonca inteligentné domácnosti, virtuálnych asistentov a autonómne vozidlá.

Umelá inteligencia nemusí byť využívaná len spotrebiteľom, ale aj podnikateľom, aj keď jeho produktom nebude služba ani výrobok založený na umelej inteligencii. Umelá inteligencia má veľký potenciál v marketingu, pri samotnom uzatváraní zmlúv so spotrebiteľom, alebo pri riešení spotrebiteľských sporov.

Ako sa na umelú inteligenciu pozerá právo?

Umelá inteligencia, teda tá slabá umelá inteligencia, sa začína využívať v rôznych oblastiach, alebo sa jej použitie minimálne testuje a plánuje. Európska komisia sa preto už niekoľko rokov snaží vytvoriť všeobecné pravidlá, ktoré by používanie umelej inteligencie, alebo skôr samotnú umelú inteligenciu regulovali.

V legislatívnom procese ide o tzv. akt o umelej inteligencii, ktorý by mal obsahovať definíciu umelej inteligencie, mal by priniesť zákaz niektorých systémov a praktík a stanoviť osobitné povinnosti pre vysoko rizikové systémy umelej inteligencie, teda systémy, ktoré by mohli mať negatívny dopad na bezpečnosť a základné ľudské práva.

Umelá inteligencia je všeobecný pojem, preto je prvým problémom už samotná definícia umelej inteligencie, ktorá bude určovať, ktoré systémy budú regulované a ktoré nie. Na tieto všeobecné pravidlá by mali byť naviazané pravidlá pre umelú inteligenciu vo vybraných oblastiach, ako je bezpečnosť výrobkov, alebo autonómne vozidlá. Je potrebné upozorniť, že ide o definíciu právnu, nie vedeckú ani technickú.

JUDr. et Mgr. Eva Fialová, LL.M., Ph.D.

Študovala magisterský program na University of Amsterdam (LL.M. v odbore informačné právo), titul Ph.D. získala na Masarykovej univerzite v Brne. Aktuálne pôsobí v Ústave štátu a práva Akadémie vied ČR a v advokátskej kancelárii PRK Partners, kde sa špecializuje na právo informačných a komunikačných technológií. Zaoberá sa najmä právom autonómnych systémov, umelej inteligencie a ochranou osobných údajov. Je autorkou monografie Bezkontaktné čipy a ochrana súkromia a spoluautorkou kníh Zodpovednosť za škodu z prevádzky autonómnych vozidiel, Profilovanie a automatizované rozhodovanie (nielen) vo svetle ľudských práv a základných slobôd a Ochrana osobnosti, súkromia a osobných údajov. Je tiež autorkou vedeckých článkov týkajúcich sa rôznych aspektov moderných technológií a práva.

Ktoré problémy v súčasnosti právo v súvislosti s umelou inteligenciou rieši?

Keď sa pozrieme na už spomínaný akt o umelej inteligencii, vedie sa veľká diskusia práve o definícii umelej inteligencie, teda o tom, ktoré systémy budú do regulácie patriť. Konkrétne pri akte o umelej inteligencii sa tiež vedú diskusie o tom, ktoré systémy by mali byť úplne zakázané, alebo ktoré systémy by mali patriť medzi vysoko rizikové. Často spomínaná téma je zodpovednosť za umelú inteligenciu a diskriminácia, alebo rozdielne zaobchádzanie s používateľmi. A, samozrejme, ochrana osobných údajov.

Spomínate pripravovaný akt o umelej inteligencii. Čoho všetkého by sa mal tento predpis dotýkať a hlavne ako sa dotkne spotrebiteľov?

Akt o umelej inteligencii rozdeľuje systémy umelej inteligencie na štyri kategórie podľa miery rizika, ktoré by mohli pre človeka znamenať. Prvou kategóriou sú systémy s neprijateľnou mierou rizika. Tieto systémy sú buď úplne zakázané, alebo bude ich používanie povolené iba vo výnimočných prípadoch.

Ktoré systémy to budú?

Zakázaný bude tzv. social-scoring, postup, keď sa človek hodnotí na základe svojho sociálneho správania a vlastností a toto hodnotenie by ho mohlo znevýhodňovať. Podľa pôvodného návrhu by bol social-scoring zakázaný len pre orgány verejnej moci, teda to, čo sa deje v Číne. Podľa posledného návrhu by mal byť social-scoring zakázaný úplne. Nesmeli by ho používať ani súkromné spoločnosti, napríklad pri hodnotení dôveryhodnosti zákazníkov.

Hodnotenie dôveryhodnosti je však bežne potrebné pri rozhodovaní o poskytnutí či neposkytnutí úveru bankou, alebo pri rozhodovaní o umožnení odloženej platby v e-shope, čo je tiež forma úveru. Social-scoring robí spoločnosť, ktorá službu odloženej platby poskytuje. Social-scoring môže využívať aj platforma poskytujúca krátkodobé ubytovanie. Spotrebiteľovi nebude táto služba poskytnutá, pretože systém ho vyhodnotí ako nespoľahlivú osobu, ktorá by mohla v byte spôsobiť škodu.

Ktoré ďalšie systémy budú zakázané?

Zakázané budú aj také systémy, ktoré využívajú podprahové vnímanie a mohli by spôsobiť škodu. Napríklad ovplyvnenie spotrebiteľa, aby sa nejakým spôsobom správal, alebo naopak nesprával, napríklad aby neuplatňoval svoje práva. Rovnako budú zakázané aj systémy, ktoré využívajú zraniteľnosť určitých osôb takým spôsobom, že ovplyvnia správanie týchto zraniteľných osôb, ktoré by z toho mali, alebo by mohli mať ujmu. Napríklad systémy, ktoré mieria na deti či mentálne postihnuté osoby. Systémy by mohli ponúkať týmto osobám tovar alebo služby, ktoré by im mohli v konečnom dôsledku spôsobiť škodu, napr. nevýhodné finančné služby.

Ďalšou kategóriou budú asi vysoko rizikové systémy. O čo ide?

Medzi vysoko rizikové systémy budú patriť napr. systémy určujúce prístup ku vzdelaniu, systémy používané na nábor zamestnancov, alebo systémy biometrickej identifikácie na diaľku. Napríklad identifikovanie zákazníkov skenovaním ich tvárí pri vstupe do obchodného centra. Vysoko rizikový systém bude aj systém na hodnotenie bonity klienta. Pri týchto systémoch bude potrebné rozlíšiť, ktorý systém bude predstavovať zakázaný social-scoring a ktorý bude povolený, ale silne regulovaný systém na posúdenie bonity. Podľa poslednej verzie by medzi vysoko rizikové systémy malo byť zaradené hodnotenie rizika a určovanie ceny pri produktoch životného a zdravotného poistenia. Vo všeobecnosti ide o systémy, ktoré majú, alebo by mohli mať, nepriaznivý vplyv na bezpečnosť človeka, alebo na jeho základné práva.

Aké budú mať poskytovatelia vysoko rizikových systémov povinnosti?

Pred uvedením na trh budú musieť poskytovatelia vysoko rizikových systémov splniť množstvo povinností týkajúcich sa hodnotenia rizika, kvality dát, transparentnosti a informovania používateľa. Systém musí byť navrhnutý tak, aby umožňoval ľudský dohľad. Poskytovatelia budú musieť systémy registrovať a certifikovať. Určité povinnosti budú mať aj výrobcovia, dovozcovia, alebo distribútori vysoko rizikových systémov.

A čo systémy zo zvyšných dvoch kategórií?

Treťou kategóriou na stupni rizika sú systémy s obmedzeným rizikom. Tieto systémy predstavujú síce menšie riziko, ako systémy zakázané a vysoko rizikové, napriek tomu pri nich isté riziko pre používateľov pretrváva. Systémy s obmedzeným rizikom sú chatboty založené na umelej inteligencii, ktoré využíva na komunikáciu so zákazníkmi čoraz viac firiem, systémy rozpoznávania emócií zákazníkov, alebo systémy využívajúce techniku deep fake, teda zobrazenia, ktoré sa môže zdať na prvý pohľad ako pravdivé, hoci to tak nie je . Napríklad video alebo fotka, ktoré vyzerajú ako originál, no v skutočnosti ide o podvrh. Poskytovatelia systémov s obmedzeným rizikom musia používateľa informovať o používaní týchto systémov. Poskytovatelia ostatných systémov, teda systémov s minimálnym rizikom, nemajú žiadne osobitné povinnosti.

Veľmi sa zdôrazňuje transparentnosť umelej inteligencie. Čo si pod tým máme v praxi predstaviť?

Transparentnosť všeobecne znamená prehľadnosť, jasnosť. Vo vzťahu k umelej inteligencii to znamená, že poskytovateľ systému by mal poskytnúť toľko informácií, aby si používateľ mohol vytvoriť obrázok o tom, ako systém funguje. Teda hlavne to, že výrobok alebo služba, používa systém umelej inteligencie, základné vysvetlenie, ako systém funguje a dôsledky využitia systému pre používateľov. Používateľom môže byť podnikateľ, ktorý má zase informačné povinnosti voči spotrebiteľovi. Neinformovanie o použití systému umelej inteligencie môže byť nekalou obchodnou praktikou. Nekalou obchodnou praktikou môže byť aj tvrdenie, že výrobok používa umelú inteligenciu, aj keď to tak nie je.

Nemecký súd napríklad riešil reklamný výrok spoločnosti Tesla Germany, že vozidlá majú potenciál na autonómne šoférovanie. Jednou z charakteristík umelej inteligencie je, že koná autonómne, to znamená bez ľudského zásahu. Vozidlá Tesla, ktorými sa súd zaoberal, neboli autonómne, ale išlo o vozidlá s pokročilými asistenčnými systémami, ktoré neumožňovali riadenie bez ľudského zásahu.

Súd v Mníchove potvrdil výrok o schopnosti autonómneho riadenia ako klamlivý. Podľa súdu mohol totiž vyvolať u priemerných spotrebiteľov mylný dojem, že vozidlo je skutočne autonómne, a preto do šoférovania nemusí človek zasahovať. Spotrebitelia tiež mohli nadobudnúť dojem, že autonómne šoférovanie je v Nemecku povolené, čo vtedy nebolo. Odvolací súd žalobu proti Tesle zamietol. Podľa rozsudku odvolacieho súdu reklama na autopilota nemohla vyvolať v spotrebiteľoch dojem, že autonómne šoférovanie Tesly je povolené. Tesla teda môže reklamu na autopilota naďalej používať.

Ďalší prípad, keď súd riešil reklamné tvrdenia týkajúce sa údajného použitia systémov umelej inteligencie, je opäť z Nemecka. Spoločnosť Wolters Kluwer ponúkala systém na tvorbu zmlúv a iných právnych dokumentov, ktorý údajne používal umelú inteligenciu a mal byť rýchlejší a lacnejší ako advokát, ale rovnako kvalitný. Súd toto tvrdenie ako klamlivé zakázal. Súd argumentoval tým, že hoci bol systém komplexný a individualizovaný, bol založený na vopred určenej rozhodovacej štruktúre. Program bol iba katalógom otázok a odpovedí. Nešlo teda o autonómny systém založený na umelej inteligencii.

Dnes je umelá inteligencia v móde a každý by ju chcel používať. Za nejaký čas môže byť výhodou naopak individuálne, nie individualizované ľudské posúdenie.

Hovorili ste o social-scoringu a o posudzovaní bonity klientov. Nie je s tým spojené riziko diskriminácie niektorých spotrebiteľov?

Áno, všetky tieto systémy sú určené na to, aby rýchlo spracovali veľké množstvo informácií a na ich základe rozhodli o tom, či podnikateľ spotrebiteľovi poskytne službu, alebo nie.

Pri vyjednávaní zdravotného poistenia si systémy na základe informácií z rôznych zdrojov vyhodnotia, že ste ohrozený alebo ohrozená chorobou, ktorá by vyžadovala nákladnejšiu liečbu, keby prepukla. Poisťovňa vám preto ponúkne zmluvu s vyšším poistným, alebo s vami zmluvu vôbec neuzavrie. Alebo si predstavte, že bývate v štvrti, ktorá je v profiloch, ktoré systémy majú k dispozícii, alebo si ich samy vytvárajú, označená ako rizikovejšia. Poistenie auta proti krádeži, alebo poškodeniu vás bude stáť oveľa viac ako niekoho, kto býva o pár ulíc ďalej.

Som mladý britský študent, preto ma systém vyhodnotí ako rizikovejšieho nájomníka krátkodobého ubytovania. Títo nájomníci častejšie organizujú divoké večierky, obťažujú okolie a ničia vybavenie. Preto zaplatím vyššiu kauciu, alebo mi platforma úplne odmietne ubytovanie sprostredkovať. Pri niektorých produktoch platia muži či ženy vyššiu cenu. U mužov sa predpokladá, že sa správajú riskantnejšie za volantom, preto zaplatia vyššie povinné ručenie. Naopak, pri kúpe nového vozidla jedna štúdia opisuje, že mužom bola ponúknutá nižšia počiatočná cena, ako ženám. Táto štúdia však ukázala aj diskrimináciu na základe rasy. Bielym mužom bola ponúknutá nižšia cena nielen v porovnaní so ženami, ale aj s mužmi s inou ako bielou farbou pleti.

V čase, keď si veľa produktov kupujeme on-line, je stanovenie rozdielnych cien jednoduchšie a častejšie. S tým rozdielom, že umelá inteligencia nebude určovať cenu podľa toho, aké máte pohlavie či rasu, ale aké pohlavie alebo rasu u vás predpokladá umelá inteligencia na základe domnienky. Verím, že tieto kategórie určí umelá inteligencia veľmi ľahko.

Na druhej strane môže byť analýzou a zmenou systému diskriminácia naopak zistená a napravená, čo sa u ľudí deje len ťažko. Prvým problémom je, že o cenovej diskriminácii vôbec nemusíte vedieť. Druhým, že aj keď o nej vedieť budete, nebude vám to nič platné, pokiaľ rovnakú techniku budú využívať všetky spoločnosti, alebo väčšina z nich. Potom veľmi na výber nemáte a musíte akceptovať ich podmienky.

Umelá inteligencia potrebuje na rozhodovanie veľa dát, často osobných údajov. Lenže máme GDPR, ktoré je pri využívaní osobných údajov dosť striktné…

Systémy umelej inteligencie potrebujú veľké množstvo dát, aby boli výstupy čo najlepšie. To znamená, aby sa rozhodovali rovnako, alebo dokonca lepšie ako človek. Čím viac dát, tým lepšie. Na druhej strane GDPR požaduje zhromažďovať čo najmenej osobných údajov. Osobné údaje budú poskytovatelia systémov umelej inteligencie potrebovať vo fáze vývoja, k samotnému učeniu umelej inteligencie na tréningové dáta, aj vo fáze ostrej prevádzky systému.

GDPR obsahuje požiadavku zohľadnenia ochrany osobných údajov už v návrhu. Napríklad používať iba anonymizované dáta. Domnievam sa, že spotrebitelia budú stále citlivejší na využívanie svojich osobných údajov a budú uprednostňovať produkty, ktoré budú tzv. privacy-friendly.

Veľa sa v minulom roku hovorilo o zodpovednosti za umelú inteligenciu. Boli predstavené návrhy dvoch právnych predpisov. Mohli by ste nám priblížiť, ako bude zodpovednosť za umelú inteligenciu vyzerať?

V septembri minulého roka boli zverejnené návrhy dvoch smerníc. Smernice musia byť, na rozdiel od nariadenia, transponované do nášho práva. Prvý z návrhov sa týka zodpovednosti za výrobky, alebo zodpovednosti za to, keď výrobok spôsobí škodu. Súčasná právna úprava nepozerá na počítačový program, softvér všeobecne ako na výrobok. Pre poškodeného je takmer nemožné dokázať, že výrobok mal chybu a chyba bola príčinou škody.

Keď vytečie práčka a voda zničí vybavenie časti bytu, nie je zvyčajne problém s dokazovaním. Keď autonómne vozidlo narazí do plotu, alebo spôsobí niečo horšie, môže to byť preto, že systém autonómneho riadenia mal chybu, alebo jednoducho zle vyhodnotil správne dáta. Chyba môže byť prítomná v algoritme, ale tiež nemusí byť. Pokiaľ už sa chyba v systéme analýzou objaví, čo nemusí byť pravidlom, nebude často jasné, či táto konkrétna chyba bola príčinou vzniku škody, teda rozbitého plotu a poškodeného auta. Návrh smernice obsahuje pravidlá na určenie, kedy sa výrobok považuje za chybný. Návrh smernice obsahuje domnienku existencie príčinnej súvislosti medzi chybou výrobku a vznikom škody. To znamená, že sa predpokladá, že chyba výrobku spôsobila škodu, pokiaľ nie je preukázaný opak. Nová smernica sa bude týkať – rovnako ako súčasná právna úprava – iba vzťahu spotrebiteľ - podnikateľ.

O druhom návrhu sa hovorí ako o smernici o zodpovednosti za umelú inteligenciu. Nie je to úplne tak. Návrh smernice nezavádza novú právnu zodpovednosť, ale dáva poškodenému k dispozícii nástroje na to, aby sa ľahšie domohol nároku na náhradu škody. Zmyslom smernice je pomôcť poškodenému uniesť dôkazné bremeno v prípade, že sa domnieva, že mu systém umelej inteligencie spôsobil škodu.

Súd môže nariadiť prevádzkovateľovi vysoko rizikového systému umelej inteligencie, aby zverejnil informácie a dokumenty o tomto systéme. Táto druhá smernica sa nebude obmedzovať iba na spotrebiteľov. Pri týchto dvoch smerniciach ide o prvý návrh a je pravdepodobné, že text sa bude ešte meniť.

Zatiaľ to vyzerá tak, že umelá inteligencia bude pre spotrebiteľa dosť riziková záležitosť. Existujú nejaké výhody umelej inteligencie pre spotrebiteľov?

Domnievam sa, že ak by umelá inteligencia nemala výhody pre spotrebiteľov, vývoj týchto systémov na produkty určené spotrebiteľom by sa zastavil. Spotrebiteľom prinesie umelá inteligencia individualizovanejšie výrobky a služby. To, čo bolo doteraz výsadou bohatších, môže byť s umelou inteligenciou bežné. Zrýchli sa zákaznícky servis, pretože otázky bude vybavovať systém umelej inteligencie. Umelá inteligencia bude zákazníkom k dispozícii 24 hodín denne, 7 dní v týždni.

Výhodou pre podnikateľov, ale aj spotrebiteľov môže byť personalizovanejší servis aj ponuka produktov. Analýza dát získaných pri používaní najrôznejších aplikácií môže používateľom doslova zachrániť život, keď ich upozorní na zlé hodnoty, ktoré pri používaní namerala. Verím, že spotrebiteľ rýchlo zistí, čo mu prináša úžitok. Umelá inteligencia môže pomôcť spotrebiteľovi vyhodnotiť, ktorý produkt umelej inteligencie nespĺňa určité parametre, o ktorých poskytovateľ tvrdí, že ich spĺňa, a pod.

Prihlásiť