Schválen zákon o umělé inteligenci, pozitivní dopad může mít i na kybernetickou bezpečnost

22. 3. 2024

Sdílet

Odklepnuto: zákon o AI Autor: Depositphotos
Odklepnuto: zákon o AI
Evropský parlament schválil první komplexní nařízení zaměřené na omezení rizik spojených s umělou inteligencí. AI technologie přináší spoustu výhod a mění naše životy, ale také vyvolávají obavy a předsudky, včetně obav o budoucnost lidstva.

Zákon o umělé inteligenci klasifikuje produkty podle rizik a přizpůsobuje tomu jejich kontrolu. Bude mít zároveň přímý i nepřímý dopad na kybernetickou bezpečnost:

1. Přísnější podmínky pro vývoj i nasazení: Vývojáři budou muset dodržovat přísné pokyny, které zajistí, že AI systémy budou vyvíjeny s ohledem na bezpečnost. To znamená začlenit kyberbezpečnostní opatření od základu, zaměřit se na bezpečné šifrování a zajistit odolnost AI systémů proti útokům.

2. Větší transparentnost: Zákon nařizuje transparentnost AI operací, zejména v případě vysoce rizikových AI aplikací. To by mohlo znamenat zveřejňování detailnějších dat používaných pro trénink AI systémů, rozhodovacích procesů a opatření přijatých k zajištění soukromí a bezpečnosti. Transparentnost napomůže identifikaci zranitelných míst a zmírnění potenciálních rizik.

3. Vylepšená ochrana údajů: AI systémy využívají obrovské množství dat a nový zákon klade důraz na bezpečnou správu dat a ochranu údajů. To zahrnuje zajištění integrity a důvěrnosti osobních údajů, což je klíčový aspekt kybernetické bezpečnosti.

4. Odpovědnost za bezpečnostní incidenty: Zákon se pravděpodobně bude vztahovat i na vyvození odpovědnosti organizací za narušení bezpečnosti AI systémů. To by mohlo znamenat přísnější protokoly pro reakci na incidenty a nutnost, aby AI systémy měly robustní mechanismy pro odhalování kyberbezpečnostních incidentů a reakci na ně.

5. Boj s předsudky a diskriminací: Zákon řeší i předsudky a diskriminaci v AI systémech, čímž nepřímo přispívá ke kybernetické bezpečnosti. U systémů, které jsou spravedlivé a nezaujaté, je menší pravděpodobnost zneužití zranitelností. AI systémy by měly být trénovány na rozmanitých, reprezentativních datech, což může snížit riziko útoků, které využívají neobjektivních rozhodovacích procesů.

6. Certifikační audity a audity shody s předpisy: Vysoce rizikové AI systémy budou muset projít přísným testováním a certifikací, které zajistí, že splňují bezpečnostní standardy EU, včetně kybernetické bezpečnosti. Audity shody s předpisy dále zajistí, že AI systémy budou tyto normy dodržovat po celou dobu svého životního cyklu.

7. Prevence nebezpečného použití umělé inteligence: Cílem zákona je zabránit používání AI ke škodlivým účelům, jako je vytváření deepfake obsahu nebo automatizování kybernetických útoků. Zákon reguluje určitá využití AI, čímž zmírňuje riziko, že AI bude použita jako nástroj kybernetických válek a zločinu.

8. Výzkum a spolupráce: Zákon by mohl podnítit výzkum a spolupráci v oblasti umělé inteligence a kybernetické bezpečnosti a podpořit vývoj nových technologií a strategií pro zabezpečení systémů umělé inteligence proti novým hrozbám.

„Rychlý rozvoj AI, zejména generativní umělé inteligence, přináší nové příležitosti, ale i významná rizika. Cílem nového Aktu EU o umělé inteligenci je zavést kontroly a klasifikovat používání umělé inteligence, protože rizika související například s automatickým rozpoznáváním obličejů a analyzováním emocí a výrazů v obličeji jsou znepokojující. Je potřeba zmínit, že nejde o potlačení inovací, ale spíše o vytvoření právního rámce, který je v souladu s demokratickými hodnotami a zároveň chrání práva občanů EU.

Jedná se o první globální zákon, který se snaží řešit rizika, jež může umělá inteligence přinést. Nové technologie by neměly porušovat lidská práva nebo vytvářet předsudky. Ať už se jedná o automatizované vyhodnocování životopisů s genderovou předpojatostí nebo všudypřítomný dohled ve veřejném prostoru pomocí kamer s AI technologiemi či analýzu lékařských údajů ovlivňující výši zdravotního pojištění. Zákon se snaží stanovit jasné hranice pro nasazení umělé inteligence, aby vývojáři měli určitá vodítka a mantinely a také aby bylo jasně vidět, kdo chce AI zneužít.

Transparentnost je jednou z hlavních vizí nového zákona, zejména pokud jde o generativní umělou inteligenci. Během procesu trénování AI tak mohou být odhaleny chyby, které by jinak mohly být označeny za pravdivé. Nezapomínejme, že AI nemá vždy pravdu, naopak se dopouští více chyb, než bychom dnes dovolili prakticky jakékoli jiné technologii.

bitcoin školení listopad 24

Musíme si uvědomit, že bude ještě nějakou dobu trvat, než se dopady zákona projeví. Zpočátku bude pozornost zaměřena hlavně na vysoké pokuty, nicméně to by nemělo být to hlavní.

AI revoluce ukazuje, že legislativa nemůže držet krok s tak mocnou technologií, která ovlivňuje celá průmyslová odvětví, ekonomiky a vlády. Zákon EU o umělé inteligenci by ale mohl posloužit jako katalyzátor širších společenských diskusí a mohl by přimět zúčastněné strany, aby zvážily nejen to, čeho může technologie dosáhnout, ale také jaké to může mít dopady," komentuje Miloslav Lujka, Country Manager Czech Republic, Slovakia & Hungary z kyberbezpečnostní společnosti Check Point Software Technologies.