Dane biometryczne wykorzystywane do śledzenia obywateli i wychwytywania emocji, social scoring (działający w ramach systemu kredytu społecznego — klasyfikacja ludzi na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego, osobistych cech) czy predykcja kryminalna (typowanie osób, które mogą popełnić przestępstwo) to narzędzia sztucznej inteligencji, które wykorzystują z powodzeniem chińskie władze do kontrolowania obywateli. Na szczęście w Unii Europejskiej będą one zakazane, a wszystko dzięki AI Act – pierwszej na świecie tak obszernej regulacji prawnej dotyczącej działania i korzystania ze sztucznej inteligencji.
Już od lat 50. XX wieku realizowane są prace nad sztuczną inteligencją. W ostatnich latach, a choćby miesiącach jej rozwój znacznie przyśpieszył. Generatywna SI czy rozwiązania chmurowe są wykorzystywane w różnych obszarach gospodarki. Sztuczna inteligencja stała się technologią ogólnego zastosowania (general purpose). Może być wykorzystana w każdym sektorze czy aspekcie naszego życia. Dlatego tak ważne i pilne staje się ujęcie jej funkcjonowania w ramy prawne. Na świecie podejście do tego zagadnienia jest bardzo zróżnicowane, o czym pisaliśmy już w felietonie „Co dalej z AI? Czy Unia Europejska ureguluje działanie sztucznej inteligencji?”.
Dla Unii Europejskiej rozwój technologii musi być zgodny z europejskimi wartościami, które zostały zapisane w Karcie Praw Podstawowych.
Propozycja horyzontalnej regulacji to działania pionierskie. W toku długiego procesu legislacyjnego 14 czerwca 2023 roku Parlament Europejski zatwierdził w swoim oficjalnym stanowisku projekt ustawy AI Act.
Trójstronne negocjacje w sprawie ostatecznego kształtu tekstu między Parlamentem Europejskim, Komisją Europejską i państwami członkowskimi już trwają. Jest szansa, iż AI Act zostanie przyjęty przed następnymi wyborami do Parlamentu Europejskiego zaplanowanymi na maj 2024 roku.
Wśród gremiów UE jest duża determinacja i wola, żeby przyjąć go do końca obecnej kadencji. Na posłów sprawozdawców wyznaczono sprawnie działających polityków.
Unia Europejska nie chce regulowania wszystkich systemów opartych o sztuczną inteligencję, tylko tych, które stwarzają ryzyko. Zasada oceny ryzyka dzięki tak zwanego risk-based approach [podejście oparte na ryzyku – przyp. red.] już od kilkunastu lat jest wiodącą podczas procesów legislacyjnych na poziomie Unii Europejskiej. W tym przypadku również została zastosowana.
Klasyfikacja obszarów wysokiego ryzyka została rozszerzona o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych lub środowiska. Dostawcy AI będą zmuszeni do zagwarantowania ochrony praw podstawowych, zdrowia i bezpieczeństwa, środowiska, demokracji i praworządności.
Niestety, Parlament Europejski nie wprowadził przepisów, które chroniłyby prawa migrantów przed systemami dyskryminacyjnego nadzoru, a mogą one ułatwiać nielegalne odesłania lub profilowanie osób w sposób dyskryminacyjny.
Pomimo pozostawienia pewnych luk w przepisach AI Act, nowa ustawa jest istotnym krokiem naprzód w ochronie naszych podstawowych praw. Daje nadzieję na lepszą regulację i odpowiedzialne wykorzystanie sztucznej inteligencji, otwierając drogę do dalszych usprawnień i dostosowań w przyszłości.
[1] wypowiedzi z 9 marca 2022 roku – dentons.com