UE osiąga porozumienie polityczne w sprawie Aktu w sprawie sztucznej inteligencji
15 grudnia 2023

UE osiąga porozumienie polityczne w sprawie Aktu w sprawie sztucznej inteligencji

fot. EC - Audiovisual Service

Nowe przepisy zapewnią bezpieczeństwo, etykę i odpowiedzialność systemów AI

8 grudnia osiągnięto wstępne porozumienie polityczne dotyczące Aktu w sprawie sztucznej inteligencji, które ma na celu zapewnienie ochrony praw podstawowych, demokracji, praworządności i środowiska przed sztuczną inteligencją wysokiego ryzyka, jednocześnie kładąc nacisk na pobudzanie innowacyjności oraz stworzenia Europy liderem w tej dziedzinie. W przepisach ustanawia się obowiązki dotyczące sztucznej inteligencji w oparciu o potencjalne ryzyko i poziom skutków.

AI Act to więcej niż zbiór przepisów. To punkt wyjścia dla unijnych start-upów i badaczy, którzy mogą przewodzić światowemu wyścigowi sztucznej inteligencji” – tak projekt skomentował Thierry Breton,  unijny komisarz ds. rynku wewnętrznego.

Entuzjazm z powodu osiągnięcia porozumienia jest zrozumiały i całkowicie uzasadniony, jednakże wciąż należy zachować cierpliwość, gdyż akt wymaga jeszcze długotrwałych prac technicznych i redakcyjnych.

Na tym etapie za zamknięte kwestie można uznać przepisy dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia, których producentów nakazano rozliczać z danych, na których owe systemy były trenowane. Niezmienny pozostał również podział na kategorie ryzyka związanych z użyciem sztucznej inteligencji (przyp. brak lub minimalne ryzyko, niskie, wysokie, niedopuszczalne).

Akt promuje również piaskownice regulacyjne (regulatory sandboxes) i testy w świecie rzeczywistym (real-world-testing), ustanowione przez władze krajowe w celu opracowywania i szkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.

Sfinalizowane są również kwestie wysokości kar, gdzie kary administracyjne ustalane są jako minimalna suma lub procent rocznego światowego obrotu przedsiębiorstwa, jeżeli ten ostatni jest wyższy. W przypadku najpoważniejszych naruszeń zabronionych aplikacji kary mogą wynieść do 7% lub 35 milionów euro, 3% lub 15 milionów euro w przypadku naruszeń obowiązków dostawców systemów i modeli oraz 1,5% w przypadku niepodania dokładnych informacji.

Niemniej zagadnieniami, które wymagają dalszej, szczegółowej pracy są przepisy odnoszące się do systemów rozpoznawania twarzy, egzekwowania prawa, czy zdalnej biometrii.

Perspektywa biznesu

Potrzeba regulacji systemów sztucznej inteligencji jest widzialna i popierana, aczkolwiek przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji trilogowych pozostaje nadal wiele niewyjaśnionych kwestii, co może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa.

Jesteśmy przekonani, że dodatkowe wytyczne oraz kolejne kroki legislacyjne pomogą wytyczyć bardziej przejrzysty kurs na drodze ku konkurencyjności. Możliwa niepewność prawna i dodatkowy czas potrzebny do jej ustanowienia mogą wpłynąć na utrudnienia w inwestycjach w dziedzinie sztucznej inteligencji w Europie, czego należy zdecydowanie unikać.

Kolejne kroki

Kolejnym etapem są prace techniczne oraz głosowania zarówno w Parlamencie, jak i Radzie. Projekt zostanie również przedłożony Komisji IMCO. Akt w sprawie sztucznej inteligencji zacznie obowiązywać dwa lata po wejściu w życie, w przypadku zakazów okres zostaje skrócony do sześciu miesięcy. Natomiast wymagania dotyczące m.in. organów oceniających zgodność (the conformity assessment bodies) i rozdział dotyczący zarządzania (governance) zaczną obowiązywać rok wcześniej.


Eliza Turkiewicz, ekspertka Lewiatana

Tekst dla grudniowego wydania newslettera Brussels Headlines

Akt w sprawie sztucznej inteligencji wkracza do miejsc pracy
16 lutego 2023

Akt w sprawie sztucznej inteligencji wkracza do miejsc pracy

fot. European Union, 2023

Nie mamy wątpliwości, że ostatnie tygodnie obfitowały w coraz to ciekawsze nowinki ze świata sztucznej inteligencji. Nie inaczej jest również na polu legislacyjnym.

Szczególną uwagę firm członkowskich zwróciła zaproponowana przez Parlament Europejski zmiana dotycząca art. 29 Aktu w sprawie sztucznej inteligencji, który zobowiązywałby pracodawców do uzyskania zgody pracowników na zastosowanie systemów sztucznej inteligencji wysokiego ryzyka w miejscu pracy.

Przymus ten tworzy wiele utrudnień oraz komplikacji w stosunkach pracownik – pracodawca. Wyjście poza wymóg informowania, a rozszerzenie go o uzyskanie zgody na użycie SI wysokiego ryzyka radykalnie zmieniłoby praktyki w stosunkach przemysłowych, całkowicie naruszając delikatną równowagę siły negocjacyjnej między kierownictwem a pracownikami.

Zdaniem członków Konfederacji Lewiatan tak szeroki zapis podnosi dodatkowo ryzyko zminimalizowania obecności sztucznej inteligencji w naszej codzienności oraz spowolnienie jej rozwoju, ponieważ inwestycje w te systemy zaczną być postrzegane jako zbyt ryzykowne, biorąc pod uwagę możliwość nieuzyskania zgody pracowników.

Jednym z mankamentów propozycji Parlamentu jest również pomijanie faktu, iż systemy sztucznej inteligencji przynoszą korzyści obu stronom. Systemy te są w stanie wspierać pracowników przy wykonywaniu codziennych czynności i będą oni wzmacniani przez zaawansowane rozwiązania bazujące na SI, czy Big Data.

Warto zauważyć, że automatyzacja zadań, dzięki wykorzystaniu systemów SI może uchronić pracowników przed ryzykownymi sytuacjami, czy umożliwić pracownikom w podeszłym wieku lub osobom z niepełnosprawnościami równy dostęp do pracy.

Sztuczna inteligencja miała również swój wkład do pojawienia się nowych form zarządzania pracownikami w oparciu o zbiór dużych ilości danych w czasie rzeczywistym. Te nowe formy mogą stanowić okazję do poprawy egzekwowania zasad BHP, zmniejszenia narażenia na różne czynniki ryzyka oraz wczesnego wykrywania stresu, problemów zdrowotnych i zmęczenia.

 


Eliza Turkiewicz, ekspertka Konfederacji Lewiatan

Artykuł ukazał się w lutowym wydaniu Brussels Headlines, newslettera europejskiego Lewiatana