Akt w sprawie sztucznej inteligencji: uprawnienia nowej Komisji nie mogą być zbyt szerokie
19 listopada 2024

Akt w sprawie sztucznej inteligencji: uprawnienia nowej Komisji nie mogą być zbyt szerokie

Zakończyły się konsultacje społeczne Aktu w sprawie sztucznej inteligencji (AI Act) – projektu ustawy regulującej wykorzystanie i rozwój tej technologii w Polsce. Konfederacja Lewiatan docenia ambicje Ministerstwa Cyfryzacji, aby Polska dołączyła do grona państw członkowskich wdrażających unijny akt jako pierwsze. Eksperci Lewiatana podkreślają jednak, że wiele zaproponowanych zapisów wymaga dalszej dyskusji i analizy, np. zakres kompetencji nowego krajowego organu nadzorczego, czy obszar przetwarzania przez niego danych.

Akt w sprawie sztucznej inteligencji nakłada obowiązek powołania organu, który będzie monitorować rynek i wspierać przedsiębiorców. Zgodnie z projektem ustawy, funkcję tę ma pełnić nowy, kolegialny podmiot – Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI).

– Nasze wątpliwości odnoszą się do rzeczywistego zakresu kompetencji krajowego organu nadzorczego, szczególnie w odniesieniu do przedsiębiorców zagranicznych, wobec których organy nadzoru w różnych państwach członkowskich mogą równocześnie prowadzić kontrole i postępowania administracyjne – mówi Eliza Turkiewicz, ekspertka Konfederacji Lewiatan.

– Niejasności pojawiają się zwłaszcza w przypadku działań podejmowanych przez polski organ, takich jak stosowanie określonych środków wobec przedsiębiorców mających siedziby w innych państwach, szczególnie gdy na terytorium Polski działają odrębne spółki – utworzone na podstawie prawa polskiego – lub oddziały tych przedsiębiorców. W sytuacji, gdy przedsiębiorca prowadzi działalność objętą globalnymi regulacjami, istotne staje się rozstrzygnięcie, wobec którego podmiotu z międzynarodowej grupy kapitałowej powinien prowadzić działania krajowy organ nadzoru – wobec przedsiębiorcy głównego, jego lokalnej spółki lub oddziału, czy może wobec kilku podmiotów jednocześnie – oraz jak pogodzić kompetencje krajowego organu z organami innych państw – podkreśla ekspertka Lewiatana.

Ponadto projekt wzbudza wątpliwości co do zakresu przetwarzania danych przez nowy organ, a konkretnie danych objętych tajemnicą komunikacji elektronicznej, które są szczególnie chronione w polskim systemie prawnym. Dane te mogłyby zostać ujawnione sądowi – w postępowaniu karnym – lub prokuratorowi – po uprzednim wydaniu postanowienia o zwolnieniu dostawcy usług komunikacji elektronicznej z takiej tajemnicy, a także uprawnionym organom powołanym do ochrony bezpieczeństwa państwa i porządku publicznego. Zdaniem Konfederacji Lewiatan udostępnienie takich chronionych danych Komisji mogłoby wytworzyć niekorzystny precedens, dotychczas niespotykany w naszym systemie prawnym. Do takich danych nie ma dostępu np. sąd w postępowaniu cywilnym, a miałyby być udostępniane nowej Komisji. To uprawnienie zbyt daleko idące, pozbawione racjonalnego uzasadnienia.

Konfederacja Lewiatan wspiera działania Ministerstwa Cyfryzacji zmierzające do stworzenia efektywnych ram regulacyjnych dla sztucznej inteligencji, opartych na analizie ryzyka i odpowiednich mechanizmach ochronnych. –  Apelujemy o innowacyjne, proporcjonalne podejście, skoordynowane na poziomie lokalnym i unijnym, uwzględniające kluczową rolę globalnych standardów w odpowiedzialnym rozwoju sztucznej inteligencji – podkreśla Eliza Turkiewicz.

Konfederacja Lewiatan

 

UE osiąga porozumienie polityczne w sprawie Aktu w sprawie sztucznej inteligencji
15 grudnia 2023

UE osiąga porozumienie polityczne w sprawie Aktu w sprawie sztucznej inteligencji

fot. EC - Audiovisual Service

Nowe przepisy zapewnią bezpieczeństwo, etykę i odpowiedzialność systemów AI

8 grudnia osiągnięto wstępne porozumienie polityczne dotyczące Aktu w sprawie sztucznej inteligencji, które ma na celu zapewnienie ochrony praw podstawowych, demokracji, praworządności i środowiska przed sztuczną inteligencją wysokiego ryzyka, jednocześnie kładąc nacisk na pobudzanie innowacyjności oraz stworzenia Europy liderem w tej dziedzinie. W przepisach ustanawia się obowiązki dotyczące sztucznej inteligencji w oparciu o potencjalne ryzyko i poziom skutków.

AI Act to więcej niż zbiór przepisów. To punkt wyjścia dla unijnych start-upów i badaczy, którzy mogą przewodzić światowemu wyścigowi sztucznej inteligencji” – tak projekt skomentował Thierry Breton,  unijny komisarz ds. rynku wewnętrznego.

Entuzjazm z powodu osiągnięcia porozumienia jest zrozumiały i całkowicie uzasadniony, jednakże wciąż należy zachować cierpliwość, gdyż akt wymaga jeszcze długotrwałych prac technicznych i redakcyjnych.

Na tym etapie za zamknięte kwestie można uznać przepisy dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia, których producentów nakazano rozliczać z danych, na których owe systemy były trenowane. Niezmienny pozostał również podział na kategorie ryzyka związanych z użyciem sztucznej inteligencji (przyp. brak lub minimalne ryzyko, niskie, wysokie, niedopuszczalne).

Akt promuje również piaskownice regulacyjne (regulatory sandboxes) i testy w świecie rzeczywistym (real-world-testing), ustanowione przez władze krajowe w celu opracowywania i szkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.

Sfinalizowane są również kwestie wysokości kar, gdzie kary administracyjne ustalane są jako minimalna suma lub procent rocznego światowego obrotu przedsiębiorstwa, jeżeli ten ostatni jest wyższy. W przypadku najpoważniejszych naruszeń zabronionych aplikacji kary mogą wynieść do 7% lub 35 milionów euro, 3% lub 15 milionów euro w przypadku naruszeń obowiązków dostawców systemów i modeli oraz 1,5% w przypadku niepodania dokładnych informacji.

Niemniej zagadnieniami, które wymagają dalszej, szczegółowej pracy są przepisy odnoszące się do systemów rozpoznawania twarzy, egzekwowania prawa, czy zdalnej biometrii.

Perspektywa biznesu

Potrzeba regulacji systemów sztucznej inteligencji jest widzialna i popierana, aczkolwiek przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji trilogowych pozostaje nadal wiele niewyjaśnionych kwestii, co może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa.

Jesteśmy przekonani, że dodatkowe wytyczne oraz kolejne kroki legislacyjne pomogą wytyczyć bardziej przejrzysty kurs na drodze ku konkurencyjności. Możliwa niepewność prawna i dodatkowy czas potrzebny do jej ustanowienia mogą wpłynąć na utrudnienia w inwestycjach w dziedzinie sztucznej inteligencji w Europie, czego należy zdecydowanie unikać.

Kolejne kroki

Kolejnym etapem są prace techniczne oraz głosowania zarówno w Parlamencie, jak i Radzie. Projekt zostanie również przedłożony Komisji IMCO. Akt w sprawie sztucznej inteligencji zacznie obowiązywać dwa lata po wejściu w życie, w przypadku zakazów okres zostaje skrócony do sześciu miesięcy. Natomiast wymagania dotyczące m.in. organów oceniających zgodność (the conformity assessment bodies) i rozdział dotyczący zarządzania (governance) zaczną obowiązywać rok wcześniej.


Eliza Turkiewicz, ekspertka Lewiatana

Tekst dla grudniowego wydania newslettera Brussels Headlines

Akt w sprawie sztucznej inteligencji wkracza do miejsc pracy
16 lutego 2023

Akt w sprawie sztucznej inteligencji wkracza do miejsc pracy

fot. European Union, 2023

Nie mamy wątpliwości, że ostatnie tygodnie obfitowały w coraz to ciekawsze nowinki ze świata sztucznej inteligencji. Nie inaczej jest również na polu legislacyjnym.

Szczególną uwagę firm członkowskich zwróciła zaproponowana przez Parlament Europejski zmiana dotycząca art. 29 Aktu w sprawie sztucznej inteligencji, który zobowiązywałby pracodawców do uzyskania zgody pracowników na zastosowanie systemów sztucznej inteligencji wysokiego ryzyka w miejscu pracy.

Przymus ten tworzy wiele utrudnień oraz komplikacji w stosunkach pracownik – pracodawca. Wyjście poza wymóg informowania, a rozszerzenie go o uzyskanie zgody na użycie SI wysokiego ryzyka radykalnie zmieniłoby praktyki w stosunkach przemysłowych, całkowicie naruszając delikatną równowagę siły negocjacyjnej między kierownictwem a pracownikami.

Zdaniem członków Konfederacji Lewiatan tak szeroki zapis podnosi dodatkowo ryzyko zminimalizowania obecności sztucznej inteligencji w naszej codzienności oraz spowolnienie jej rozwoju, ponieważ inwestycje w te systemy zaczną być postrzegane jako zbyt ryzykowne, biorąc pod uwagę możliwość nieuzyskania zgody pracowników.

Jednym z mankamentów propozycji Parlamentu jest również pomijanie faktu, iż systemy sztucznej inteligencji przynoszą korzyści obu stronom. Systemy te są w stanie wspierać pracowników przy wykonywaniu codziennych czynności i będą oni wzmacniani przez zaawansowane rozwiązania bazujące na SI, czy Big Data.

Warto zauważyć, że automatyzacja zadań, dzięki wykorzystaniu systemów SI może uchronić pracowników przed ryzykownymi sytuacjami, czy umożliwić pracownikom w podeszłym wieku lub osobom z niepełnosprawnościami równy dostęp do pracy.

Sztuczna inteligencja miała również swój wkład do pojawienia się nowych form zarządzania pracownikami w oparciu o zbiór dużych ilości danych w czasie rzeczywistym. Te nowe formy mogą stanowić okazję do poprawy egzekwowania zasad BHP, zmniejszenia narażenia na różne czynniki ryzyka oraz wczesnego wykrywania stresu, problemów zdrowotnych i zmęczenia.

 


Eliza Turkiewicz, ekspertka Konfederacji Lewiatan

Artykuł ukazał się w lutowym wydaniu Brussels Headlines, newslettera europejskiego Lewiatana