Nowe przepisy zapewnią bezpieczeństwo, etykę i odpowiedzialność systemów AI
8 grudnia osiągnięto wstępne porozumienie polityczne dotyczące Aktu w sprawie sztucznej inteligencji, które ma na celu zapewnienie ochrony praw podstawowych, demokracji, praworządności i środowiska przed sztuczną inteligencją wysokiego ryzyka, jednocześnie kładąc nacisk na pobudzanie innowacyjności oraz stworzenia Europy liderem w tej dziedzinie. W przepisach ustanawia się obowiązki dotyczące sztucznej inteligencji w oparciu o potencjalne ryzyko i poziom skutków.
„AI Act to więcej niż zbiór przepisów. To punkt wyjścia dla unijnych start-upów i badaczy, którzy mogą przewodzić światowemu wyścigowi sztucznej inteligencji” – tak projekt skomentował Thierry Breton, unijny komisarz ds. rynku wewnętrznego.
Entuzjazm z powodu osiągnięcia porozumienia jest zrozumiały i całkowicie uzasadniony, jednakże wciąż należy zachować cierpliwość, gdyż akt wymaga jeszcze długotrwałych prac technicznych i redakcyjnych.
Na tym etapie za zamknięte kwestie można uznać przepisy dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia, których producentów nakazano rozliczać z danych, na których owe systemy były trenowane. Niezmienny pozostał również podział na kategorie ryzyka związanych z użyciem sztucznej inteligencji (przyp. brak lub minimalne ryzyko, niskie, wysokie, niedopuszczalne).
Akt promuje również piaskownice regulacyjne (regulatory sandboxes) i testy w świecie rzeczywistym (real-world-testing), ustanowione przez władze krajowe w celu opracowywania i szkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.
Sfinalizowane są również kwestie wysokości kar, gdzie kary administracyjne ustalane są jako minimalna suma lub procent rocznego światowego obrotu przedsiębiorstwa, jeżeli ten ostatni jest wyższy. W przypadku najpoważniejszych naruszeń zabronionych aplikacji kary mogą wynieść do 7% lub 35 milionów euro, 3% lub 15 milionów euro w przypadku naruszeń obowiązków dostawców systemów i modeli oraz 1,5% w przypadku niepodania dokładnych informacji.
Niemniej zagadnieniami, które wymagają dalszej, szczegółowej pracy są przepisy odnoszące się do systemów rozpoznawania twarzy, egzekwowania prawa, czy zdalnej biometrii.
Perspektywa biznesu
Potrzeba regulacji systemów sztucznej inteligencji jest widzialna i popierana, aczkolwiek przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji trilogowych pozostaje nadal wiele niewyjaśnionych kwestii, co może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa.
Jesteśmy przekonani, że dodatkowe wytyczne oraz kolejne kroki legislacyjne pomogą wytyczyć bardziej przejrzysty kurs na drodze ku konkurencyjności. Możliwa niepewność prawna i dodatkowy czas potrzebny do jej ustanowienia mogą wpłynąć na utrudnienia w inwestycjach w dziedzinie sztucznej inteligencji w Europie, czego należy zdecydowanie unikać.
Kolejne kroki
Kolejnym etapem są prace techniczne oraz głosowania zarówno w Parlamencie, jak i Radzie. Projekt zostanie również przedłożony Komisji IMCO. Akt w sprawie sztucznej inteligencji zacznie obowiązywać dwa lata po wejściu w życie, w przypadku zakazów okres zostaje skrócony do sześciu miesięcy. Natomiast wymagania dotyczące m.in. organów oceniających zgodność (the conformity assessment bodies) i rozdział dotyczący zarządzania (governance) zaczną obowiązywać rok wcześniej.
Eliza Turkiewicz, ekspertka Lewiatana
Tekst dla grudniowego wydania newslettera Brussels Headlines