Parlament Europejski niezwykle sprawnie i efektywnie mierzy się z coraz popularniejszyma przy tym bardzo złożonym tematem sztucznej inteligencji.
Komisja Prawna Parlamentu Europejskiego (JURI) przygotowała trzy sprawozdania w zakresie przedmiotowego tematu, które w pewnym stopniu, skupiając się na zastosowanych konstrukcjach prawnych oraz definicjach, odbiegają treściowo od pierwotnych projektów sprawozdań:
- sprawozdanie wraz z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję;
- sprawozdanie w sprawie prawa własności intelektualnej dla rozwoju technologii sztucznej inteligencji;
- sprawozdanie wraz z zaleceniami dla Komisji w sprawie ram dla etycznych aspektów sztucznej inteligencji, robotyki oraz powiązanych technologii.
W sprawozdaniu wraz z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję podkreślono, że system odpowiedzialności cywilnej za sztuczną inteligencję powinien uwzględniać czynniki etyczne, ekonomiczne, prawne oraz społeczne. Ponadto, za wskazane uznano zastosowanie określenia „zautomatyzowany proces podejmowania decyzji” (automated decision making) w odniesieniu do działań podejmowanych przez AI, co pozwolić ma uniknąć niejednoznacznego pojmowania samego terminu sztuczna inteligencja. Warto wskazać, że zarówno w tym przypadku, jak i w stosunku do pozostałych sprawozdań przyjęto, że nowe, wspólne przepisy odnoszące się do AI mogą przyjąć formę jedynie rozporządzenia.
W sprawozdaniu nawiązano również do dyrektywy dotyczącej odpowiedzialności za produkt (Product Liability Directive), która zdaniem Komisji JURI powinna zostać poddana zmianom, które zapewniłyby jej odpowiednie dopasowanie do dynamicznie rozwijającego się środowiska cyfrowego i nowych technologii. Co więcej, zaznaczono że dodatkowe ramy prawne w zakresie odpowiedzialności na zasadzie winy powinny obejmować jedynie przypadki, gdy przykładowo osoba trzecia jest niemożliwa do zidentyfikowania bądź też, gdy jest niezamożna. Z kolei operator sztucznej inteligencji powinien ponosić odpowiedzialność cywilną bez względu na to, gdzie były podejmowane jego działania oraz czy miały wymiar wirtualny, czy też rzeczywisty. W przypadku zaś, gdy operatorów jest więcej, ponoszą oni odpowiedzialność solidarną.
Komisja JURI opowiada się za wprowadzeniem surowego systemu odpowiedzialności dla niezależnych systemów AI o wysokim ryzyku, przy założeniu, że wysokie ryzyko zostanie dokładnie i klarownie zdefiniowane. Podkreślono także, że systemy oparte o AI nie posiadają osobowości prawnej lub też świadomości przypisywanej ludziom – ich głównym zadaniem jest „służenie człowiekowi”. Co do użytkownika systemu opartego na AI, również może on ponosić odpowiedzialność cywilną tak jak operator, ale jedynie wtedy, gdy jest związany ze zdarzeniem powodującym szkodę a jednocześnie można zakwalifikować go jako operatora. Zgodnie z zaprezentowanym założeniem, wszystkie systemy oparte o AI wskazane jako te o wysokim ryzyku, powinny z kolei zostać umieszczone w załączniku do (projektowanego) rozporządzenia. Jednocześnie pozostałe działania podejmowane przez AI, które nie są zawarte w załączniku, powinny podlegać odpowiedzialności na zasadzie winy, chyba że zastosowanie mają surowsze przepisy krajowe i przepisy z zakresu ochrony konsumenta.
Zdaniem Komisji JURI, (projektowane) rozporządzenie nie wyłącza zastosowania przepisów odnoszących się do dodatkowej odpowiedzialności, wynikającej z zobowiązań umownych, rozporządzeń dotyczących odpowiedzialności produktu, ochrony konsumentów, niedyskryminacji, ochrony pracy czy środowiska naturalnego. Dodatkowo, należy wyraźnie podkreślić, że jest to pierwsze sprawozdanie, w którym pojawiły się dokładne definicje m.in. AI system, high risk, autonomous czy operator lub harm i damage.
Z treści sprawozdania wynika, że operator nie będzie odpowiadać za szkodę wynikającą z działania siły wyższej a jednocześnie możliwym będzie uznanie za nieważną umowę, zawartą nawet przed wyrządzeniem szkody, w sytuacji gdy jej przepisy mają na celu obejście bądź też ograniczają postanowienia (projektowanego) rozporządzenia. Założono również, że zasadnym jest dokonywanie przeglądu (projektowanego) rozporządzenia co 3 lata.
Drugie ze sprawozdań, sprawozdanie w sprawie prawa własności intelektualnej dla rozwoju technologii sztucznej inteligencji zakłada, że w związku z rozwojem AI koniecznym jest wskazanie różnicy między AI-assisted human creations a creations autonomously generated by AI. Za kluczowe działanie uznano w tym kontekście konieczność zwiększenia ochrony własności intelektualnej w kontekście technologii opartych na sztucznej inteligencji.
Komisja JURI stoi na stanowisku, że AI powinno być wykorzystywane do efektywniejszego egzekwowania praw własności intelektualnej. Niezwykle istotną kwestią jest zwrócenie uwagi Parlamentu Europejskiego na AI-generated creations, w kontekście których najprawdopodobniej pojawią się liczne pytania o autorstwo, poziom wynalazczy w przypadku patentów, wynagrodzenie, ochronę prawnoautorską, ochronę znaków towarowych czy wzorów przemysłowych.
Sprawozdanie wraz z zaleceniami dla Komisji w sprawie ram dla etycznych aspektów sztucznej inteligencji, robotyki oraz powiązanych technologii zakłada zapewnienie i promowanie przez państwa członkowskie bezpiecznych rozwiązań opartych na sztucznej inteligencji. Dodatkowo, planuje się stworzenie ram prawnych dla AI opartych na wspólnych, powszechnych znaczeniach oraz wartościach etycznych (z uwzględnieniem wspólnych ram prawa UE, Karty praw podstawowych UE, założeń międzynarodowej ochrony praw człowieka), które będą mogły zostać zastosowane do regulacji technologii wysokiego ryzyka.
Komisja JURI w pełni rozumie potrzebę zwiększenia zaufania konsumentów do sztucznej inteligencji, którzy to konsumenci chcą być pewni, że technologia, z której korzystają jest pozbawiona użycia nieprzejrzystych w działaniu, dyskryminujących algorytmów bądź stronniczych zbiorów danych.
Warto podkreślić, że Parlament Europejski po raz kolejny odniósł się do, dla niektórych skrajnie kontrowersyjnego, zastosowania technologii zdalnego rozpoznawania, jak przykładowo rozpoznawanie cech biometrycznych, które zdaniem Komisji JURI powinno ograniczać się jedynie do użycia przez organy władzy publicznej, po analizie i uwzględnieniu istotnego interesu publicznego. Nie zapomniano oczywiście o potrzebie zapewnienia odpowiedzialności i przejrzystości za działania technologii opartych na AI, a także o dzieleniu się i używaniu danych przez różne podmioty, które to działania można uznać za wrażliwe, a w przypadku których konieczne jest zapewnienie najwyższego bezpieczeństwa, odpowiedniej kontroli oraz poszanowania prywatności. Co więcej, wyraźnie wskazano, że wszystkie technologie oparte o AI powinny zakładać nadzór człowieka.
W odróżnienie od pierwszego ze sprawozdań, tu znaleźć możemy nie tyle definicję systemu opartego na sztucznej inteligencji, co szczegółową definicję samej sztucznej inteligencji. Częstotliwość dokonywania przeglądu (projektowanego) rozporządzenia jest jednak taka sama i wynosi 3 lata.
Elżbieta Dziuba, ekspertka Konfederacji Lewiatan
Konfederacja Lewiatan