8 rekomendacji w sprawie sztucznej inteligencji
24 kwietnia 2024

8 rekomendacji w sprawie sztucznej inteligencji

Dostosowanie polskich przepisów do AI Act, ścisłą współpracę międzynarodową i wsparcie innowacji, demokratyzację AI w opiece zdrowotnej czy mocniejszą ochronę danych osobowych - rekomenduje Konfederacja Lewiatan w kontekście rozwoju sztucznej inteligencji.

– Postulujemy, aby proces wdrożenia unijnego rozporządzenia AI Act do porządku krajowego opierał się na szeroko prowadzonych konsultacjach i wysłuchaniach publicznych, w których powinni brać aktywny udział przedstawiciele jak największej liczby branż i sektorów. Po przyjęciu AI Act organy odpowiedzialne powinny wydawać wskazówki dotyczące kwalifikacji systemów AI i oceny ryzyka, po poprzedzeniu konsultacji społecznych – mówi Eliza Turkiewicz, ekspertka Konfederacji Lewiatan.

Rekomendacje Lewiatana dotyczące sztucznej inteligencji

 1. Dostosowanie naszych przepisów do prawa UE

Postrzegamy dostosowanie polskich przepisów do zgodności z unijnym aktem w sprawie sztucznej inteligencji oraz interpretacje ułatwiające ich stosowanie jako kluczowe wyzwanie, wymagające szczegółowej analizy prawa polskiego i unijnego. W naszej ocenie, w tym celu niezwykle istotne i potrzebne mogą się okazać konsultacje i ścisła współpraca wielu branż, w tym w szczególności sektora technologicznego oraz branż zainteresowanych wykorzystaniem narzędzi AI oraz organów państwowych. Prace legislacyjne powinny uwzględniać potrzeby i wyzwania związane z rozwojem technologii AI oraz możliwości współpracy i regulacji na arenie międzynarodowej.

2. Wzmocnienie współpracy międzynarodowej i wsparcie dla polskich firm

Jesteśmy przekonani, że celem polityki dotyczącej sztucznej inteligencji w Polsce powinno być wspieranie krajowych firm korzystających z AI oraz tych, które mają potencjał wykorzystania takich rozwiązań. Aby to osiągnąć, należy promować i zwiększać wykorzystanie nowoczesnych technologii AI przez polskie przedsiębiorstwa, bez względu na ich wielkość, oraz zwiększać liczbę rozwiązań AI produkowanych w Polsce lub przez nasze firmy. Zachęty finansowe, takie jak preferencje podatkowe czy dofinansowania projektów związanych z AI, powinny być dostępne dla wszystkich przedsiębiorców, niezależnie od sektora czy rozmiaru działalności. To może przyczynić się do zwiększenia konkurencyjności wielu polskich firm. Ponadto, wierzymy w konieczność budowania mostów między sektorem publicznym, prywatnym, akademickim, organizacjami pozarządowymi oraz środowiskiem międzynarodowym w celu wsparcia wymiany wiedzy i doświadczeń związanych z AI.

 3. Zwiększenie bezpieczeństwa danych osobowych

Rozwój sztucznej inteligencji rodzi nowe możliwości i zagrożenia dla ochrony danych osobowych. Wzrasta potrzeba zabezpieczenia danych osób objętych przetwarzaniem w systemach opartych na AI. Ważne jest, aby harmonizować obowiązujące przepisy dotyczące ochrony danych osobowych z regulacjami związanymi ze sztuczną inteligencją. Uważamy, że należy szczególnie dopilnować spójnego podejścia do ochrony danych w ramach RODO i AI Act oraz ich implementujących przepisów. Te regulacje powinny działać wspólnie, by uniknąć niezgodności i nadmiernego uregulowania. Wskazane jest ściślejsze współdziałanie między Prezesem Urzędu Ochrony Danych Osobowych a właściwym organem ds. AI, wyznaczonym zgodnie z AI Act.

4. Upowszechnienie AI w opiece zdrowotnej

Sztuczna inteligencja rewolucjonizuje opiekę zdrowotną, przyśpieszając prace badawcze nad tworzeniem nowych leków, poprawiając diagnostykę, zmniejszając koszty leczenia i prognozując skutki terapii. Jej wykorzystanie staje się standardem globalnym i kluczowym elementem dla placówek medycznych, które borykają się z wyzwaniami finansowymi i kadrowymi. Niestety, większość polskich instytucji zdrowia nie może teraz cieszyć się korzyściami cyfryzacji.

W związku z tym, proponujemy oparcie systemów rządowych na rozwiązaniach chmurowych oraz elastyczne dostosowanie placówek medycznych do ich wykorzystania. Ponadto, apelujemy o wspólne działania z branżą w celu opracowania klarownych wytycznych dotyczących używania sztucznej inteligencji w medycynie, wspierając ich kliniczne zastosowania i doskonaląc organizację opieki zdrowotnej. Te wytyczne powinny promować zasady odpowiedzialnej sztucznej inteligencji oraz ułatwiać wprowadzanie innowacji medycznych.

 5. Zintensyfikowanie edukacji w zakresie AI i higieny cyfrowej

W kontekście sztucznej inteligencji nie możemy zapomnieć o jednym z najważniejszych filarów jej funkcjonowania jaką jest edukacja i higiena cyfrowa. Uważamy za konieczne inicjowanie i wspieranie programów edukacyjnych i szkoleniowych na wszystkich szczeblach edukacji, aby zwiększyć świadomość i umiejętności związane z AI wśród obywateli i pracowników, przedsiębiorców różnych sektorów. Wprowadzenie łatwo dostępnych a być może obowiązkowych dla dzieci lub młodzieży kursów higieny cybernetycznej – umiejętności krytycznego podejścia do treści dostępnych w mediach masowych.

6. Adaptacja pracowników do nowej ery technologicznej

Rozwój sztucznej inteligencji w różnych sektorach niesie ze sobą zarówno nowe możliwości, jak i obawy o utratę pracy i zmianę charakteru istniejących stanowisk. Automatyzacja procesów może zwiększyć efektywność pracowników, pozwalając im skupić się na bardziej skomplikowanych zadaniach. Jednakże może też sprawić, że niektóre stanowiska staną się mniej istotne lub ograniczy się zakres ich obowiązków. W związku z tym konieczne jest odpowiednie przygotowanie pracowników, niezależnie od formy zatrudnienia, do zmieniającej się dynamiki rynkowej. Należy regularnie analizować ryzyko i szanse związane z tworzeniem nowych miejsc pracy. Długoterminowym celem powinno być zwiększenie zarówno ilości, jak i jakości zatrudnienia poprzez rozwój sztucznej inteligencji.

7. Dostęp do wiarygodnych danych potrzebnych sektorowi finansowemu

Sztuczna inteligencja ma coraz większe znaczenie w sektorze finansowym, przynosząc zaawansowane możliwości analizy danych, automatyzacji procesów i optymalizacji decyzji biznesowych. Pragniemy zwrócić uwagę, że kształtowanie polityki sztucznej inteligencji musi uwzględniać podstawowy element, bez którego systemy sztucznej inteligencji nie mogą funkcjonować: dostęp do dobrej jakości, wiarygodnych danych. Postulujemy zatem umożliwienie przekazywania przez potencjalnych i aktualnych kredytobiorców dotyczących ich danych z ZUS w sposób zautomatyzowany (np. przez API), do instytucji pożyczkowych, które oceniają ich zdolność kredytową oraz umożliwienie przez osoby prowadzące jednoosobową działalność gospodarczą przekazywania danych z urzędów skarbowych o wysokości zapłaconego podatku VAT (w celu oszacowania ich dochodów) w sposób zautomatyzowany (np. przez API), do instytucji pożyczkowych, które oceniają ich zdolność kredytową.

8. Cyfryzacja sądów i dokumentów sądowych

W Polsce co roku notuje się wzrost liczby spraw sądowych i wydanych orzeczeń, co już teraz prowadzi do istotnych opóźnień w procesach sądowych i obniżenia wydajności systemu. Wdrożenie dużych modeli językowych w sposób ostrożny i akceptowalny społecznie mogłoby częściowo usprawnić procesy sądowe i zwiększyć efektywność sądownictwa. Jednak, aby w ogóle rozważać tę możliwość w przyszłości, niezbędna jest wcześniejsza cyfryzacja sądów oraz dokumentów sądowych, która do tej pory nie została przeprowadzona. Inne kraje Unii Europejskiej oraz instytucje unijne oraz prywatne sądownictwo arbitrażowe już korzystają z takich rozwiązań w różnym stopniu. Bez działań mających na celu cyfryzację, państwowy system sądownictwa może się załamać. Dlatego niezbędne jest jak najszybsze inwestowanie w cyfryzację sądów.

Zobacz rekomendacje Lewiatana dotyczące sztucznej inteligencji

Konfederacja Lewiatan

 

Generatywna sztuczna inteligencja nie narusza  praw autorskich
12 kwietnia 2024

Generatywna sztuczna inteligencja nie narusza praw autorskich

O przyjęcie tylko tych przepisów, które są wymagane przez unijną dyrektywę dotyczącą prawa autorskiego na jednolitym rynku cyfrowym (DSM) oraz uwzględnienie w dalszych pracach nad nowelizacją ustawy o prawie autorskim specyfiki generatywnej sztucznej inteligencji – apeluje Związek Pracodawców Technologii Cyfrowych Lewiatan.

Pracodawcy pozytywnie oceniają uwzględnienie przez Ministerstwo Kultury i Dziedzictwa Narodowego opinii złożonych w konsultacjach i zmianę w projekcie ustawy o prawie autorskim, która umożliwi eksplorację tekstów i danych dla działań służących trenowaniu generatywnych modeli sztucznej inteligencji. Jest to poprawna implementacja dyrektywy DSM, która umożliwi ponadto postęp technologiczny w Polsce oraz pozwoli na trenowanie generatywnych modeli sztucznej inteligencji na zróżnicowanym zakresie danych lokalnych. To ma kluczowe znaczenie dla sprzyjania inkluzywności, redukowaniu uprzedzeń i zwiększania globalnego zastosowania technologii AI.

Co to jest generatywna sztuczna inteligencja?

Generatywna sztuczna inteligencja (GenAI) to rodzaj sztucznej inteligencji (AI), która opiera się na danych treningowych, na przykład w postaci tekstu, obrazów lub innych mediów i uczy się na podstawie wzorców i struktury takich treści w celu generowania nowych treści o podobnych cechach. Systemy generatywnej sztucznej inteligencji nie zawierają w sobie bibliotek swoich zestawów treningowych, stąd ewentualne obawy, że „skompresowane kopie” przemieszczają się w modelach GenAI, są po prostu nieuzasadnione. Nie istnieje żadna technologia masowej kompresji, która miałaby zdolność kopiowania i przechowywania miliardów danych w postaci tekstu, obrazu lub innych mediów.

Ochrona interesów twórców

Obecne przepisy dotyczące praw autorskich skutecznie chronią interesy twórców. Prawo autorskie nigdy nie miało na celu uniemożliwienia użytkownikowi utworu wyciągnięcia z niego wniosków i stworzenia nowego dzieła. Ponadto, prawo autorskie chroni oryginalne wyrażenia utrwalone w dziele, ale nie chroni pomysłów, koncepcji, faktów, wiedzy ani samych danych.

Modele generatywnej sztucznej inteligencji powinny móc „patrzeć”, „studiować” i „uczyć się” z utworów, tak jak ludzie mogą czytać i uczyć się z książek. Balans, jaki decydenci polityczni wypracowali w prawie autorskim ma na celu ochronę autorów, by mogli otrzymywać wynagrodzenie za swoje prace, przy jednoczesnej ochronie praw użytkowników do uczenia się z dzieł i inspirowania się nimi w celu tworzenia nowych dzieł – podkreśla Związek Pracodawców Technologii Cyfrowych Lewiatan.

 AI zwiększa kreatywność

Sztuczna inteligencja w coraz większym stopniu wspiera tworzenie treści, w tym dla sektora kreatywnego. Autorzy i artyści coraz częściej wykorzystują generatywną sztuczną inteligencję jako narzędzie zwiększające kreatywność, a nie ją ograniczające. Technologia ta wspomaga burze mózgów, przezwyciężanie blokad twórczych i udoskonalanie dzieł, działając nie jako konkurent, ale bardziej jako współtwórca. Zapewnia nieskończoną inspirację, przesuwa granice tradycyjnej kreatywności i oferuje nowe możliwości w sztuce i opowiadaniu historii. Co więcej, generatywna sztuczna inteligencja demokratyzuje twórczą ekspresję, sprawiając, że zaawansowane narzędzia stają się dostępne dla szerszego grona osób. To nie tylko wzmacnia różnorodne głosy, ale także wzbogaca narracje kulturowe. Automatyzując rutynowe zadania, sztuczna inteligencja pozwala twórcom skoncentrować się na podstawowych, innowacyjnych aspektach ich projektów, zwiększając produktywność i jakość kreatywności – uważa Związek Pracodawców Technologii Cyfrowych Lewiatan.

 Konfederacja Lewiatan

 

UE osiąga porozumienie polityczne w sprawie Aktu w sprawie sztucznej inteligencji
15 grudnia 2023

UE osiąga porozumienie polityczne w sprawie Aktu w sprawie sztucznej inteligencji

fot. EC - Audiovisual Service

Nowe przepisy zapewnią bezpieczeństwo, etykę i odpowiedzialność systemów AI

8 grudnia osiągnięto wstępne porozumienie polityczne dotyczące Aktu w sprawie sztucznej inteligencji, które ma na celu zapewnienie ochrony praw podstawowych, demokracji, praworządności i środowiska przed sztuczną inteligencją wysokiego ryzyka, jednocześnie kładąc nacisk na pobudzanie innowacyjności oraz stworzenia Europy liderem w tej dziedzinie. W przepisach ustanawia się obowiązki dotyczące sztucznej inteligencji w oparciu o potencjalne ryzyko i poziom skutków.

AI Act to więcej niż zbiór przepisów. To punkt wyjścia dla unijnych start-upów i badaczy, którzy mogą przewodzić światowemu wyścigowi sztucznej inteligencji” – tak projekt skomentował Thierry Breton,  unijny komisarz ds. rynku wewnętrznego.

Entuzjazm z powodu osiągnięcia porozumienia jest zrozumiały i całkowicie uzasadniony, jednakże wciąż należy zachować cierpliwość, gdyż akt wymaga jeszcze długotrwałych prac technicznych i redakcyjnych.

Na tym etapie za zamknięte kwestie można uznać przepisy dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia, których producentów nakazano rozliczać z danych, na których owe systemy były trenowane. Niezmienny pozostał również podział na kategorie ryzyka związanych z użyciem sztucznej inteligencji (przyp. brak lub minimalne ryzyko, niskie, wysokie, niedopuszczalne).

Akt promuje również piaskownice regulacyjne (regulatory sandboxes) i testy w świecie rzeczywistym (real-world-testing), ustanowione przez władze krajowe w celu opracowywania i szkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.

Sfinalizowane są również kwestie wysokości kar, gdzie kary administracyjne ustalane są jako minimalna suma lub procent rocznego światowego obrotu przedsiębiorstwa, jeżeli ten ostatni jest wyższy. W przypadku najpoważniejszych naruszeń zabronionych aplikacji kary mogą wynieść do 7% lub 35 milionów euro, 3% lub 15 milionów euro w przypadku naruszeń obowiązków dostawców systemów i modeli oraz 1,5% w przypadku niepodania dokładnych informacji.

Niemniej zagadnieniami, które wymagają dalszej, szczegółowej pracy są przepisy odnoszące się do systemów rozpoznawania twarzy, egzekwowania prawa, czy zdalnej biometrii.

Perspektywa biznesu

Potrzeba regulacji systemów sztucznej inteligencji jest widzialna i popierana, aczkolwiek przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji trilogowych pozostaje nadal wiele niewyjaśnionych kwestii, co może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa.

Jesteśmy przekonani, że dodatkowe wytyczne oraz kolejne kroki legislacyjne pomogą wytyczyć bardziej przejrzysty kurs na drodze ku konkurencyjności. Możliwa niepewność prawna i dodatkowy czas potrzebny do jej ustanowienia mogą wpłynąć na utrudnienia w inwestycjach w dziedzinie sztucznej inteligencji w Europie, czego należy zdecydowanie unikać.

Kolejne kroki

Kolejnym etapem są prace techniczne oraz głosowania zarówno w Parlamencie, jak i Radzie. Projekt zostanie również przedłożony Komisji IMCO. Akt w sprawie sztucznej inteligencji zacznie obowiązywać dwa lata po wejściu w życie, w przypadku zakazów okres zostaje skrócony do sześciu miesięcy. Natomiast wymagania dotyczące m.in. organów oceniających zgodność (the conformity assessment bodies) i rozdział dotyczący zarządzania (governance) zaczną obowiązywać rok wcześniej.


Eliza Turkiewicz, ekspertka Lewiatana

Tekst dla grudniowego wydania newslettera Brussels Headlines

Porozumienie ws. sztucznej inteligencji. Biznes zgłasza uwagi
11 grudnia 2023

Porozumienie ws. sztucznej inteligencji. Biznes zgłasza uwagi

Unia Europejska osiągnęła bezprecedensowe w skali świata porozumienie w sprawie sztucznej inteligencji.

Komentarz Elizy Turkiewicz, ekspertki Konfederacji Lewiatan

W miniony piątek, po ponad 30 godzinach trójstronnych negocjacji, udało się osiągnąć wstępne porozumienie w kwestii AI Act. Głównym jego celem jest ochrona praw podstawowych, demokracji oraz praworządności przed wpływem sztucznej inteligencji wysokiego ryzyka. Ma on także wspierać innowacyjność, przy jednoczesnym dążeniu do uczynienia Europy liderem w dziedzinie sztucznej inteligencji.

W nowych przepisach wytyczono obowiązki dotyczące sztucznej inteligencji, opierając się na potencjalnym ryzyku i skutkach. Celem jest osiągnięcie równowagi między ochroną społeczeństwa a zachętą do rozwoju innowacyjnych technologii. W ten sposób Europa zamierza aktywnie kształtować przyszłość sztucznej inteligencji, dbając jednocześnie o fundamentalne wartości i demokratyczne zasady.

Niemniej jednak, przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji trilogowych pozostaje nadal wiele niewyjaśnionych kwestii, co może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa.

Jesteśmy przekonani, że dodatkowe wytyczne oraz kolejne kroki legislacyjne pomogą uzgodnić bardziej przejrzysty kurs na drodze ku konkurencyjności. Możliwa niepewność prawna i dodatkowy czas potrzebny do ustanowienia przepisów mogą wpłynąć na utrudnienia w inwestycjach w dziedzinie sztucznej inteligencji w Europie, czego należy zdecydowanie unikać.

Kolejnym etapem na ścieżce legislacyjnej będzie formalne przyjęcie tekstu zarówno przez Parlament, jak i Radę.

Konfederacja Lewiatan

Unia Europejska musi się stać pionierem bezpiecznej sztucznej inteligencji
22 września 2023

Unia Europejska musi się stać pionierem bezpiecznej sztucznej inteligencji

fot. EC-AV

W orędziu Przewodniczącej Komisji Europejskiej Ursuli von der Leyen nie mogło zabraknąć kwestii związanych z cyfryzacją i sztuczną inteligencją, która szturmem wkroczyła do biznesu, miejsc pracy, ale również życia społecznego.

Myślą przewodnią przemówienia były wyzwania i niepokoje, takie jak rozpowszechnianie szkodliwych treści, dezinformacja, zagrożenie dla prywatności danych, czy naruszeń praw podstawowych, które przyczyniły się do nieufności wobec tej technologii.

Sztuczna inteligencja jest dla ludzkości zagrożeniem o tej samej skali społecznej, co pandemie czy wojna jądrowa – i wymagającym równie pilnych globalnych działań” – podkreśliła Przewodnicząca powołując się na opinie ekspertów w zakresie sztucznej inteligencji.

Remedium na niebezpieczeństwa idących za SI jest konieczność działań i ustanowienia globalnych standardów, von der Leyen skupiła się na trzech kluczowych filarach:

  • zabezpieczeniu, czyli zapewnieniu, aby sztuczna inteligencja rozwijała się w sposób ukierunkowany na człowieka, przejrzysty i odpowiedzialny. Kluczem do osiągnięcia tego celu jest jak najszybsze przyjęcie oraz wdrożenie Aktu w sprawie sztucznej inteligencji – pierwszej na świecie regulacji kompleksowo regulującej SI.
  • zarządzaniu, które zdaniem Przewodniczącej w głównej mierze oznacza połączenie sił z partnerami Unii Europejskiej, aby zapewnić globalne zrozumienie wpływu sztucznej inteligencji na społeczeństwo. Została również zamanifestowana potrzeba stworzenia organu ds. sztucznej inteligencji, którego zadaniem będzie informowanie o zagrożeniach, korzyściach związanych z SI i który umożliwi szybką, skoordynowaną reakcję na szczeblu światowym. W skład takiej rady mieliby wchodzić naukowcy, przedsiębiorstwa technologiczne, czy niezależni eksperci.
  • ukierunkowanie innowacji, które przejawi się między innymi w udostępnieniu superkomputerów start-upom działającym w sektorze sztucznej inteligencji w celu trenowania swoich modeli.

Równie pozytywną konkluzją wynikającą z orędzia jest świadomość Ursuli von der Leyen konieczności otwartego dialogu z podmiotami, które tworzą i stosują sztuczną inteligencję. Tylko w ten sposób jesteśmy w stanie dojść do wspólnie wypracowanych kompleksowych rozwiązań uwzględniających cały łańcuch funkcjonowania sztucznej inteligencji, ale również z poszanowaniem etyki oraz praw podstawowych.


Eliza Turkiewicz, ekspertka Konfederacji Lewiatan

Artykuł dla wrześniowego wydania Brussels Headlines

Sztuczna inteligencja zmienia edukację [+MP3]
27 lutego 2023

Sztuczna inteligencja zmienia edukację [+MP3]

Sztuczna inteligencja może przyczynić się do usprawnienia procesów edukacyjnych oraz rozwoju kompetencji uczniów i osób dorosłych.

Wysłuchaj komentarza ekspertki:

Jej wykorzystywanie w edukacji będzie wiodącym trendem w najbliższych latach – wynika z raportu „EdTech w Polsce Trendbook 2023”, przygotowanego przez ekspertów Rady ds. EdTech Konfederacji Lewiatan.

– Największy potencjał sztucznej inteligencji (AI) w obszarze edukacji tkwi w personalizacji szkoleń czy zajęć. Opierając się na profilach behawioralnych pracowników, nauczycieli i charakterystyce treści edukacyjnych, AI pomaga wybrać szkolenie, które najlepiej odpowiada aktualnym potrzebom uczących się. Bierze pod uwagę nie tylko treść, ale także kanał i formę przekazu, miejsce, czas, cele szkoleniowe i rozwojowe, a nawet profil psychologiczny danej osoby. Wprowadzanie AI do szkół nabiera rozpędu, o czym świadczą liczne inicjatywy oraz projekty naukowe realizowane m.in. przez podmioty komercyjne na rzecz szkół – mówi Małgorzata Lelińska, dyrektorka departamentu funduszy unijnych i edukacji cyfrowej Konfederacji Lewiatan, koordynatorka Rady ds. EdTech.

– Jeżeli stworzymy warunki do zaistnienia sztucznej inteligencji na poziomie szkoły i nauczania, wtedy powinna nas czekać stopniowa indywidualizacja edukacji przy zachowaniu interakcji uczeń–nauczyciel – dodaje Marcin Joka, prezes zarządu Photon Education.

Według ustaleń Educator Confidence Report na 2022 rok aż 68% biorących udział w badaniu nauczycieli uznało technologie edukacyjne za kluczowe w prowadzeniu zajęć w klasie, a 65% przewiduje, że wprowadzenie zintegrowanych platform edukacyjnych jest nieuniknione.

Systemy sztucznej inteligencji mają wiele możliwości. Na przykład, te dotyczące przetwarzania języka naturalnego (NLP) i rozumienia tekstu (NLU) pomagają w ekstrakcji wiedzy i generowaniu treści, a systemy analityki uczenia się umożliwiają precyzyjne profilowanie zachowań użytkowników. Z kolei systemy rekomendacji pozwalają na zaawansowaną personalizację nie tylko samych treści edukacyjnych, lecz także celów nauczania lub wspierania nauczycieli i trenerów. Sztuczna inteligencja może np. pomagać w procesie oceny postępów uczniów czy studentów.

Polska podstawa programowa wspomina o sztucznej inteligencji w przypadku tylko jednego przedmiotu – etyki dla szkół ponadpodstawowych. To zdecydowanie za mało, by wiedzę dotyczącą sztucznej inteligencji właściwie uwydatnić w procesie edukacji, ale także by uczniowie umieli z AI skutecznie korzystać także poza szkołą. Marginalizowanie kwestii sztucznej inteligencji w szkołach dotyczy nie tylko Polski, ale również takich technologicznych liderów, jak Stany Zjednoczone i Wielka Brytania. Chiny za to nauczają o AI już od 2018 roku. Znacznie lepiej potencjał związany z AI rozumieją polskie uczelnie, które już teraz oferują wiele kierunków studiów związanych ze sztuczną inteligencją dostrzegając ogromne potrzeby absolwentów w tym zakresie związane z wymogami rynku pracy.

– Na szczęście istnieją już na naszym rynku gotowe, sprawdzone i nagradzane rozwiązania edukacyjne bazujące na AI i metodach pracy projektowej, łatwe do wprowadzenia w każdej klasie ze względu na atrakcyjną formę: np. w postaci robotów edukacyjnych. Daje to nadzieję na dalszy rozwój branży edtech w Polsce z wykorzystaniem AI – podkreśla Małgorzata Lelińska.

Konfederacja Lewiatan

 

 

Rok 2022 wyznaczył nowy rozdział w regulacjach dotyczących sztucznej inteligencji
15 grudnia 2022

Rok 2022 wyznaczył nowy rozdział w regulacjach dotyczących sztucznej inteligencji

fot. Maxim Hopman / Unsplash

Mijający rok bez wątpienia obfitował w nowe propozycje regulacji unijnych, które mają przybliżyć Europę do bycia liderem bezpiecznej i ukierunkowanej na człowieka transformacji cyfrowej.

Jednym z kluczowych aktów jest Rozporządzenie w sprawie sztucznej inteligencji. Projekt przedstawiony przez Komisję w kwietniu 2021 r. ma stanowić podwaliny dla unijnej polityki rozwoju bezpiecznej i legalnej sztucznej inteligencji, która jest zgodna z prawami podstawowymi.

Akt o sztucznej inteligencji – bezpieczeństwo i pewność prawa

Na grudniowym szczycie Rady przyjęto wspólne stanowisko („podejście ogólne” z ang. „general approach”) w sprawie aktu o sztucznej inteligencji. Akt ten został oparty na analizie ryzyka oraz ma ustanowić horyzontalne i jednolite ramy prawne odnoszące się do systemów sztucznej inteligencji, które mają zapewnić pewność prawa. W swoich założeniach projekt ma wzmacniać innowacje i inwestycje w zakresie SI oraz ułatwić rozwój jednolitego rynku.

Idzie on w parze z innymi inicjatywami, w tym skoordynowanym planem w sprawie sztucznej inteligencji, który ma przyspieszyć inwestycje w sztuczną inteligencję w Europie.

Nowe zasady odpowiedzialności za sztuczną inteligencję

Kolejną inicjatywą w temacie sztucznej inteligencji jest opublikowany jesienią projekt Dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję).

Akt ten jest odpowiedzią na obowiązujące realia prawne, które nie nadążają za piorunującym rozwojem sztucznej inteligencji. Obecne krajowe regulacje dotyczące odpowiedzialności, w szczególności opartej na winie w żaden sposób nie są dostosowane do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi opartych na systemach sztucznej inteligencji.

Dyrektywa ma na celu zwiększenie zaufania społecznego do technologii sztucznej inteligencji oraz ułatwienie dostępu do skutecznego systemu wymiaru sprawiedliwości dostosowanego do specyfiki systemów SI. Akt ten ma mieć również wymierne skutki dla samych przedsiębiorców ze względu na fakt, iż zwiększenie zaufania do sztucznej inteligencji umożliwi szybsze upowszechnienie się tych systemów w codziennym życiu.

Tuż po Nowym Roku możemy się spodziewać kolejnych etapów legislacyjnych dla obu aktów, które będą miały ogromny wpływ na wielu polskich i europejskich przedsiębiorców.


Eliza Turkiewicz, ekspertka Departamentu Rynku Cyfrowego w Konfederacji Lewiatan

Artykuł dla grudniowego wydania Brussels Headlines – europejskiego biuletynu Lewiatana

Akt o Sztucznej Inteligencji – co zawiera?
23 listopada 2022

Akt o Sztucznej Inteligencji – co zawiera?

fot. Markus Spiske / Unsplash

Prezydencja Czeska opublikowała finalną wersję Aktu o Sztucznej Inteligencji (Artificial Intelligence Act), która jest pierwszą na świecie próbą kompleksowego uregulowania systemów sztucznej inteligencji i ich zastosowań. Ze względu na swój rewolucyjny charakter Akt ten ma szanse, aby wywrzeć istotny wpływ na rozwój systemów SI nie tylko w Unii Europejskiej, ale i na całym świecie.

Jednym z wielu kluczowych tematów związanych z regulacją, była kwestia dotycząca tego, które z zastosowań AI w dziedzinie ubezpieczeń (insurance) należy uznać za systemy obarczone wysokim ryzykiem. W ostatniej poprawce Aktu, za wysokie ryzyko uznano tylko algorytmy stosowane do oceny ryzyka oraz wyceny ubezpieczeń zdrowotnych i ubezpieczeń na życie. Co ważne, reszta systemów zostanie objęta przepisami sektorowymi.

W ostatecznym tekście Rady pojawiła się również kwestia związana z algorytmami używanymi do oceny zdolności kredytowej, które finalnie również zostały umieszczone w koszyku systemów wysokiego ryzyka, uznając, iż jest to kluczowy sposób pozyskiwania dostępu do podstawowych usług.

Natomiast jeżeli chodzi o infrastrukturę krytyczną, w poprzednim tekście kompromisowym Prezydencja Czeska wskazała, że tylko jej elementy bezpieczeństwa, które zapewniają jej integralność fizyczną, należy uznać za obiekty wysokiego ryzyka, wyłączając systemy cyberbezpieczeństwa, które wykorzystują sztuczną inteligencję z bardziej rygorystycznych obowiązków.

Zastosowano również nowe sformułowanie, aby określić, iż elementy bezpieczeństwa nie są niezbędne do funkcjonowania systemu, a wyłącznie do zapewnienia jego integralności. Zgodnie z argumentacją Rady, ma to na celu dostosowanie tekstu do Rozporządzenia Parlamentu Europejskiego i Rady w sprawie produktów maszynowych.

Projekt wzbudza wiele emocji i choć prace nad nim wciąż trwają i będzie on z pewnością podlegać modyfikacjom w toku procesu legislacyjnego, to wydaje się, że jego główne założenia pozostaną niezmienione. Członkowie Konfederacji Lewiatan z niecierpliwością czekają efekty kolejnego etapu legislacyjnego jakim jest praca w trilogach.


Eliza Turkiewicz, ekspertka Departamentu Rynku Cyfrowego

Artykuł dla listopadowego wydania Brussels Headlines, newslettera europejskiego Konfederacji Lewiatan