Unia Europejska musi się stać pionierem bezpiecznej sztucznej inteligencji
22 września 2023

Unia Europejska musi się stać pionierem bezpiecznej sztucznej inteligencji

fot. EC-AV

W orędziu Przewodniczącej Komisji Europejskiej Ursuli von der Leyen nie mogło zabraknąć kwestii związanych z cyfryzacją i sztuczną inteligencją, która szturmem wkroczyła do biznesu, miejsc pracy, ale również życia społecznego.

Myślą przewodnią przemówienia były wyzwania i niepokoje, takie jak rozpowszechnianie szkodliwych treści, dezinformacja, zagrożenie dla prywatności danych, czy naruszeń praw podstawowych, które przyczyniły się do nieufności wobec tej technologii.

Sztuczna inteligencja jest dla ludzkości zagrożeniem o tej samej skali społecznej, co pandemie czy wojna jądrowa – i wymagającym równie pilnych globalnych działań” – podkreśliła Przewodnicząca powołując się na opinie ekspertów w zakresie sztucznej inteligencji.

Remedium na niebezpieczeństwa idących za SI jest konieczność działań i ustanowienia globalnych standardów, von der Leyen skupiła się na trzech kluczowych filarach:

  • zabezpieczeniu, czyli zapewnieniu, aby sztuczna inteligencja rozwijała się w sposób ukierunkowany na człowieka, przejrzysty i odpowiedzialny. Kluczem do osiągnięcia tego celu jest jak najszybsze przyjęcie oraz wdrożenie Aktu w sprawie sztucznej inteligencji – pierwszej na świecie regulacji kompleksowo regulującej SI.
  • zarządzaniu, które zdaniem Przewodniczącej w głównej mierze oznacza połączenie sił z partnerami Unii Europejskiej, aby zapewnić globalne zrozumienie wpływu sztucznej inteligencji na społeczeństwo. Została również zamanifestowana potrzeba stworzenia organu ds. sztucznej inteligencji, którego zadaniem będzie informowanie o zagrożeniach, korzyściach związanych z SI i który umożliwi szybką, skoordynowaną reakcję na szczeblu światowym. W skład takiej rady mieliby wchodzić naukowcy, przedsiębiorstwa technologiczne, czy niezależni eksperci.
  • ukierunkowanie innowacji, które przejawi się między innymi w udostępnieniu superkomputerów start-upom działającym w sektorze sztucznej inteligencji w celu trenowania swoich modeli.

Równie pozytywną konkluzją wynikającą z orędzia jest świadomość Ursuli von der Leyen konieczności otwartego dialogu z podmiotami, które tworzą i stosują sztuczną inteligencję. Tylko w ten sposób jesteśmy w stanie dojść do wspólnie wypracowanych kompleksowych rozwiązań uwzględniających cały łańcuch funkcjonowania sztucznej inteligencji, ale również z poszanowaniem etyki oraz praw podstawowych.


Eliza Turkiewicz, ekspertka Konfederacji Lewiatan

Artykuł dla wrześniowego wydania Brussels Headlines

Sztuczna inteligencja zmienia edukację [+MP3]
27 lutego 2023

Sztuczna inteligencja zmienia edukację [+MP3]

Sztuczna inteligencja może przyczynić się do usprawnienia procesów edukacyjnych oraz rozwoju kompetencji uczniów i osób dorosłych.

Wysłuchaj komentarza ekspertki:

Jej wykorzystywanie w edukacji będzie wiodącym trendem w najbliższych latach – wynika z raportu „EdTech w Polsce Trendbook 2023”, przygotowanego przez ekspertów Rady ds. EdTech Konfederacji Lewiatan.

– Największy potencjał sztucznej inteligencji (AI) w obszarze edukacji tkwi w personalizacji szkoleń czy zajęć. Opierając się na profilach behawioralnych pracowników, nauczycieli i charakterystyce treści edukacyjnych, AI pomaga wybrać szkolenie, które najlepiej odpowiada aktualnym potrzebom uczących się. Bierze pod uwagę nie tylko treść, ale także kanał i formę przekazu, miejsce, czas, cele szkoleniowe i rozwojowe, a nawet profil psychologiczny danej osoby. Wprowadzanie AI do szkół nabiera rozpędu, o czym świadczą liczne inicjatywy oraz projekty naukowe realizowane m.in. przez podmioty komercyjne na rzecz szkół – mówi Małgorzata Lelińska, dyrektorka departamentu funduszy unijnych i edukacji cyfrowej Konfederacji Lewiatan, koordynatorka Rady ds. EdTech.

– Jeżeli stworzymy warunki do zaistnienia sztucznej inteligencji na poziomie szkoły i nauczania, wtedy powinna nas czekać stopniowa indywidualizacja edukacji przy zachowaniu interakcji uczeń–nauczyciel – dodaje Marcin Joka, prezes zarządu Photon Education.

Według ustaleń Educator Confidence Report na 2022 rok aż 68% biorących udział w badaniu nauczycieli uznało technologie edukacyjne za kluczowe w prowadzeniu zajęć w klasie, a 65% przewiduje, że wprowadzenie zintegrowanych platform edukacyjnych jest nieuniknione.

Systemy sztucznej inteligencji mają wiele możliwości. Na przykład, te dotyczące przetwarzania języka naturalnego (NLP) i rozumienia tekstu (NLU) pomagają w ekstrakcji wiedzy i generowaniu treści, a systemy analityki uczenia się umożliwiają precyzyjne profilowanie zachowań użytkowników. Z kolei systemy rekomendacji pozwalają na zaawansowaną personalizację nie tylko samych treści edukacyjnych, lecz także celów nauczania lub wspierania nauczycieli i trenerów. Sztuczna inteligencja może np. pomagać w procesie oceny postępów uczniów czy studentów.

Polska podstawa programowa wspomina o sztucznej inteligencji w przypadku tylko jednego przedmiotu – etyki dla szkół ponadpodstawowych. To zdecydowanie za mało, by wiedzę dotyczącą sztucznej inteligencji właściwie uwydatnić w procesie edukacji, ale także by uczniowie umieli z AI skutecznie korzystać także poza szkołą. Marginalizowanie kwestii sztucznej inteligencji w szkołach dotyczy nie tylko Polski, ale również takich technologicznych liderów, jak Stany Zjednoczone i Wielka Brytania. Chiny za to nauczają o AI już od 2018 roku. Znacznie lepiej potencjał związany z AI rozumieją polskie uczelnie, które już teraz oferują wiele kierunków studiów związanych ze sztuczną inteligencją dostrzegając ogromne potrzeby absolwentów w tym zakresie związane z wymogami rynku pracy.

– Na szczęście istnieją już na naszym rynku gotowe, sprawdzone i nagradzane rozwiązania edukacyjne bazujące na AI i metodach pracy projektowej, łatwe do wprowadzenia w każdej klasie ze względu na atrakcyjną formę: np. w postaci robotów edukacyjnych. Daje to nadzieję na dalszy rozwój branży edtech w Polsce z wykorzystaniem AI – podkreśla Małgorzata Lelińska.

Konfederacja Lewiatan

 

 

Rok 2022 wyznaczył nowy rozdział w regulacjach dotyczących sztucznej inteligencji
15 grudnia 2022

Rok 2022 wyznaczył nowy rozdział w regulacjach dotyczących sztucznej inteligencji

fot. Maxim Hopman / Unsplash

Mijający rok bez wątpienia obfitował w nowe propozycje regulacji unijnych, które mają przybliżyć Europę do bycia liderem bezpiecznej i ukierunkowanej na człowieka transformacji cyfrowej.

Jednym z kluczowych aktów jest Rozporządzenie w sprawie sztucznej inteligencji. Projekt przedstawiony przez Komisję w kwietniu 2021 r. ma stanowić podwaliny dla unijnej polityki rozwoju bezpiecznej i legalnej sztucznej inteligencji, która jest zgodna z prawami podstawowymi.

Akt o sztucznej inteligencji – bezpieczeństwo i pewność prawa

Na grudniowym szczycie Rady przyjęto wspólne stanowisko („podejście ogólne” z ang. „general approach”) w sprawie aktu o sztucznej inteligencji. Akt ten został oparty na analizie ryzyka oraz ma ustanowić horyzontalne i jednolite ramy prawne odnoszące się do systemów sztucznej inteligencji, które mają zapewnić pewność prawa. W swoich założeniach projekt ma wzmacniać innowacje i inwestycje w zakresie SI oraz ułatwić rozwój jednolitego rynku.

Idzie on w parze z innymi inicjatywami, w tym skoordynowanym planem w sprawie sztucznej inteligencji, który ma przyspieszyć inwestycje w sztuczną inteligencję w Europie.

Nowe zasady odpowiedzialności za sztuczną inteligencję

Kolejną inicjatywą w temacie sztucznej inteligencji jest opublikowany jesienią projekt Dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję).

Akt ten jest odpowiedzią na obowiązujące realia prawne, które nie nadążają za piorunującym rozwojem sztucznej inteligencji. Obecne krajowe regulacje dotyczące odpowiedzialności, w szczególności opartej na winie w żaden sposób nie są dostosowane do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi opartych na systemach sztucznej inteligencji.

Dyrektywa ma na celu zwiększenie zaufania społecznego do technologii sztucznej inteligencji oraz ułatwienie dostępu do skutecznego systemu wymiaru sprawiedliwości dostosowanego do specyfiki systemów SI. Akt ten ma mieć również wymierne skutki dla samych przedsiębiorców ze względu na fakt, iż zwiększenie zaufania do sztucznej inteligencji umożliwi szybsze upowszechnienie się tych systemów w codziennym życiu.

Tuż po Nowym Roku możemy się spodziewać kolejnych etapów legislacyjnych dla obu aktów, które będą miały ogromny wpływ na wielu polskich i europejskich przedsiębiorców.


Eliza Turkiewicz, ekspertka Departamentu Rynku Cyfrowego w Konfederacji Lewiatan

Artykuł dla grudniowego wydania Brussels Headlines – europejskiego biuletynu Lewiatana

Akt o Sztucznej Inteligencji – co zawiera?
23 listopada 2022

Akt o Sztucznej Inteligencji – co zawiera?

fot. Markus Spiske / Unsplash

Prezydencja Czeska opublikowała finalną wersję Aktu o Sztucznej Inteligencji (Artificial Intelligence Act), która jest pierwszą na świecie próbą kompleksowego uregulowania systemów sztucznej inteligencji i ich zastosowań. Ze względu na swój rewolucyjny charakter Akt ten ma szanse, aby wywrzeć istotny wpływ na rozwój systemów SI nie tylko w Unii Europejskiej, ale i na całym świecie.

Jednym z wielu kluczowych tematów związanych z regulacją, była kwestia dotycząca tego, które z zastosowań AI w dziedzinie ubezpieczeń (insurance) należy uznać za systemy obarczone wysokim ryzykiem. W ostatniej poprawce Aktu, za wysokie ryzyko uznano tylko algorytmy stosowane do oceny ryzyka oraz wyceny ubezpieczeń zdrowotnych i ubezpieczeń na życie. Co ważne, reszta systemów zostanie objęta przepisami sektorowymi.

W ostatecznym tekście Rady pojawiła się również kwestia związana z algorytmami używanymi do oceny zdolności kredytowej, które finalnie również zostały umieszczone w koszyku systemów wysokiego ryzyka, uznając, iż jest to kluczowy sposób pozyskiwania dostępu do podstawowych usług.

Natomiast jeżeli chodzi o infrastrukturę krytyczną, w poprzednim tekście kompromisowym Prezydencja Czeska wskazała, że tylko jej elementy bezpieczeństwa, które zapewniają jej integralność fizyczną, należy uznać za obiekty wysokiego ryzyka, wyłączając systemy cyberbezpieczeństwa, które wykorzystują sztuczną inteligencję z bardziej rygorystycznych obowiązków.

Zastosowano również nowe sformułowanie, aby określić, iż elementy bezpieczeństwa nie są niezbędne do funkcjonowania systemu, a wyłącznie do zapewnienia jego integralności. Zgodnie z argumentacją Rady, ma to na celu dostosowanie tekstu do Rozporządzenia Parlamentu Europejskiego i Rady w sprawie produktów maszynowych.

Projekt wzbudza wiele emocji i choć prace nad nim wciąż trwają i będzie on z pewnością podlegać modyfikacjom w toku procesu legislacyjnego, to wydaje się, że jego główne założenia pozostaną niezmienione. Członkowie Konfederacji Lewiatan z niecierpliwością czekają efekty kolejnego etapu legislacyjnego jakim jest praca w trilogach.


Eliza Turkiewicz, ekspertka Departamentu Rynku Cyfrowego

Artykuł dla listopadowego wydania Brussels Headlines, newslettera europejskiego Konfederacji Lewiatan