Sztuczna inteligencja od dłuższego czasu stanowi przedmiot zainteresowania Unii Europejskiej. Już 9 marca 2018 roku na stronie internetowej Komisji Europejskiej pojawiło się doniesienie, że Komisja Europejska powołuje grupę problemową do spraw sztucznej inteligencji, celem pozyskania eksperckiej wiedzy oraz zbadania poglądów zainteresowanych podmiotów. Temat ten jednakże, pomimo długiego upływu czasu, nie został kompleksowo uregulowany.
Najnowsze informacje dotyczące sztucznej inteligencji, a w szczególności medialny sukces zaawansowanego modelu językowego ChatGPT, rozbudziły w społeczeństwie zainteresowanie zarówno możliwościami sztucznej inteligencji, jak i zagrożeniami wiążącymi się z praktycznym jej wykorzystaniem. Chociaż ChatGPT reprezentuje jedynie podtyp sztucznej inteligencji, jakim jest model generatywny, i posiada stosunkowo wąski zakres zastosowania, tj. generowanie tekstów na podstawie prawdopodobieństwa, bez weryfikacji prawidłowości informacji, uznać można, że to właśnie on rozpalił publiczną debatę na temat korzyści i niebezpieczeństw sztucznej inteligencji, a co za tym idzie – doprowadził także do intensyfikacji działań m.in. Unii Europejskiej w zakresie prawnego uregulowania tematów z nią związanych.
Dnia 14 czerwca 2023 r. Parlament Europejski przyjął poprawki w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii. W niniejszym artykule pokrótce przedstawimy podstawowe założenia tego dokumentu w jego najnowszym brzmieniu.
Ryzyka związane ze sztuczną inteligencją
W motywie 4. projektowanego rozporządzenia dostrzega się, że sztuczna inteligencja może być źródłem ryzyka i szkody dla interesu publicznego lub prywatnego i praw podstawowych osób fizycznych, chronionych prawem Unii, w zależności od okoliczności dotyczących jej konkretnego zastosowania i wykorzystania, a także poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne. Z kolei w motywie 5. wskazano, że chronionymi przez rozporządzenie interesami publicznymi są m.in. zdrowie i bezpieczeństwo, ochrona praw podstawowych, demokracja, praworządność i środowisko.
Celem projektowanego rozporządzenia jest minimalizacja wyżej wskazanego ryzyka przy jednoczesnym zapewnieniu, że rynek europejski pozostanie atrakcyjny dla podmiotów działających w branży AI, a także, że regulacje unijne będą zrozumiałe dla podmiotów spoza Unii Europejskiej. Sprzyjać ma temu zróżnicowanie przepisów regulacyjnych w odniesieniu do przeznaczenia systemów sztucznej inteligencji i związanego z nim zagrożenia oraz definicje legalne zbieżne z międzynarodowymi standardami.
Zakres zastosowania rozporządzenia.
Wskazany dokument będzie miał zastosowanie zarówno do dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę w Unii czy w państwie trzecim, użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii, jak i dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w Unii. Oznacza to, że decydujące znaczenie ma zarówno miejsce wykorzystywania systemu sztucznej inteligencji, jak i miejsce wykorzystywania wyników działania systemu sztucznej inteligencji.
Definicje pojęć
Jednym z podstawowych celów projektowanego rozporządzenia jest wprowadzenie podstawowych i jednolitych definicji legalnych dotyczących sztucznej inteligencji – w rozumieniu rozporządzenia „systemem sztucznej inteligencji” będzie każdy system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może – do wyraźnych lub dorozumianych celów – generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne. „Modelem generatywnym” będzie każdy model systemu sztucznej inteligencji, który jest trenowany na szerokiej skali danych, jest zaprojektowany z myślą o ogólnym charakterze wyników i może być dostosowany do szerokiego zakresu odrębnych zadań. „Systemem sztucznej inteligencji ogólnego przeznaczenia” będzie każdy system sztucznej inteligencji, który może być wykorzystywany i dostosowany do szerokiego zakresu zastosowań, do których nie został celowo i specjalnie zaprojektowany. Podmioty korzystające z systemu sztucznej inteligencji pod swoją kontrolą będą nazywane z kolei „operatorami sztucznej inteligencji”, a osoby fizyczne, które są objęte systemem sztucznej inteligencji lub na które system sztucznej inteligencji ma wpływ w inny sposób nazywane będą „zainteresowanymi osobami”.
Praktyki zakazane
Projektowane rozporządzenie przewiduje katalog praktyk zakazanych w zakresie sztucznej inteligencji, które są przez prawodawcę unijnego negatywnie oceniane niezależnie od przeznaczenia systemu sztucznej inteligencji. Co do zasady zakazane będzie m.in. wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu sztucznej inteligencji, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest istotne zniekształcenie zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie zdolności tej osoby do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nią decyzji, której inaczej by nie podjęła, w sposób, który powoduje lub może powodować u niej, u innej osoby lub u grupy osób poważną szkodę, albo wykorzystuje dowolne słabości danej osoby lub określonej grupy osób, w tym znane bądź przewidywane cechy osobowości lub sytuację społeczną lub ekonomiczną takiej osoby lub grupy osób, ich wiek, sprawność ruchową lub zdrowie psychiczne, czego celem lub skutkiem jest istotne zniekształcenie zachowania danej osoby lub osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby poważną szkodę.
AI wysokiego ryzyka
Rozporządzenie w przeważającej mierze dotyczy systemów sztucznej inteligencji wysokiego ryzyka. Za taki system uznawać się będzie system, który łącznie spełni następujące warunki:
- będzie przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II do projektowanego rozporządzenia lub system sztucznej inteligencji sam będzie takim produktem;
- produkt, którego związanym z bezpieczeństwem elementem zgodnie z lit. a) będzie system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt będą podlegały – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II do projektowanego rozporządzenia – ocenie zgodności dotyczącej zagrożeń dla zdrowia i bezpieczeństwa przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.
Systemem sztucznej inteligencji wysokiego ryzyka będzie także każdy system stwarzający znaczne ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, który m.in. przeznaczony będzie do:
- stosowania w celu podejmowania decyzji o dostępie lub w celu wywierania znaczącego wpływu na proces podejmowania decyzji o dostępie do instytucji edukacyjnych i instytucji szkolenia zawodowego lub nadawania osobom przydziału do tych instytucji,
- monitorowania i wykrywania niedozwolonego zachowania uczniów podczas testów w kontekście / w ramach instytucji kształcenia i szkolenia zawodowego,
- wykorzystania w celu podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy, przydzielania zadań na podstawie indywidualnego zachowania lub cech osobistych lub cech charakterystycznych, oraz monitorowania i oceny wydajności i zachowania osób pozostających w takich stosunkach,
- wykorzystania przez organy publiczne lub w imieniu organów publicznych w celu oceny kwalifikowalności osób fizycznych do świadczeń i usług publicznych, w tym usług opieki zdrowotnej i usług kluczowych, w tym m.in. mieszkalnictwa, ogrzewania/chłodzenia i Internetu, jak również w celu przyznawania, ograniczania, unieważniania, zwiększania lub żądania zwrotu takich świadczeń i usług,
- wykorzystania w celu oceny zdolności kredytowej osób fizycznych lub ustalenia ich punktowej oceny kredytowej,
- stosowania w celu podejmowania decyzji lub istotnego wpływania na podejmowanie decyzji w zakresie kwalifikowania się osób fizycznych do ubezpieczenia zdrowotnego i ubezpieczenia na życie.
W przypadku systemów sztucznej inteligencji wysokiego ryzyka – najważniejszym obowiązkiem będzie ustanowienie, wdrożenie, dokumentacja oraz utrzymanie zgodnego z projektowanym rozporządzeniem systemu zarządzania ryzykiem przez cały cykl życia systemu sztucznej inteligencji. Ponadto, systemy sztucznej inteligencji wysokiego ryzyka będzie trzeba testować w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem oraz wyważenia wszelkich takich środków pod kątem potencjalnych korzyści i wyznaczonych celów systemu.
Systemy sztucznej inteligencji wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli z wykorzystaniem danych, będzie trzeba opracowywać na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości określone w projektowanym rozporządzeniu. Zbiory danych treningowych oraz zbiory danych walidacyjnych i testowych, powinny być adekwatne, wystarczająco reprezentatywne, odpowiednio zweryfikowane pod kątem błędów oraz tak kompletne, jak to tylko możliwe w świetle ich przeznaczenia. Ponadto muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka. Istotne w tym kontekście jest także unikanie tendencyjności zbiorów danych, jeżeli może mieć to wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii Europejskiej.
Wszystkie systemy sztucznej inteligencji wysokiego ryzyka będą musiały zapewniać wystarczającą przejrzystość ich działania, umożliwiającą dostawcom i użytkownikom racjonalne zrozumienie funkcjonowania systemu, w tym zawierać zrozumiałe instrukcje obsługi co najmniej w języku kraju, w którym system sztucznej inteligencji będzie wykorzystywany. W całym cyklu życia systemy te umożliwiać powinny sprawowanie nad nimi nadzoru przez osoby fizyczne posiadające wystarczający poziom kompetencji w zakresie sztucznej inteligencji, a także być odporne na błędy, usterki lub niespójności oraz, w przypadku systemów, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, na manipulowanie danymi wejściowymi wykorzystywanymi do uczenia się w trakcie operacji.
Oprócz wyżej wskazanych wymogów, projektowane rozporządzenie przewiduje także utworzenie unijnej bazy danych dla systemów sztucznej inteligencji wysokiego ryzyka, która ma być publicznie dostępna.
Piaskownice regulacyjne
Nie ulega wątpliwości, że zakres obowiązków nałożonych na producentów systemów inteligencji wysokiego ryzyka jest szeroki, a spełnienie wszystkich wymagań będzie wiązało się z koniecznością posiadania eksperckiej wiedzy i bogatego doświadczenia z zakresu sztucznej inteligencji. W celu umożliwienia bezpiecznej weryfikacji spełniania przez system sztucznej inteligencji wymogów unijnych, prawodawca unijny przewidział tzw. piaskownice regulacyjne.
Państwa członkowskie zobowiązane będą do ustanowienia co najmniej jednej piaskownicy regulacyjnej w zakresie sztucznej inteligencji na szczeblu krajowym, która powinna działać najpóźniej w dniu rozpoczęcia stosowania projektowanego rozporządzenia. Piaskownice regulacyjne mają być kontrolowanymi środowiskami ułatwiającymi bezpieczne opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem do użytku zgodnie z określonym planem pod nadzorem regulacyjnym.
Obowiązki informacyjne
Systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi będą musiały być projektowane i opracowywane w taki sposób, aby system sztucznej inteligencji, sam dostawca lub użytkownik informował osoby fizyczne mające kontakt z systemem sztucznej inteligencji w odpowiednim czasie (ale najpóźniej w momencie pierwszej interakcji lub kontaktu), w jasny i zrozumiały sposób o tym, że prowadzą interakcję z systemem sztucznej inteligencji. Obowiązek ten nie będzie miał zastosowania, jeśli okoliczności i kontekst korzystania z systemu będą jednoznacznie wskazywały na interakcję z systemem sztucznej inteligencji.
W stosownych przypadkach informacje te będą także musiały obejmować to, które funkcje są wspomagane sztuczną inteligencją, czy istnieje nadzór ze strony człowieka, oraz kto jest odpowiedzialny za proces decyzyjny, a także istniejące prawa i procesy, które zgodnie z prawem Unii i prawem krajowym umożliwiają osobom fizycznym lub ich przedstawicielom sprzeciw wobec stosowania w ich przypadku takich systemów oraz dochodzenie roszczeń na drodze sądowej w odniesieniu do decyzji podjętych przez systemy sztucznej inteligencji lub szkód przez nie spowodowanych, w tym prawo do uzyskania wyjaśnień. Obowiązek ten nie będzie miał zastosowania do systemów sztucznej inteligencji zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom, prowadzenia dochodzeń/śledztw w związku z przestępstwami i ścigania ich sprawców, chyba że systemy te będą udostępnione ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.
Ponadto, projektowane rozporządzenie przewiduje obowiązek informowania w odpowiednim czasie (ale najpóźniej w momencie pierwszej interakcji lub kontaktu), w jasny i zrozumiały sposób osób fizycznych o fakcie stosowania wobec nich systemów rozpoznawania emocji lub systemów kategoryzacji biometrycznej (o ile nie będą one zakazane) i uzyskania ich zgody przed przetwarzaniem ich danych biometrycznych i innych danych osobowych zgodnie z rozporządzeniem (UE) 2016/679, rozporządzeniem (UE) 2016/1725 i dyrektywą (UE) 2016/280, stosownie do przypadku. Wyjątkiem będą – ponownie – zatwierdzone z mocy prawa systemy sztucznej inteligencji wykorzystywane do kategoryzacji biometrycznej do celów wykrywania przestępstw, przeciwdziałania przestępstwom i prowadzenia dochodzeń/śledztw w związku z przestępstwami.
Deepfake’i
Projektowane rozporządzenie odnosi się bezpośrednio także do tzw. deepfake’ów, definiowanych w dokumencie jako zmanipulowane lub syntetyczne treści dźwiękowe, obrazy lub treści wideo, które mylnie wydają się autentyczne lub zgodne z prawdą, i przedstawiają osoby, które wydają się mówić lub robić coś, czego nie powiedziały ani nie zrobiły, wyprodukowane z wykorzystaniem technik sztucznej inteligencji, w tym uczenia maszynowego i uczenia głębokiego.
Użytkownicy systemu sztucznej inteligencji, który generuje treści tekstowe, dźwiękowe lub wizualne lub tymi treściami manipuluje, i treści te można by niesłusznie uznać za autentyczne lub prawdziwe i przedstawiają one osoby – bez ich zgody – wypowiadające słowa lub wykonujące czynności, których nie powiedziały i nie zrobiły co do zasady zobowiązane będą ujawnić w odpowiednim czasie (ale najpóźniej w momencie pierwszej interakcji lub kontaktu), w jasny i zrozumiały sposób, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji oraz podać imię i nazwisko osoby fizycznej lub nazwę osoby prawnej odpowiedzialnej za ich wygenerowanie lub zmanipulowanie. Przewidywane w tym zakresie wyjątki dotyczą korzystania zatwierdzonego z mocy prawa oraz wykonywania prawa do wolności wypowiedzi i prawa do wolności sztuki i nauki zagwarantowanych w Karcie praw podstawowych Unii Europejskiej – konieczne będzie jednakże w takiej sytuacji zapewnienie odpowiednich gwarancji zabezpieczających prawa i wolności osób trzecich.
Modele generatywne
Projektowane rozporządzenie przewiduje także szereg obowiązków dostawców modeli generatywnych. Poza obowiązkami związanymi z przejrzystością i dokumentacją modelu generatywnego, a także rejestracją modelu generatywnego w unijnej bazie danych, dostawcy modeli generatywnych wykorzystywanych w systemach sztucznej inteligencji przeznaczonych specjalnie do generowania, przy różnym poziomie autonomii, treści takich jak złożony tekst, obrazy, dźwięki lub wideo oraz dostawcy, którzy specjalizują model generatywny w celu stworzenia generatywnego systemu sztucznej inteligencji, zobowiązani będą ponadto do:
- szkolenia, a w stosownych przypadkach projektowania i rozwijania modelu generatywnego w taki sposób, aby zgodnie z powszechnie uznanym aktualnym stanem wiedzy i bez uszczerbku dla praw podstawowych, w tym wolności wypowiedzi, zapewnić odpowiednie zabezpieczenia przed generowaniem treści naruszających prawo Unii,
- bez uszczerbku dla unijnych lub krajowych przepisów dotyczących praw autorskich dokumentowania i udostępniania publicznie wystarczająco szczegółowych podsumowań dotyczących wykorzystania danych treningowych chronionych na mocy prawa autorskiego.
Podsumowanie
Niniejszy artykuł przytacza jedynie fragment projektowanych na szczeblu unijnym rozwiązań w zakresie sztucznej inteligencji – które z nich, i w jakim kształcie, zostaną w praktyce uchwalone pozostaje niewiadomą. Można jednakże bezpiecznie zakładać, że kierunek przyszłych regulacji będzie bardzo zbliżony – tj. będą się one skupiały przede wszystkim na systemach sztucznej inteligencji zagrażających prawom jednostki lub mogących wprowadzać osoby fizyczne w błąd.
Wyznaczenie wyraźnych ram regulacyjnych w zakresie sztucznej inteligencji z całą pewnością przyczyni się do zwiększenia bezpieczeństwa prawnego dostawców/producentów takich systemów, jak i osób fizycznych, które wchodzą w interakcję z systemami sztucznej inteligencji – dotychczas bowiem brak było regulacji pozwalających na przeprowadzenie jednoznacznej oceny, czy określone działanie narusza prawo, czy nie, a także kto za dane naruszenie powinien ponieść odpowiedzialność.
Z drugiej jednakże strony, jeśli ingerencja prawodawcy okaże się zbyt daleko idąca, np. ze względu na zbyt ogólną definicję systemów sztucznej inteligencji wysokiego ryzyka, spodziewać się należy wyparcia z rynku mniejszych podmiotów, które nie będą w stanie sprostać wymogom regulacyjnym, a co za tym idzie – zamrożenia potencjału rynku europejskiego w zakresie sztucznej inteligencji. Na chwilę obecną pozostało zatem liczyć na rozwagę prawodawcy unijnego i jego umiejętność zrównoważenia obciążeń regulacyjnych z projektowanymi w rozporządzeniu ułatwieniami dla mikro- małych i średnich przedsiębiorstw.
0 Komentarzy