Skip navigation

21 grudnia 2023

AI Act, czyli nowe wyzwania dla przedsiębiorców w erze rozwoju sztucznej inteligencji

Udostępnij

Każdy przełom oznacza ogromne zmiany na poziomie jakościowym i ilościowym. W historii rozwoju sztucznej inteligencji z pewnością przełomem było przedstawienie w listopadzie 2022 roku Chat GPT, czyli narzędzia stworzonego przez podmiot OpenAI.

Ale czy to pierwsza sytuacja, w której na szerszą skalę spotykamy się z możliwościami technologii AI?  Z pewnością nie! Algorytmy sztucznej inteligencji są wykorzystywane w wielu dziedzinach, chociażby przez szeroko rozumiany rynek eCommerce, np. do automatycznej rekomendacji produktów w sklepach online. Chcę przez to pokazać, że Chat GTP to przykład wykorzystania jedynie generatywnej sztucznej inteligencji. A pojęcie to jest znacznie szersze i łączy w sobie takie dziedziny jak: robotyka, analiza danych, analiza obrazów, dźwięku itd.

Właśnie ta różnorodność aplikowania rozwiązań powstałych w oparciu o sztuczną inteligencję powoduje także wiele wyzwań natury prawnej.

Jakie ryzyka prawne i etyczne niesie ze sobą korzystania ze sztucznej inteligencji?

Podejście do sztucznej inteligencji z pominięciem okoliczności, że może ona być wykorzystywana w sposób niewłaściwy, dostarczając przy tym określonej grupie osób efektywnych narzędzi do manipulacji oraz kontroli społecznej, jest po prostu myśleniem życzeniowym. O tych zagrożeniach można dowiedzieć się więcej analizując chociażby system scoringu społecznego w Chinach i powstanie nowego ustroju społeczno-politycznego – algokracji (system oparty na dostępie do big data oraz sztucznej inteligencji).

To jednak nie całość zagrożeń wynikających z wykorzystania AI. Trzeba powiedzieć, że istnieją organizacje, które zakazują swoim pracownikom wykorzystania tej technologii w obawie przed skutkami błędnych działań czy też niewłaściwych decyzji podjętych w wyniku działania systemów AI. Przed AI Act stoi zatem trudne zadanie, nowe regulacje mają bowiem sprzyjać rozwojowi tej technologii, wzbudzeniu zaufania, a co za tym idzie jej rozwojowi.

Trudno wskazać zamknięty katalog wyzwań związanych z wykorzystaniem sztucznej inteligencji, ponieważ AI jest złożoną dziedziną, która jest wynikiem przenikania się wielu innych sfer naszego życia. 

Z pewnością jednak można pokusić się o wskazanie głównych zagrożeń związanych z wykorzystaniem tej technologii, do których należą:

  • błędy w działaniu AI i brak umiejętności ich naprawienia spowodowany niską przejrzystością działania systemów sztucznej inteligencji,
  • wyzwania związane z ustaleniem zasad i granic odpowiedzialności za działania algorytmów,
  • zwiększenie nierówności w społeczeństwie w konsekwencji postępującej algorytmizacji życia,
  • promowanie nagannych moralnie zachowań i napędzanie kryzysów społecznych,
  • brak transparentności w działaniu sztucznej inteligencji (efekt czarnej skrzynki – ang. black box),
  • wyzwania związane z ochroną praw autorskich,
  • trudności związane z utrzymaniem pierwszoplanowej roli człowieka w procesie popularyzacji narzędzi AI,
  • problemy związane z ochroną prywatności i zwiększeniem bezpieczeństwa użytkowników systemów AI,
  • nieprzestrzeganie praw człowieka oraz nieetyczne wykorzystanie technologii AI.

Dostrzeżenie tych wszystkich wyzwań sprawiło, że rozpoczęły się prace nad AI Act, czyli pierwszym na świecie prawem dotyczącym sztucznej inteligencji. Wszystko wskazuję na to, że wkrótce Europejczycy doczekają się aktu prawnego, który reguluje popularną technologię, której działania widzimy w niemalże każdym aspekcie naszego funkcjonowania i która do tej pory nie doczekała się regulacji prawnej.  

Na jakim etapie prac nad AI Act jesteśmy?

14 czerwca 2023 roku odbyło się w Parlamencie Europejskim głosowanie nad Rozporządzeniem dotyczącym sztucznej inteligencji. Obecnie trwają tzw. ciche prace w ramach trilogów politycznych – to prace wewnątrz unijnych struktur: Parlamentu Europejskiego, Rady i Komisji Europejskiej, których celem jest wypracowanie kompromisu legislacyjnego i ostatecznej akceptacji treści Rozporządzenia.

Optymistyczny scenariusz zakłada, że ostateczny kształt Rozporządzenia zostanie opracowany do końca 2023 roku.  Warto wskazać, że obecnie w EU prezydencje sprawuje Hiszpania, jest to kraj, który zdaje się mieć poważne plany w zakresie objęcia pozycji europejskiego lidera w dziedzinie sztucznej inteligencji. Być może okoliczność ta wpłynie na przyśpieszenie prac nad aktem.

Szybkość implementacji nowego prawa w dużej mierze związana jest z faktem, że przyjmuje ono formę rozporządzenia europejskiego, a nie dyrektywy. To rozróżnienie skutkuje, tym, że uchwalone prawo zacznie obowiązywać wszystkich obywateli państw UE od konkretnej, wcześniej wyznaczonej daty, bez konieczności wprowadzania dodatkowych aktów prawnych na poziomie krajowym.

Czy dzisiaj poruszamy się w próżni legislacyjnej?

Zanim przejdziemy do szczegółowej analizy projektu AI ACT, należy podkreślić, że istnieją już obecnie regulacje prawne aplikowane w kontekście technologii sztucznej inteligencji. Przykłady to normy z zakresu polskiego prawa cywilnego dotyczące dóbr osobistych, które mogą być użyte chociażby w kontekście dezinformacji (tzw. „deep fake”), przepisy polskiego prawa karnego odnoszące się do zniesławienia, które także możemy zastosować do technologii „deep fake”, Ogólne Rozporządzenie o Ochronie Danych (RODO), prawo autorskie, a także europejskie normy prawne związane z prawami podstawowymi.

Nie znajdujemy się zatem w legislacyjnej próżni. Niemniej jednak, AI Act stanowi ważny element technologiczno-prawnego systemu, który zwraca naszą uwagę na kwestie związane bezpośrednio z technologią sztucznej inteligencji. W obliczu jej dynamicznego rozwoju jest to z pewnością regulacja, na którą wielu z nas czeka.

Jakie są główne punkty regulacyjne?

Projekt Rozporządzenia określa zasady, według których systemy sztucznej inteligencji mogą być wprowadzane do obrotu, oddawane do użytku oraz eksploatowane.

To kluczowe dla podmiotów, które planują wdrażać rozwiązania AI. Szczególne obowiązki projekt Rozporządzenia nakłada na systemy AI wysokiego ryzyka. Rozporządzenie definiuje, co to są systemy AI wysokiego ryzyka i nakłada na dostawców, importerów czy operatorów tych systemów dodatkowe obowiązki. Jest to istotne dla oceny ryzyka i określenia zasad odpowiedzialności.

Co więcej, z projektu AI Act wynika, że istnieją określone obszary w ramach projektu Rozporządzenia, w których wykorzystanie sztucznej inteligencji jest ograniczone lub zakazane. To istotne z punktu widzenia etyki i ochrony praw człowieka.

Projekt AI Act przewiduje także wymogi dotyczące przejrzystości, zwłaszcza w kontekście systemów AI, które wchodzą w interakcje z ludźmi oraz mogą przyczyniać się do wpływania na odbiór rzeczywistości przez społeczeństwo. Nie sposób pominąć tu regulacji dotyczących technologii „deep fake”, co ma znaczący wpływ na ochronę obywateli UE przed manipulacją i zapobieganie dezinformacji.

Rozporządzenie przewiduje także utworzenie organów, które będą stać na straży przestrzegania przepisów, udzielania porad i wsparcia oraz wymierzać sankcje za nieprzestrzeganie przepisów.  W projekcie AI Act znajdziemy regulacje odnoszące się do określenia kary za niedostosowanie się do przepisów, co jest ważne dla egzekwowania zasad w nim zawartych.

Co to jest system wysokiego ryzyka i jakie musi spełnić wymogi?

Projekt Rozporządzenia nakłada szereg obowiązków do spełnienia dotyczących systemów AI wysokiego ryzyka.  Dlatego też tak ważne jest zrozumienie, co dokładnie oznacza ten termin i jakie kryteria muszą być spełnione, aby system AI został sklasyfikowany jako taki.

Za system wysokiego ryzyka uznaje się system, który spełnia dwa poniżej wskazane warunki:

  • system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem wymienionym w załączniku II do Rozporządzenia lub system sztucznej inteligencji sam jest takim produktem;
  • produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają na podstawie unijnego prawodawstwa wymienionego w załączniku II – ocenie zgodności dotyczącej zagrożeń dla zdrowia i bezpieczeństwa przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

To jednak nie wszystko. Oprócz systemów sztucznej inteligencji wysokiego ryzyka, o których mowa powyżej, za systemy wysokiego ryzyka uznaje się również systemy sztucznej inteligencji wchodzące w zakres co najmniej jednego z krytycznych obszarów i przypadków użycia, o których mowa w załączniku III do Rozporządzenia.

Te obszary to między innymi:

  • Systemy biometryczne i systemy oparte na biometrii – systemy sztucznej inteligencji przeznaczone do stosowania w celu identyfikacji biometrycznej osób fizycznych z wyjątkami wskazanymi w Rozporządzeniu.
  • Podejmowanie decyzji – systemy sztucznej inteligencji przeznaczone do stosowania w celu podejmowania decyzji o dostępie lub w celu wywierania znaczącego wpływu na proces podejmowania decyzji o dostępie do instytucji edukacyjnych i instytucji szkolenia zawodowego lub nadawania osobom przydziału do tych instytucji.
  • Ocena uczniów – systemy sztucznej inteligencji przeznaczone do stosowania w celu oceny uczniów w instytucjach edukacyjnych i instytucji szkolenia zawodowego oraz do oceny uczestników egzaminów powszechnie wymaganych w celu przyjęcia do tych instytucji.
  • Wykształcenie – systemy sztucznej inteligencji przeznaczone do stosowania w celu oceny odpowiedniego poziomu wykształcenia w przypadku danej osoby i istotnego wpływania na poziom wykształcenia i szkolenia zawodowego, jaki dana osoba otrzyma lub do jakiego będzie mogła mieć dostęp.
  • Monitorowanie – systemy sztucznej inteligencji przeznaczone do monitorowania i wykrywania niedozwolonego zachowania uczniów podczas testów.
  • Systemy rekrutacji – systemy sztucznej inteligencji przeznaczone do wykorzystania w celu rekrutacji lub wyboru osób fizycznych, w szczególności w przypadku umieszczania ukierunkowanych ogłoszeń o pracę, selekcji lub filtrowania podań o pracę, oceny kandydatów w trakcie rozmów kwalifikacyjnych lub testów oraz systemy sztucznej inteligencji przeznaczone do wykorzystania w celu podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy, przydzielania zadań na podstawie indywidualnego zachowania lub cech osobistych lub cech charakterystycznych, oraz monitorowania i oceny wydajności i zachowania osób pozostających w takich stosunkach.

Wskazane wyżej dziedziny stanowią przykłady wymienione w Załączniku III do Rozporządzenia. Analiza tych przykładów pozwala zidentyfikować, które aspekty unijny ustawodawca uznał za wyjątkowo wrażliwe, wymagające klasyfikacji jako systemy wysokiego ryzyka. Zakwalifikowanie do systemu wysokiego ryzyka niesie ze sobą potrzebę wprowadzenia kompleksowych procedur i spełnienia określonych wymogów prawnych, które zostały omówione w dalszej części publikacji.

Jakie dalsze wymogi prawne stawia projekt rozporządzenia przed systemami wysokiego ryzyka?

Przede wszystkim obowiązki te dotyczą implementacji, utrzymania i zarządzania systemem AI, a także tworzenia odpowiedniej dokumentacji.

Warto zauważyć, że AI Act nakłada te obowiązki na systemy wysokiego ryzyka przez cały cykl życia, wymagając regularnego przeglądu i aktualizacji procedur zarządzania ryzykiem. To zapewnia ich ciągłą skuteczność i wymaga dokumentowania wszystkich kluczowych decyzji oraz działań związanych z realizacją obowiązków określonych przez AI Act.

Ponadto, systemy wysokiego ryzyka, korzystające z technik obejmujących trenowanie modeli zgodnie z AI Act, muszą spełniać wymogi dotyczące jakości danych i ich zarządzania. AI Act określa szereg praktyk, które należy zastosować do danych, w tym zapewnienie przejrzystości pierwotnego celu ich gromadzenia oraz odpowiednich metod ich zbierania i przetwarzania.

AI Act stawia także wymagania przed systemami wysokiego ryzyka w kontekście danych treningowych, walidacyjnych i testowych. Te zbiory danych powinny być adekwatne, reprezentatywne, dokładnie zweryfikowane pod kątem błędów i jak najbardziej kompletne w kontekście ich przeznaczenia.

Dodatkowo, AI Act wymaga od systemów AI wysokiego ryzyka opracowania odpowiedniej dokumentacji technicznej oraz prowadzenia rejestru zdarzeń.

W ten sposób kontrola systemu i rozliczenie z realizacji obowiązków prawnych będzie po prostu możliwe, a co za tym idzie, w dalszej perspektywie może to przyczynić się do zwiększenia bezpieczeństwa tych systemów oraz wzbudzeniu zaufania.

Jakie obowiązki mają dostawcy, operatorzy, importerzy i dystrybutorzy?

Projekt AI Act wprowadza również specyficzne obowiązki dla dostawców i operatorów systemów AI wysokiego ryzyka. Te obowiązki koncentrują się na organizacji odpowiedniego systemu dbania o jakość i zarządzanie tymi systemami, a także na przeprowadzaniu procedur zgodności przed ich wprowadzeniem na rynek lub do użytku. Wymagane jest umieszczenie oznakowania CE na produktach, a także wdrożenie procedur testowania, badania i walidacji, które są stosowane na różnych etapach życia systemu.

Ponadto, AI Act przewiduje szereg obowiązków w zakresie odpowiedniego rejestrowania zdarzeń, dokumentacji działań oraz obowiązków informacyjnych i współpracy z właściwymi organami.

Osobne wymagania AI Act dotyczą także importerów i dystrybutorów systemów AI wysokiego ryzyka. Obowiązki te obejmują tworzenie dokumentacji i procedur, które mają potwierdzać zgodność systemu AI z prawem unijnym i jego bezpieczeństwo, oraz ustanawiają obowiązki informacyjne, mające na celu zwiększenie przejrzystości ich działań.

Dla operatorów systemów wysokiego ryzyka, AI Act nakłada obowiązki związane z używaniem systemów zgodnie z instrukcją, zapewnieniem odpowiednich danych wejściowych, a także gwarantowaniem nadzoru człowieka nad systemem i zapewnieniem adekwatności oraz reprezentatywności danych wejściowych w stosunku do przeznaczenia systemu.

To oznacza, że podmioty korzystające z systemów AI wysokiego ryzyka mają szereg obowiązków do spełnienia w celu minimalizacji ryzyka i błędów.

Warto zwrócić uwagę na fakt, że obowiązki wyżej wskazanych podmiotów wzajemnie się przenikają. Celem unijnego ustawodawcy jest stworzenie systemu bezpiecznego, ale przede wszystkim szczelnego, w którym na różnych poziomach funkcjonowania systemu istnieją zaangażowane podmioty.

Jakie regulacje przewiduje projekt AI Act w zakresie generatywnej sztucznej inteligencji?

Po 14 czerwca 2023 roku wprowadzono ważną modyfikację do projektu AI Act, która skupia się na uwzględnieniu przez unijnego ustawodawcę modeli generatywnych sztucznej inteligencji.

Należy podkreślić, że modele generatywne stały się narzędziem często wykorzystywanym przez przedsiębiorców w procesach biznesowych, co sprawia, że ta zmiana ma znaczący wpływ na sporą część sektora prywatnego, który z tych rozwiązań korzysta realizując codzienne zadania.

Głównym elementem tej modyfikacji są nowe obowiązki nałożone na dostawców modeli generatywnych. Projekt Rozporządzenia wymaga wykazania przez takiego dostawcę, że w trakcie projektowania, testowania, i analizy modelu, od samego początku opracowania aż do jego finalizacji, identyfikowano, ograniczano i łagodzono zagrożenia, które można racjonalnie przewidzieć.

Te zagrożenia mogą dotyczyć zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności. Odpowiednie metody, takie jak zaangażowanie niezależnych ekspertów, powinny być stosowane w tym procesie walidacyjnym. Co ważne, projekt AI Act nakłada na dostawcę modelu generatywnego obowiązek udokumentowania rodzajów ryzyka, które nie mogą być ograniczone po opracowaniu modelu.

Unijny ustawodawca zwrócił również uwagę na wyzwania związane z cyberbezpieczeństwem. Dostawcy modelu generatywnego mają obowiązek projektować i rozwijać model w taki sposób, aby przez cały jego cykl życia osiągał odpowiednie poziomy efektywności, przewidywalności, interpretowalności, korygowalności, bezpieczeństwa, w tym cyberbezpieczeństwa. Także w tym przypadku ocena tych aspektów powinna być przeprowadzana za pomocą adekwatnych metod, w tym oceny modelu z udziałem niezależnych ekspertów, udokumentowanej analizy oraz szeroko zakrojonych testów.

Pozostałe obowiązki dotyczą przede wszystkim tworzenia dokumentacji oraz systemu zarządzania jakością modelu generatywnego.

Projekt Rozporządzenia w zakresie systemów generatywnych ma na celu zapewnienie bezpieczeństwa, przejrzystości i odpowiedzialności w obszarze sztucznej inteligencji. Przez wymóg łagodzenia zagrożeń i dokumentowania ryzyka unijny ustawodawca dąży do minimalizacji zaistnienia potencjalnych negatywnych konsekwencji wykorzystania tych systemów.

Dodatkowo, konsultacje z niezależnymi ekspertami mają na celu zapewnienie, że systemy podlegają weryfikacji przez osoby posiadające odpowiednią wiedzę oraz doświadczenie, co pozwala na lepsze zrozumienie, przewidywanie a przede wszystkim rozwiązywanie potencjalnych problemów.

Z drugiej jednak strony, ustawodawca zwraca uwagę na konieczność przeprowadzenia testów systemów. Głównym zagrożeniem są niezamierzone błędy systemu, których skutkiem mogą być nieprawidłowe wyniki.

W efekcie, unijny ustawodawca dąży do stworzenia systemów generatywnych, które są bezpieczne, przejrzyste i odpowiedzialne, a przez to wzbudzają zaufanie.

Jakie obowiązki przewiduje projekt Rozporządzenia w zakresie przejrzystości?

Projekt AI Act wprowadza obowiązki dotyczące przejrzystości systemów AI, aby sprostać dwóm głównym wyzwaniom. Pierwsze dotyczy świadomości osób fizycznych wchodzących w interakcje z systemem AI – często nie zdają sobie one sprawy, że mają do czynienia z maszyną, a nie człowiekiem.

Drugie wyzwanie wiąże się z rozprzestrzenianiem się treści tworzonych przez technologie typu „deep fake” w Internecie. Dla jasności warto wskazać, że „deep fake” to zmanipulowane lub syntetyczne treści audio, wizualne lub wideo, które błędnie wydają się autentyczne. Są szczególnie niebezpieczne w kontekście manipulacji opinią publiczną oraz siania dezinformacji.

W odpowiedzi na pierwsze wyzwanie, AI Act wymaga od dostawców systemów AI zapewnienia, aby te systemy były projektowane i rozwijane w sposób umożliwiający informowanie osób fizycznych o interakcji z systemem AI w odpowiednim, jasnym i zrozumiałym czasie. Wyjątkiem są sytuacje, w których kontekst i okoliczności korzystania z systemu jednoznacznie wskazują na to, że jest to system AI.

W zakresie „deep fake”, użytkownicy systemów AI generujących lub manipulujących treściami mają obowiązek ujawniać, że dane treści zostały wygenerowane lub zmanipulowane przez system AI, a także podawać dane osoby fizycznej lub prawnej odpowiedzialnej za ich wygenerowanie. Ujawnienie to oznacza wyraźne i jednoznaczne zaznaczenie, że konkretna treść jest nieautentyczna.

Istnieją jednak wyjątki od tej zasady, na przykład - treści o charakterze twórczym, satyrycznym, artystycznym oraz występujące w grach wideo.

Informacje te są przekazywane osobom fizycznym najpóźniej w momencie pierwszej interakcji lub kontaktu, z uwzględnieniem potrzeb osób wymagających szczególnego traktowania, takich jak osoby z niepełnosprawnościami lub dzieci.

Projekt AI Act wprowadza obowiązek informowania o interakcji z systemem AI lub o wykorzystaniu „deep fake” w celu zapewnienia przejrzystości i ochrony praw osób fizycznych. Unijny ustawodawca, poprzez te założenia, dąży do ochrony przed manipulacją i dezinformacją, zwiększając świadomość użytkowników o potencjalnych zagrożeniach związanych z nierozpoznaniem sztucznie generowanych treści.

Kto stanie na straży nowego technologicznego porządku?

Nowe rozporządzenie zakłada wyznaczenie Europejskiej Rady ds. AI oraz wyłonienie organów krajowych w poszczególnych państwach członkowskich, których celem będzie stanie na straży przestrzegania nowego prawa. Projekt AI Act zakłada także ustanowienie piaskownic regulacyjnych w zakresie systemów sztucznej inteligencji, aby ułatwić rozwijanie i testowanie innowacji pod ścisłym nadzorem regulacyjnym zanim zostaną one wprowadzone do obrotu lub oddane do użytku w inny sposób.

Jak AI Act wpływa na przedsiębiorców?

Przede wszystkim trzeba podkreślić, że skutki wdrożenia nowego prawa dla przedsiębiorców mogą być bardzo różne w zależności od tego, jaką rolę odgrywają, czyli czy są dostawcą, użytkownikiem, importerem, operatorem systemu sztucznej inteligencji.

Niemniej jednak, konieczne jest zwrócenie uwagi na uniwersalne wyzwania praktyczne, które mogą pojawiać się na drodze podmiotów niezależnie od sprawowanej roli w tym procesie.

Jedną z najistotniejszych przeszkód jest zbudowanie systemu AI, w którym nowoopracowany model wykazywałby stuprocentową skuteczność. W efekcie cały proces adaptacji podmiotów do nowego prawa może okazać się znacznie bardziej złożony i wymagający aniżeli możemy to obecnie oszacować.

Jakie są konsekwencje niewdrożenia lub niezgodnego działania z regulacją?

Zgodność (lub też jej brak) działania z AI Act będzie egzekwowana poprzez nakładanie grzywien przez krajowy organ nadzorczy w trakcie prowadzenia postępowania zgodnie z procedurą określoną w projekcie Rozporządzenia.

Nakładane kary mają skutecznie i proporcjonalnie odstraszyć od naruszeń wskazanych w projekcie AI Act. W projekcie Rozporządzenia wskazano górne limity kar oraz przekazano instrukcje dla organów odpowiedzialnych za nakładanie tych kar.

Przy ocenie wysokości grzywien, właściwe organy krajowe powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności, jeżeli dostawca jest MŚP lub przedsiębiorstwem typu start-up.

Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania grzywien na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia. Kary i koszty postępowania sądowego na mocy niniejszego rozporządzenia nie powinny podlegać klauzulom umownym ani innym ustaleniom pomiędzy stronami.

Poniżej lista górnych limitów kar, które zostały przedstawione w projekcie AI Act:

  • Nieprzestrzeganie zakazu praktyk dotyczących sztucznej inteligencji, o których mowa w art. 5, podlega administracyjnej karze pieniężnej w wysokości do 40 000 000 EUR lub – jeżeli naruszenia dopuszcza się przedsiębiorstwo – w wysokości do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa;
  • Nieprzestrzeganie przez system sztucznej inteligencji wymogów, o których mowa w art. 10 i 13, podlega administracyjnej karze pieniężnej w wysokości do 20 000 000 EUR lub – jeżeli naruszenia dopuszcza się przedsiębiorstwo – w wysokości do 4 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa;
  • Niezgodność systemu sztucznej inteligencji lub modelu generatywnego z jakimikolwiek wymogami lub obowiązkami wynikającymi z niniejszego rozporządzenia, innymi niż te określone w art. 5, 10 i 13, podlega administracyjnej karze pieniężnej w wysokości do 10 000 000 EUR lub – jeżeli naruszenia dopuszcza się przedsiębiorstwo – w wysokości do 2 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa;
  • Przekazywanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na ich wezwanie podlega administracyjnej karze pieniężnej w wysokości do 5 000 000EUR lub – jeżeli naruszenia dopuszcza się przedsiębiorstwo – w wysokości do 1 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa;
  • Niezgodność systemu sztucznej inteligencji z jakimikolwiek wymogami lub obowiązkami wynikającymi z niniejszego rozporządzenia, innymi niż te określone w art. 5 i 10, podlega administracyjnej karze pieniężnej w wysokości do 750 000 EUR.

 

Jak łatwo zauważyć, wysokość nałożonych kar finansowych może być znacząca, co może dotkliwie odbić się nawet na sytuacji światowych gigantów branży technologicznej.

Kluczowe wnioski

Korzystanie ze sztucznej inteligencji wiąże się z dostępem do nowych szans dla wielu przedsiębiorstw, które mogą wpłynąć na osiągnięcie przewagi konkurencyjnej przez podmioty sprawnie korzystające z tej technologii.

Jak każde nowe rozwiązanie, także korzystanie z AI niesie za sobą pewne zagrożenia. W przypadku wykorzystania AI te ryzyka obejmują utratę kontroli, błędy systemowe, brak transparentności, problem ustalenia odpowiedzialności oraz kwestie związane z ochroną prywatnością i etyką.

Projekt AI Act, będący pierwszym na świecie aktem prawnym dotyczącym AI, odpowiada na zdecydowaną większość z tych wyzwań. Jednocześnie zwraca uwagę na konieczność zabezpieczenia praw obywateli i regulacji praktyk związanych z identyfikacją biometryczną oraz technologiami "deep fake". Prace nad AI Act postępują, z oczekiwaniem na ich finalizację do końca 2023 roku.  

Katarzyna Krzywicka, LL.M

Zobacz więcej podobnych artykułów