Czym jest system AI według unijnego prawa? Nowa definicja, nowe obowiązki

AI Act definicja AI wg unijnego prawa

Sztuczna inteligencja przestała być futurystyczną wizją – dziś realnie wpływa na to, jak pracujemy, uczymy się i podejmujemy decyzje. Wraz z gwałtownym rozwojem technologii pojawiła się jednak potrzeba stworzenia jasnych zasad. Odpowiedzią jest unijne Rozporządzenie 2024/1689, tzw. AI Act, które jako pierwsze na świecie wprowadza kompleksową regulację systemów AI. Czym właściwie jest „system AI” według nowych przepisów i co to oznacza dla firm, twórców technologii i użytkowników? Oto najważniejsze informacje.

Czym jest system AI według AI Act?

13 czerwca 2024 r. Parlament Europejski i Rada przyjęły Rozporządzenie (UE) 2024/1689 w sprawie sztucznej inteligencji – znane jako AI Act. To dokument, który ustanawia jednolitą definicję „systemu AI” i tworzy ramy prawne dla jego bezpiecznego i etycznego stosowania.

Zgodnie z AI Act, system AI to system maszynowy, który:

  • działa z różnym poziomem autonomii, czyli może podejmować decyzje samodzielnie, bez nadzoru człowieka,
  • wykazuje zdolność adaptacji po wdrożeniu, czyli np. uczy się i doskonali na podstawie doświadczenia,
  • na potrzeby wyraźnych lub dorozumianych celów na podstawie danych wejściowych potrafi generować wyniki w postaci rekomendacji, decyzji, prognoz lub treści,
  • może wpływać na środowisko fizyczne (np. roboty) lub cyfrowe (np. aplikacje online).

System maszynowy – co to właściwie znaczy?

W rozumieniu AI Act „system maszynowy” oznacza zautomatyzowane oprogramowanie działające z wykorzystaniem maszyn, czyli np. komputerów, procesorów, na bazie danych i algorytmów, które może samodzielnie realizować określone cele – bez ręcznego programowania każdej czynności.

Czym różni się AI od zwykłego oprogramowania?

Tradycyjny program komputerowy działa zawsze według zaprogramowanych instrukcji. System AI natomiast uczy się, adaptuje i podejmuje decyzje na podstawie danych, wykorzystując m.in.:

  • uczenie maszynowe (machine learning) – w tym głębokie uczenie (deep learning), które pozwala systemowi na samodzielne doskonalenie się poprzez analizę danych i rozpoznawanie wzorców,
  • logikę i wiedzę ekspercką – oparte na regułach i ontologiach, wykorzystujące zakodowaną wiedzę ekspercka do podejmowania decyzji,
  • modelowanie rzeczywistości – np. modele probabilistyczne lub symulacyjne, umożliwiające przewidywanie i analizę scenariuszy.

W praktyce działanie systemu jest automatyczne (wykonywane przez urządzenie, a nie człowieka) i realizowane przez oprogramowanie, które podejmuje działania lub decyzje, często bez bieżącego nadzoru człowieka. Oznacza to, że AI nie potrzebuje ciągłych instrukcji ze strony człowieka – potrafi podejmować działania samodzielnie. Działanie to wykorzystuje dane wejściowe, które przetwarza, aby osiągnąć określone – wyraźne lub dorozumiane – cele.

Równie istotna jest adaptacyjność, czyli zdolność do modyfikacji działania po wdrożeniu, na przykład w wyniku nowo zebranych danych. Takie możliwości odróżniają systemy AI od typowego oprogramowania, które działa zawsze według z góry określonych reguł i nie zmienia się bez udziału człowieka

Cele wyraźne i dorozumiane – jak AI rozumie swoje zadanie?

Systemy AI nie działają jedynie na podstawie zaprogramowanych reguł. Są projektowane z myślą o realizacji celów, które mogą być:

  • wyraźne – jasno, bezpośrednio określone przez twórców (np. rekomendowanie produktów). Mogą to być na przykład zadania do wykonania, jak przewidywanie wyników finansowych, rozpoznawanie obiektów na zdjęciach czy rekomendowanie produktów w sklepie internetowym.
  • dorozumiane – cele mniej jednoznaczne, wynikające z kontekstu działania. Na przykład, system AI może być zaprojektowany z myślą o „poprawie efektywności procesów operacyjnych w firmie”, ale dokładne cele mogą zmieniać się w zależności od zmieniających się okoliczności, takich jak dane wejściowe czy kontekst działania systemu. AI może na tej podstawie dostosować swoje decyzje do zmieniającego się środowiska i wymagań.

Warto podkreślić, że cele systemu AI mogą różnić się od jego przeznaczenia w określonym kontekście.

System AI jako samodzielne narzędzie lub część produktu

Rozporządzenie uwzględnia różne formy wykorzystania AI. AI może działać jako niezależny system, np. algorytm analizujący dane finansowe czy wspierający procesy rekrutacyjne, albo być częścią produktu fizycznego – jak roboty przemysłowe czy samochody autonomiczne. Nowe przepisy mają zastosowanie do obu przypadków.

Przykłady zastosowania systemów AI w praktyce

Żeby lepiej zrozumieć, czym w praktyce jest system AI w rozumieniu unijnego prawa, warto przyjrzeć się konkretnym przykładom jego zastosowania. AI nie jest już tylko domeną laboratoriów – to realne narzędzie wykorzystywane w wielu branżach, od finansów po medycynę. Oto wybrane przykłady, gdzie AI działa w praktyce.

  • AI w HR – przykładem może być system analizujący CV i wybierający najlepszych kandydatów,
  • Chatbot bankowy – to automatyczna obsługa klienta, czy system wspomagający wydawanie decyzji kredytowych,
  • AI w medycynie – wspomaga wydawanie diagnozy na podstawie badań obrazowych,
  • Systemy rekomendacyjne – umożliwiają personalizację oferty w e-commerce,
  • Autonomiczne pojazdy – podejmują decyzje drogowych w czasie rzeczywistym.

Jakie obowiązki na przedsiębiorców nakłada AI Act?

W zależności od ryzyka, jakie niesie zastosowanie systemu AI, unijne prawo przewiduje różne poziomy regulacji:

  • ocenę zgodności systemu, z którego korzysta firma, z przepisami,
  • wymóg dokumentacji i przejrzystości polegający np. na informowaniu użytkownika, że rozmawia z AI,
  • zakaz stosowania niektórych systemów wysokiego ryzyka, np. rozpoznawania twarzy w czasie rzeczywistym w przestrzeni publicznej,
  • wprowadzenie mechanizmów nadzoru i zgłaszania incydentów.

Poznanie tych regulacji ma ogromne znaczenie dla firm posługujących się systemami opartymi o AI. Niestety część z nich wciąż nie ma świadomości ciążących na nich obowiązków. Zbyt późno zgłaszając się na audyt prawny, ryzykują obciążenie ich karami. A te mogą być naprawdę dotkliwe.

Kary i egzekwowanie przepisów

AI Act przewiduje dotkliwe sankcje za nieprzestrzeganie przepisów. Przedsiębiorcy, którzy na różnym poziomie regulacji nie wykażą się zgodnością z AI Act i nie zastosują do nowych obowiązków mogą zostać obciążeni karą finansową. Wynosi ona do 35 milionów euro lub 7% globalnych przychodów firmy – w przypadku najpoważniejszych naruszeń. Oczywiście są to kary maksymalne. Praktyka pokaże, jakie kwoty w praktyce będą orzekane w ramach kary.

Kiedy przepisy o AI Act wejdą w życie?

Rozporządzenie (UE) 2024/1689, znane jako AI Act, weszło w życie 1 sierpnia 2024 r. Jednak poszczególne obowiązki wynikające z regulacji będą wdrażane stopniowo – w zależności od rodzaju systemu i poziomu ryzyka, jaki niesie jego stosowanie. Ustawodawca przewidział czas na dostosowanie się zarówno dla twórców technologii, jak i użytkowników systemów AI.

Harmonogram wdrażania kluczowych przepisów AI Act wygląda następująco

  • Od 2 lutego 2025 r. zaczęły obowiązywać przepisy zakazujące najbardziej niebezpiecznych praktyk wykorzystania AI, takich jak np. manipulowanie zachowaniami ludzi w sposób szkodliwy dla ich zdrowia czy systematyczne punktowanie obywateli (tzw. social scoring). W tym samym terminie wchodzą też w życie przepisy dotyczące edukacji cyfrowej i świadomości AI (AI literacy) – zarówno dla obywateli, jak i podmiotów wdrażających AI.
  • Od 2 sierpnia 2025 r. obowiązki zaczęły obejmować systemy ogólnego przeznaczenia AI (GPAI), czyli np. duże modele językowe wykorzystywane w różnych celach (np. modele typu foundation). Przepisy obejmują m.in. obowiązki w zakresie przejrzystości, bezpieczeństwa, dokumentacji technicznej oraz systemów zarządzania.
  • Od 2 sierpnia 2026 r. – zaczyna obowiązywać większość przepisów AI Act, w tym dotyczące projektowania, oceny ryzyka i nadzoru nad systemami AI. W tym momencie firmy muszą być w pełni gotowe do wdrożenia zgodnych z przepisami systemów.
  • Od 2 sierpnia 2027 r. – wchodzą w życie przepisy dotyczące systemów wysokiego ryzyka, które zostały już wcześniej wprowadzone na rynek i wymagają dostosowania do nowych regulacji. Dotyczy to m.in. systemów wykorzystywanych w rekrutacji, edukacji, zdrowiu, czy systemach punktacji kredytowej.

Co to oznacza w praktyce?

Firmy, które tworzą lub korzystają z systemów AI, powinny już teraz rozpocząć proces analizy zgodności i wdrażania odpowiednich procedur. Choć przepisy są rozłożone w czasie, nieprzygotowanie się zawczasu może skutkować ryzykiem prawnym, finansowym i reputacyjnym. AI Act to nie tylko obowiązki. To także szansa na uporządkowany i bezpieczny rozwój nowoczesnych technologii w zgodzie z wartościami i prawami użytkowników.

Podsumowanie – co oznacza definicja systemu AI dla Twojej firmy?

Nowa definicja systemu AI to kluczowy element porządkowania dynamicznie rozwijającego się rynku. Dla przedsiębiorców oznacza:

  • jasność, czy dana technologia to AI w rozumieniu prawa,
  • konkretne obowiązki w zakresie zgodności,
  • ryzyko sankcji w przypadku ignorowania przepisów.

Ujednolicona definicja systemu AI ma kluczowe znaczenie. Po pierwsze, ma zapewnić pewność prawną – wskazywać, co dokładnie podlega przepisom. Ponadto ułatwia współpracę międzynarodową – definicja została dostosowana do standardów uznawanych przez światowe organizacje zajmujące się AI. Po trzecie, zostawia przestrzeń dla dalszego rozwoju technologii – bez blokowania innowacyjności.

Potrzebujesz wsparcia?

Korzystasz z systemów AI lub planujesz ich wdrożenie w swojej firmie? Warto już teraz sprawdzić, czy Twoje rozwiązania są zgodne z nowymi przepisami unijnymi. AI Act nakłada szereg obowiązków zarówno na dostawców, jak i użytkowników sztucznej inteligencji. To szeroki wachlarz – od dokumentacji technicznej i oceny ryzyka, po obowiązki informacyjne wobec użytkowników i nadzór nad działaniem systemów.

Nasza kancelaria LO:ME wspiera przedsiębiorców i instytucje na każdym etapie procesu wdrażania AI zgodnie z prawem. Oferujemy m.in.:

  • analizę, czy dane rozwiązanie podlega pod regulacje AI Act i do jakiej kategorii ryzyka należy,
  • przegląd zgodności istniejących systemów z wymogami prawnymi,
  • opracowanie procedur zgodnych z przepisami (np. w zakresie przejrzystości, nadzoru, zgłaszania incydentów),
  • przygotowanie polityk i regulaminów dotyczących korzystania z AI w relacjach z klientami i pracownikami,
  • doradztwo przy wdrażaniu systemów ogólnego przeznaczenia oraz wysokiego ryzyka,
  • wsparcie przy współpracy z dostawcami AI (umowy, odpowiedzialność, due diligence),
  • szkolenia dla zespołów compliance, IT i zarządu z zakresu nowych obowiązków prawnych.

Pomagamy nie tylko dostosować się do wymogów, ale też zrozumieć, jak bezpiecznie i odpowiedzialnie rozwijać technologie AI w organizacji. Skontaktuj się z nami, jeśli chcesz zyskać pewność prawną i uniknąć ryzyk związanych z nadchodzącymi regulacjami.

Najnowsze wpisy