Bez kategorii

Rozporządzenie UE o sztucznej inteligencji coraz bliżej – jest porozumienie w sprawie treści AI Act.

Rozporządzenie UE o sztucznej inteligencji coraz bliżej – jest porozumienie w sprawie treści AI Act.

Unijne prace nad regulacjami prawnymi dotyczącymi sztucznej inteligencji od dawna budzą wiele emocji. Po pierwsze dlatego, że już sam rozwój technologii AI wzbudza spore zainteresowanie społeczne, po drugie, dlatego, że unijne rozporządzenie ma być pierwszym na świecie prawodawstwem ustanawiającej ramy prawne dla rozwiązań opartych na technologii AI.

Założeniem Aktu było zagwarantowanie obywatelom Unii bezpieczeństwa i przejrzystości w stosowaniu technologii opartej na sztucznej inteligencji bez zablokowania rozwoju technologicznego i innowacyjności w Unii Europejskiej.

Projektowane regulacje ulegały dużym zmianom. Co ciekawe, pierwszy projekt Aktu z 2021 roku nie uzględniał przepisów dotyczących generatywnych i podstawowych systemów sztucznej inteligencji, czyli rozwiązań najszerzej znanych społeczeństwu i uznawanych za symbol AI, głównie dzięki czatowi GPT, wprowadzonemu na rynek pod koniec 2022 roku.

AI Akt zakłada podejście oparte na ryzyku. W Akcie systemy sztucznej inteligencji zostały podzielone na 4 kategorie, w zależności od stwarzanego przez przez nie poziomu ryzyka. Im wyższy poziom ryzyka systemu, tym więcej obowiązków nałożonych zostało na jego dostawców i użytkowników. Nieprzestrzeganie obowiązków wynikających z rozporządzenia grozi wysokimi karami finansowymi

Kategorie systemów AI:

  1. niedopuszczalnego ryzyka – zakazane jako stwarzające ryzyko dla ludzi (pod ścisłymi wyjątkami przewidzianymi do celów egzekwowania prawa) – np.:
  • umożliwiające poznawczo – behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami – np. zabawki zachęcające dzieci do niebezpiecznych zachowań;
  • umożliwiające identyfikację biometryczną i kategoryzację osób;
  • scoringowe – zezwalające na klasyfikację obywateli na podstawie ich cech, statusu społecznego;
  • dokonujące identyfikacji biometrycznej w czasie rzeczywistym i zdanie (np. rozpoznawanie twarzy).
  1. wysokiego ryzyka – mogące negatywnie wpływać na bezpieczeństwo i prawa podstawowe obywateli:
  • na ich użytkowników i dostawców nałożono najwięcej obowiązków m.in.: w zakresie zarządzania ryzykiem, transparentności, monitorowania cyklu życia produktu.
  1. ogólnego przeznaczenia i generatywne tzw. generatywna sztuczna inteligencja np. czat GPT:
  • wymogi głównie w zakresie przejrzystości i transparentności – np. obowiązek oznaczania, że dana treść została wygenerowana przez sztuczną inteligencję;
  • takie wygenerowanie modelu, aby nie generował nielegalnych treści.
  1. ograniczonego ryzyka – np. obrazki, nagrania wideo typu “deepfake”
  • najmniej obowiązków, konieczność przejrzystego informowania użytkowników, o tym, że treść została wygenerowana przez system sztucznej inteligencji. 

Co dalej z AI Aktem?

Kolejnym krokiem do uchwalenia Aktu będzie głosowanie w komisjach Parlamentu Europejskiego (prawdopodobna data to 13 lutego 2024 roku). W marcu lub kwietniu  tego roku rozporządzenie trafi pod głosowanie na sesji plenarnej Parlamentu. Rozporządzenie wejdzie w życie 20 dni po publikacji w Dzienniku Urzędowym UE. Akt ma zacząć obowiązywać 24 miesiące po wejściu w życie – przy czym ten termin ten jest różny dla poszczególnych systemów AI.

Autor: r.pr Joanna Kik, Kancelaria Prawna Chałas i Wspólnicy

Share this post