NEWSY

AI Act przyjęty. Unia Europejska za ograniczeniem rozwiązań sztucznej inteligencji

AI Act przyjęty. Unia Europejska za ograniczeniem rozwiązań sztucznej inteligencji

Parlament Europejski przyjął w dniu 14 czerwca 2023 r. projekt rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji, powszechnie określany jako „AI Act”. Rozporządzenie wchodzi w życie dwudziestego dnia po publikacji, ale ma być stosowany dopiero po upływie 24 miesięcy od wejścia w życie (z pewnymi wyjątkami).

Rozporządzenie kładzie nacisk na ochronę praw podstawowych, bezpieczeństwa i zdrowia mieszkańców Unii Europejskiej. Przyjęte przypisy wprost zakazują określonych praktyk, w tym w szczególności tworzenia systemów sztucznej inteligencji, które:
• wykorzystują techniki podprogowe lub techniki manipulacyjne lub oszukańcze w celu zniekształcenia zachowania człowieka
• wykorzystują słabe punkty jednostek lub określonych grup
• stosują tzw. kategoryzację biometryczną wykorzystywaną w szczególności do punktacji społecznościowej lub oceny wiarygodności

Rozporządzenie dzieli rozwiązania AI na grupy w zależności od poziomu ryzyka jakie dana technologii może generować. Rozwiązania skategoryzowane jako rozwiązanie o wysokim poziomie ryzyka będą blokowane.

Obowiązki dostawców, producentów i użytkowników
Producenci i dostawcy rozwiązań AI zostali objęci szeregiem obowiązków, w tym:
• spełnienie wymogu przejrzystości generowanych treści oraz zakaz generowania treści nielegalnych
• publiczne udostępnienie informacji o danych chronionych prawem autorskim, które zostały użyte w ramach danego rozwiązania AI

Twórcy tzw. modeli podstawowych będą musieli stosować kontrole bezpieczeństwa, środki zarządzania danymi i ograniczenia ryzyka przed upublicznieniem swoich modeli. Będą one również zobowiązane do zapewnienia, że dane szkoleniowe wykorzystywane do uczenia ich systemów nie naruszają praw autorskich.

Na dostawców rozwiązań AI nałożono obowiązek m.in. oceny oraz ograniczania zagrożeń rozwiązań AI, a także obowiązek rejestrowania rozwiązań w centralnej bazie UE, przed ich wprowadzeniem na rynek. Użytkownicy systemów AI powinni stale weryfikować działania takich systemów, a w razie podejrzenia potencjalnego ryzyka, powinni informować odpowiednie organy.

Nowe urzędy, normy, oceny zgodności i certyfikaty
Rozporządzenie przewiduje utworzenie Europejskiej Rady ds. AI, która ma być ciałem doradczym dla Komisji, a także utworzenie unijnej bazy danych dla samodzielnych systemów sztucznej inteligencji wysokiego ryzyka. Ponadto, przewiduje się wprowadzenie systemu oceny zgodności rozwiązań z przepisami rozporządzenia, a także systemy nadawania odpowiednich certyfikatów.

Wsparcie dla badań i rozwoju
Aby pobudzić innowacje w UE, w rozporządzeniu przewidziano pewne wyłączenia w zakresie badań oraz rozwiązań dostarczanych w ramach licencji typu open source. Wprowadza się także tzw. „piaskownice regulacyjne” które mają tworzyć kontrolowane środowiska do testowania innowacyjnych technologii AI przez ograniczony czas.

Rozporządzenie budzi jednak wiele emocji. Przedsiębiorcy wskazują na ryzyko znacznego ograniczenia tempa rozwoju rozwiązań AI, w szczególności w porównaniu z rynkiem chińskim i amerykańskim. Niewątpliwie okres 24 miesięcy, między publikacją AI Act, a rozpoczęciem jego stosowania, będzie kluczowy dla wypracowania odpowiednich praktyk oraz wprowadzenia niezbędnych zmian i doszczegółowienie przepisów.

Autor: Rzecznik Patentowy Maciej Priebe, Kancelaria Prawna Chałas i Wspólnicy

Share this post