Rynek chce nadzoru nad sztuczną inteligencją
Akt o sztucznej inteligencji to pierwsze tego typu na świecie prawo, które w sposób całościowy ma uregulować rozwijanie i stosowanie AI. Unijne rozporządzenie wymaga od państw członkowskich, aby tak przystosowały swoje systemy prawne, by skutecznie zrealizować nowe reguły w praktyce. Ministerstwo Cyfryzacji zakończyło właśnie prekonsultacje do projektowanej implementacji Aktu o sztucznej inteligencji (AI Act). Wzięło w nich udział 50 podmiotów.
„Naszym priorytetem jest wprowadzenie prawa, które będzie precyzyjne, konkretne i jasne. Dlatego naszym priorytetem jest dialog z organizacjami pozarządowymi, ośrodkami naukowymi, związkami przedsiębiorców. Ich głos pozwoli nam stworzyć przyjazny dla użytkowników ekosystem sztucznej inteligencji. Dzisiaj projektujemy rozwiązania na wiele lat. Ich uniwersalność i możliwość dostosowania do szybkich zmian technologii będzie kluczowa. Dziękuję wszystkim uczestnikom i uczestniczkom prekonsultacji za cenne opinie i rekomendacje, które pomogą nam rzetelnie wprowadzić akt do polskiego systemu prawnego oraz mądrze i odpowiedzialnie rozwijać polski sektor AI” – mówi cytowany w komunikacie wiceminister cyfryzacji Dariusz Standerski.
W ramach prekonsultacji skupiono się na czterech kluczowych kwestiach: powołaniu nowego organu nadzoru, kto powinien realizować funkcją organu notyfikacyjnego, czy powinna być to jedna i ta sama instytucja czy też niezależne od siebie kategorie interesariuszy – np. organów, instytucji, organizacji, przedsiębiorstw, grup społecznych, kategorii obywateli i in. powinny być traktowane priorytetowo w zakresie działań komunikacyjnych i edukacyjnych w związku z procesem wchodzenia w życie europejskiego rozporządzenia.
Uczestnicy prekonsultacji proponują powołać nowy organ nadzoru rynku
Zdecydowana większość zgłoszonych opinii zawierała wskazanie, aby powołać nowy organ nadzoru rynku sztucznej inteligencji.
Organ ten ma m. in:
- być pojedynczym punktem kontaktowym dla ogółu społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym,
- rozpatrywać wnioski dot. zezwolenia na wprowadzenie do obrotu lub oddanie do użytku systemów AI wysokiego ryzyka oraz skargi osób poddanych działaniom systemów AI,
- przyjmować zgłoszenia dot. poważnych incydentów,
- współpracować z Komisją, forum doradczym oraz Radą ds. AI.
Organ nadzoru rynku zgodnie z Aktem ma wykonywać swoje uprawnienia niezależnie, bezstronnie i nietendencyjnie.
>>> Praca.Wirtualnemedia.pl - tysiące ogłoszeń z mediów i marketingu
Zwolennicy powołania nowego organu wskazują kilka kluczowych argumentów. Uważają, że istniejące instytucje nie mają odpowiednich kompetencji i zasobów. Dodatkowo sądzą, że stworzenie wyspecjalizowanej agencji odpowiedzialnej za bezpieczny i legalny rozwój AI przyniesie korzyści zarówno sektorowi publicznemu, jak i prywatnemu. Ponadto twierdzą, że jeśli utworzymy nowy organ to unikniemy potencjalnych sporów kompetencyjnych oraz konfliktów priorytetów w działaniu innych instytucji.
Mniejszość respondentów uważa, że kompetencje organu nadzoru należy przekazać istniejącej instytucji. W tym kontekście wymieniano podmioty takie jak Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Prezes Urzędu Ochrony Danych Osobowych (UODO), Przewodniczący Komisji Nadzoru Finansowego (KNF), Przewodniczący Krajowej Rady Radiofonii i Telewizji (KRRiTV), Prezes Urzędu Komunikacji Elektronicznej (UKE) czy Minister Cyfryzacji (MC).
Brak zgody interesariuszy co do organu notyfikującego
Uczestnicy prekonsultacji są natomiast podzieleni w kwestii podmiotu mającego pełnić funkcję organu notyfikującego. Organ ten ma wspólnie z partnerami unijnymi opracowywać i stosować procedury konieczne do tego, by oceniać, wyznaczać i notyfikować jednostki oceniające zgodność systemów AI oraz je monitorować, a także w określonych sytuacjach przedkładać Komisji i państwom członkowskim dowody, które potwierdzają kompetencje jednostki oceniającej zgodność. Organ notyfikujący, w zamyśle twórców Aktu, ma działać w sposób, który gwarantuje wysokie kompetencje eksperckie, poufność, bezstronność oraz brak konfliktów interesów z jednostkami oceniającymi zgodność.
Nieco więcej respondentów popiera pomysł, by do tego celu stworzyć nową instytucję (25 wskazań). Jednocześnie znaczna liczba uczestników prekonsultacji uważa, że te zadania mogłyby realizować podmioty już istniejące (19 wskazań). Spośród istniejących instytucji, jako potencjalny organ notyfikujący respondenci najczęściej wymieniali Polskie Centrum Akredytacji (PCA).
Nieznaczna większość biorących udział w prekonsultacjach uważa, że lepiej byłoby, gdyby funkcje organu nadzoru rynku i organu notyfikującego wykonywała w Polsce ta sama instytucja (23 wskazań).
Komu komunikować o zmianach
Poza ogółem obywateli, jako kategorie osób, które powinny uzyskać informacje o przepisach wynikających z Aktu uczestnicy prekonsultacji najczęściej wskazywali następujące grupy:
- przedsiębiorcy AI (w tym dostawcy AI wysokiego ryzyka),
- przedstawiciele administracji publicznej
- naukowcy, studenci
- konsumenci,
- twórcy i artyści;
- instytucje sektora finansowego,
- przedstawiciele ochrony zdrowia.
Prekonsultacje zakończono 23 kwietnia. Jak mówił Standerski podczas konferencji prasowej na początku kwietnia, dalszy harmonogram przedstawiony zostanie po ich podsumowaniu. Ministerstwo zaznaczyło, że w kwestii harmonogramu chce trzymać się tego, co przewiduje sama UE w akcie.
- Nie chcemy być prymusami, jeśli chodzi o najwcześniej wdrożone prawo w Unii Europejskiej, chcemy być prymusami, jeśli chodzi o prawo wdrożone dobrze, z pełnymi konsultacjami społecznymi i pełnym procesem legislacyjnym. Dlatego będziemy trzymali się terminów wyznaczonych w Akcie o usługach cyfrowych i jego wejścia w życie. Nie planujemy jazdy ekspresem, planujemy jazdę z pełnym obłożeniem pasażerów, jeśli chodzi o konsultacje społeczne i proces legislacyjny, łączenie aktów – mówił w kwietniu Standerski.
Dołącz do dyskusji: Rynek chce nadzoru nad sztuczną inteligencją