Opinia Sieci Watchdog na temat projektu “Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku”

Odpowiedzieliśmy na zaproszenie Ministerstwa Cyfryzacji do udziału w konsultacjach i przygotowaliśmy opinię na temat „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku”.

Cieszy nas kompleksowości tego dokumentu oraz jego zgodność z międzynarodowymi standardami, a także odniesienia do takich wartości jak prawa człowieka, wyjaśnialność i rozliczalność. Doceniamy propozycje dotyczące nadzoru, przejrzystości i odpowiedzialności, widzimy jednak potrzebę ich doprecyzowania, by uniknąć osłabienia celów na etapie wdrażania. Dlatego proponujemy m.in. wprowadzenie mierzalnych wskaźników dotyczących rejestru systemów AI, publikacji testów wyjaśnialności, ocen skutków dla praw podstawowych oraz obowiązkowych oznaczeń decyzji podejmowanych z użyciem AI. Rekomendacje obejmują również wymogi w zamówieniach publicznych, obowiązkowe niezależne audyty systemów wysokiego ryzyka oraz rozszerzenie monitoringu o dane jakościowe i społeczne.

Poniżej prezentujemy treść naszej opinii. 

Warszawa, 26.06.2025

 
Szanowni Państwo,

w odpowiedzi na publiczne konsultacje dotyczące projektu “Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” (dalej: „Polityka AI”) pragniemy przedstawić nasze stanowisko. Z zadowoleniem przyjmujemy fakt powstania tak kompleksowego i przemyślanego dokumentu strategicznego, który ma ambicje kształtowania przyszłości Polski w erze cyfrowej.

Dokument stanowi solidną podstawę dla rozwoju AI w Polsce w sposób zrównoważony i odpowiedzialny. Cieszy nas, że Polityka AI opiera się na międzynarodowych standardach, takich jak zasady OECD, kładąc nacisk na kluczowe dla społeczeństwa wartości: prawa człowieka, demokrację, wyjaśnialność, rozliczalność i bezpieczeństwo. Doceniamy również uwzględnienie konkretnych mechanizmów nadzorczych, takich jak planowane powołanie organu nadzoru, system skargowy czy szczegółowe wymogi dla operatorów infrastruktury krytycznej.

Projekt trafnie identyfikuje potrzebę budowania zaufania poprzez przejrzystość i rozliczalność – znajdujemy w nim zarówno jasne deklaracje wartości, jak i propozycje konkretnych narzędzi. Aby jednak te szczytne cele nie uległy osłabieniu na etapie wdrożenia i aby uniknąć ryzyka rozmycia odpowiedzialności, pragniemy przedstawić kilka propozycji uściślających i wzmacniających. Naszym celem jest, aby polska Polityka AI nie tylko była zgodna z duchem i literą unijnego Aktu o sztucznej inteligencji (AI Act), ale stała się wzorcem praktycznego wdrażania zasad godnej zaufania AI.

Poniżej przedstawiamy nasze kluczowe rekomendacje, podzielone na obszary tematyczne.

1. Publiczny rejestr systemów AI w administracji

Rejestr systemów AI przewidziany w projekcie to ważny krok dla przejrzystości. Jednak brak mu wyraźnego wskaźnika. Mocno rekomendujemy dodanie wskaźnika jasno odnoszącego się do powstania i prowadzenia tego rejestru.

2. Przejrzystość decyzji i wyjaśnialność

W rozdziale 6.2. dokument trafnie wskazuje na problem „braku przejrzystości procesów decyzyjnych”, ale nie precyzuje środków zaradczych. Proponujemy zobowiązanie do publikacji wyników testów wyjaśnialności (XAI) dla systemów używanych w administracji publicznej.

3. Rozliczalność i dokumentacja

Brakuje metryki dotyczącej liczby lub odsetka systemów z publicznie dostępną dokumentacją i oceną skutków dla praw podstawowych. Warto dodać wskaźnik: “Odsetek systemów AI wysokiego ryzyka w sektorze publicznym z publicznie dostępną oceną skutków dla praw podstawowych – cel 100% do 2028 r.”

4. Łańcuch odpowiedzialności

W rozdz. 6.2 warto doprecyzować, że ostateczna odpowiedzialność za decyzję administracyjną spoczywa zawsze na człowieku (urzędniku lub organie), który jednocześnie musi mieć możliwość zrozumienia i podważenia rekomendacji algorytmu. Dlatego wskazane jest dodanie w sekcji “Co umożliwi realizację celu” wymogu stworzenia ram prawnych jasno określających łańcuch odpowiedzialności.

5. Oznaczenie decyzji AI

Proponujemy wprowadzenie wskaźnika: „100% decyzji dotyczących osób fizycznych i osób prawnych, wydawanych przez jednostki sektora publicznego z pomocą AI, zawiera wyraźne oznaczenie tego faktu – cel do 2026 r.”

6. Zamówienia publiczne

Projekt zamówienia systemu AI na etapie SIWZ powinien zawierać:

  • Jawny opis danych treningowych (lub uzasadnienie braku jawności),
  • Deklaracji dotyczącej własności kodu i modelu po wdrożeniu.

7. Ocena wpływu społecznego

Każdy system wysokiego ryzyka powinien co 12 miesięcy przechodzić ocenę wpływu społecznego, z publikacją wyników, statystyk błędów i skarg.

8. Audyt AI w infrastrukturze krytycznej

Zamiast obecnego zapisu („Operatorzy infrastruktury krytycznej będą przeprowadzać audyt…”), postulujemy: „Operatorzy infrastruktury krytycznej będą zlecać cykliczne, niezależne, akredytowane audyty stosowanych rozwiązań AI.”

9. Okresowy audyt AI wysokiego ryzyka

W dokumencie warto wprost zadeklarować konieczność okresowego, niezależnego audytu systemów AI wysokiego ryzyka, ze szczególnym naciskiem na weryfikację błędów systematycznych i dyskryminacji oraz publiczną dostępność wyników.

10. Zakres transparentności

Wskaźnik 4.3 dotyczący transparentności algorytmów personalizujących oferty zakupowe wydaje się zbyt szczegółowy i marginalizujący inne, poważniejsze zastosowania AI w obszarach takich jak zdrowie czy wymiar sprawiedliwości. Rekomendujemy weryfikację zakresu tej transparentności oraz ewentualne poszerzenie zakresu wskaźników na obszary o większym wpływie społecznym.

11. Monitoring i wskaźniki jakościowe (roz. 7)

Proponujemy, aby monitoring obejmował także:

  • Liczbę zgłoszonych skarg i sposób ich rozstrzygnięcia,
  • Liczbę audytów (pozytywne/negatywne),
  • Czas publikacji dokumentacji systemu od wdrożenia.

Jesteśmy przekonani, że wdrożenie powyższych rekomendacji pozwoli nie tylko skutecznie realizować założone cele Polityki AI, ale także wzmocni zaufanie społeczne do rozwiązań opartych na sztucznej inteligencji oraz ugruntuje pozycję Polski jako lidera w odpowiedzialnym i transparentnym wykorzystaniu nowych technologii. Liczymy, że przedstawione uwagi zostaną potraktowane jako wkład w budowę praktycznych, wysokich standardów rozwoju AI z korzyścią dla wszystkich obywateli. Wyrażamy gotowość do dalszej współpracy i dialogu, by wspólnie tworzyć bezpieczną, otwartą i innowacyjną przyszłość cyfrową naszego kraju.

Podoba Ci się ten artykuł? Wesprzyj nasze działania darowizną.

Komentarze

Dodaj komentarz

Przed wysłaniem komentarza przeczytaj "Zasady dodawania i publikowania komentarzy".

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *