O tej ustawie pisaliśmy już dwukrotnie. Najpierw omawialiśmy ogólne założenia a potem pisaliśmy o krytyce projektu. Najogólniej rzecz ujmując chodzi o to, że polska skarbówka chce się uzbroić w narzędzia informatyczne do „analizy prawdopodobieństwa wystąpienia naruszenia prawa podatkowego”. Planowane jest utworzenie spółki celowej, która zapewni fiskusowi te upragnione narzędzia.
Jest w tym wszystkim haczyk.
Nowa spółka celowa niby będzie tylko załatwiać narzędzia dla fiskusa, ale ustawa pozwoli jej na pozyskiwanie danych z systemu ministra finansów, administracji podatkowej oraz kontroli skarbowej. Spółka będzie mogła przetwarzać dane bez wiedzy i zgody osób, których te dane dotyczą. Trudno wyjaśnić po co takie uprawnienia dawać spółce, która ma tylko tworzyć narzędzia. Zrozumiała byłaby możliwość prowadzenia testów na jakiejś próbce zanonimizowanych danych, ale po co więcej?
Projekt ustawy powstał bez konsultacji społecznych, bez uprzedniego przygotowania założeń. Ciekawe uwagi do tego projektu zgłaszał Generalny Inspektor Ochrony Danych Osobowych. Ustawa o ochronie danych uznaje za niedopuszczalne „rozstrzygnięcie indywidualnej sprawy (…) jeżeli jego treść jest wyłącznie wynikiem operacji na danych osobowych, prowadzonych w systemie informatycznym”. Nie powinno być tak, że bezmyślny automat kwalifikuje człowieka jako oszusta.
Nowe systemy ministerstwa finansów będą wyłapywać podatników, którzy następnie będą kontrolowani. Czy to znaczy, że oprogramowanie nie będzie podejmowało ważnych rozstrzygnięć? Teoretycznie nie, a praktycznie tak. Dobrze wytłumaczyła to Fundacja Panoptykon, zajmująca się problemami społeczeństwa nadzorowanego.
„Sęk w tym, że w polskich realiach już sama decyzja o przeprowadzeniu kontroli i bliższym przyjrzeniu się konkretnemu podatnikowi może mieć poważne konsekwencje (np. zamrożenie środków czy sparaliżowanie przedsiębiorstwa na czas kontroli) (…) System, w którym to niejawny algorytm ma przesądzać o tym, czy konkretna osoba znajdzie się na celowniku skarbówki, niesie ze sobą poważne ryzyko błędów i krzywdzących postępowań. Standardowo o przetwarzaniu danych przez algorytm podatnicy nie będą informowani – to oznacza, że o zakwalifikowaniu do grupy ryzyka najprawdopodobniej dowiemy się dopiero w momencie wszczęcia w naszej sprawie postępowania” – napisała Fundacja w komunikacie na swojej stronie.
Fundacja przedstawiła też obszerniejsze stanowisko, w którym zwróciła uwagę na to, że w wielu państwach Unii Europejskiej wdrażane są systemy, które służą podejmowaniu automatycznych rozstrzygnięć w obszarze finansów publicznych. Jeśli w Polsce powstają warunki do tworzenia takich systemów to wszyscy powinni mieć świadomość, że profilowanie i automatyczne podejmowanie decyzji wiąże się z ogromnym ryzykiem. Było to zresztą widać po tym, jak zrealizowano pomysł profilowania bezrobotnych. Wiele złożonych sytuacji życiowych zamknięto w dwudziestu kilku pytaniach, na które później udzielano przybliżonych odpowiedzi, a ostatecznie to urzędnik decydował o tym jak opisać to, o czym wiedział głównie petent. Otworzyło to drogę zarówno do dyskryminacji, jak i do obchodzenia systemu przez osoby, które miały odpowiednie znajomości.
Oczywiście nie można wykluczyć, że nowa spółka wytworzy narzędzie, które pozwoli wyłapać niejedno nadużycie. Niestety istnieje ryzyko, że te narzędzia będą miały pewien margines błędu. Na tyle mały, margines aby nikt się nim nie przejmował. Nie będziesz tego postrzegać jako problemu póki algorytm nie wrzuci Cię do tego „nieistotnego marginesu”.
Autorstwo: Marcin Maj
Źródło: DI.com.pl
Jeden komentarz