Życie w świecie, w którym wszystkie systemy są automatyczne, może być bardzo zdehumanizowane i sztuczne. Na pewno będziemy potrzebować ludzi, żeby np. prowadzić procedury odwoławcze - mówi dr Alek Tarkowski, prezes fundacji Centrum Cyfrowe, współautor raportu „AlgoPolska. Zautomatyzowane podejmowanie decyzji w służbie społeczeństwu”
Czy zautomatyzowane podejmowanie decyzji (ADM) rzeczywiście może zapobiegać przestępstwom i czy np. śledzenie danych z mediów społecznościowych albo typowanie potencjalnych przestępców na podstawie historycznych danych statystycznych nie jest ograniczeniem praw człowieka?
Zapobieganie przestępczości jest „najgorętszym” obszarem, w którym wykorzystuje się systemy ADM i szerzej – analizę danych. Dziesięć lat temu, gdy miasta zaczęły się otwierać i udostępniać dane publiczne, w pierwszej kolejności wszyscy chcieli się dowiedzieć, które miejsca są niebezpieczne i gdzie konkretnie najczęściej dochodzi do popełnienia przestępstw. Sposób działania tych systemów bardzo szybko okazał się jednak dość kontrowersyjnym przedsięwzięciem, gdyż bardzo łatwo stygmatyzuje pojedyncze osoby, a także całe społeczności czy okolice.
Ponadto delegowanie kompetencji organów ścigania w ręce sztucznej inteligencji niesie ze sobą duże ryzyko ograniczenia praw i wolności jednostek. Jednym z głównych problemów jest jakość danych, którymi „karmi się” algorytm. Mówi się tutaj często o tzw. dirty data – brudnych danych. Ich wielkie zbiory pozyskiwane w sposób niechlujny lub nieodpowiedzialny mogą być wykorzystywane do podejmowania decyzji, które nieraz potrafią zaburzyć normalne funkcjonowanie ludzi, których dotyczą. Zapewne jednym z najbardziej niesławnych systemów automatycznego podejmowania decyzji w prewencji kryminalnej jest opracowany przez firmę Equivant system COMPAS służący do przewidywania ryzyka recydywizmu wśród przestępców. Dziennikarka dochodzeniowa Julia Angwin wykazała, że system ten jest wręcz rasistowski – zawyża ocenę ryzyka popełnienia przestępstwa przez osoby czarnoskóre, a zaniża u białych. Niestety nie wiemy, czy jest to wynik wadliwych danych czy źle skonstruowanego algorytmu, bo system jest zastrzeżony przez prywatną firmę. COMPAS jest zresztą pokazywany jako kluczowy dowód na to, że algorytmy podejmujące decyzje, które mają wpływ na prawa i wolności obywateli, muszą być przejrzyste i podlegać kontroli. Jednak pomimo wszystkich krytycznych głosów system jest nadal stosowany w niektórych stanach USA.
Czy automatyzacja w wymiarze sprawiedliwości nie odczłowieczy go? Na jakich etapach można ją wykorzystać i po co?
Dziś tego rodzaju systemy próbują przede wszystkim przewidywać szansę na popełnienie przestępstwa. To są próby realizacji wizji znanych nam z takich futurystycznych filmów, jak chociażby „Raport mniejszości”, w których policja dociera na miejsce przestępstwa przed jego popełnieniem. To także technologia, która dzisiaj dość często decyduje w sposób niesprawiedliwy i szkodliwy społecznie. Jednocześnie podobne systemy algorytmiczne dają też dużą szansę na usprawnienie sądownictwa. Nie powinniśmy się więc bać automatycznego podejmowania decyzji, zwłaszcza w przypadku najprostszych spraw sądowych. Pamiętajmy natomiast, że równolegle trwają dyskusje o automatyzacji powiązanych obszarów – na przykład pracy notariuszy – z wykorzystaniem automatycznych systemów opartych na technologii blockchain. Kluczową kwestią będzie zatem ustalenie, kiedy decyzje powinny nadal być podejmowane z udziałem ludzi. Jako podstawową zasadę musimy przyjąć, że człowiek jest i będzie potrzebny wszędzie tam, gdzie decyzja może wpłynąć na ludzkie życie i prawa obywatelskie.
Polskie doświadczenia – losowy przydział sędziów – wskazują, że nawet algorytmy można wykorzystywać niewłaściwie. Pomijam już nawet domniemane upolitycznienie w przydziale spraw. Skąd pewność, że taka „automatyzacja” w wymiarze sprawiedliwości przysłuży się sprawiedliwości właśnie?
W przypadku automatycznych systemów nie możemy i wręcz nie powinniśmy nigdy mieć pewności, że faktycznie zapewniają one większą efektywność, transparentność czy obiektywność. W naszym najnowszym raporcie piszemy m.in. o dużym znaczeniu rzetelnej oceny skutków wdrażania takich systemów. Ponieważ są to technologie nowe, instytucje – szczególnie tak ważne jak system sądownictwa – nie mogą im ślepo ufać. Obywatele z kolei powinni mieć dostęp do przejrzystych danych o założeniach przyjmowanych przez algorytmy oraz wiedzy na temat sposobu ich działania. Kluczowa jest także możliwość weryfikacji wyników i odwołania się od podjętej przez system decyzji. Z tego właśnie powodu w raporcie piszemy o rencie zapóźnienia, z której Polska może skorzystać. Niewielka liczba wdrożonych w Polsce dotychczas systemów ADM może być wykorzystana do zapewnienia większej i bardziej świadomej kontroli społecznej nad wpływem technologii. Ucząc się na błędach popełnianych przez innych, możemy stworzyć systemy przejrzyste, działające w sposób odpowiedzialny i budujące zaufanie. W tym celu potrzebujemy jednak instytucji w pełni świadomych wyzwań związanych z algorytmicznym podejmowaniem decyzji, w tym również trzeźwo patrzących i weryfikujących wdrożenia w obszarze sądownictwa.
Porozmawiajmy o orzekaniu. Istnieje dyskrecjonalna władza sędziego, czyli krótko mówiąc, aspekt ludzki przy podejmowaniu decyzji o wymiarze kary, wynikający np. z wiedzy i doświadczenia życiowego sędziego. ADM musiałby ją wyeliminować. To dobrze czy źle? Czy możliwa jest „sprawiedliwość z automatu”?
Noblista Daniel Kahneman przeprowadził badania, w których udowodnił, że orzeczenie w podobnych sprawach może być bardzo różne. Jednym z istotnych czynników wpływających na ostateczną decyzję sędziego jest zmęczenie, czas od ostatniej przerwy. Dlatego też systemy ADM w przyszłości mogą okazać się bardziej sprawiedliwe. Jednak aby tak się stało, musimy podołać wielu wyzwaniom. Największym z nich jest skrzywienie wyników i brak przejrzystości tych algorytmów. Pokutuje obiegowa opinia, że systemy automatycznego podejmowania decyzji są „czarnymi skrzynkami” – że nie da się zajrzeć do ich wnętrza, zrozumieć sposobu ich działania. Takie twierdzenie jednak mija się z prawdą, realizowane od kilku lat międzynarodowe projekty zmierzają do określenia standardów tzw. wyjaśnialności algorytmów. Od podstawowych informacji – takich jak źródło danych, na których system opiera swoją decyzję – do kwestii bardziej złożonych, czyli np. opisania procesu podjęcia decyzji i czynników, które system wziął pod uwagę. Co ciekawe, rozporządzenie RODO, które większości kojarzy się głównie z ochroną danych osobowych, wprowadziło także wymóg wyjaśniania decyzji, jeśli te zostały podjęte automatycznie, bez udziału człowieka. W zeszłym roku Fundacja Panoptykon wywalczyła też ważną zmianę w przepisach bankowych, która otwiera furtkę dla wyjaśnialności podejmowanych automatycznie decyzji kredytowych.
A co z dyskrecjonalną władzą sędziego?
Proponuję zadać sobie pytanie, czy nie będziemy chcieli zachować czynnika ludzkiego, nawet jeśli algorytmy zwiększą obiektywność sądownictwa. Wiele dyskusji o automatyzacji wskazuje na znaczenie jego utrzymania w procesie podejmowania decyzji. To może wynikać ze zwykłego humanizmu – czyli potrzeby ludzi, by o ich losie decydowali inni ludzie. Życie w świecie, w którym wszystkie systemy są automatyczne, może być bardzo zdehumanizowane i sztuczne. Na pewno będziemy potrzebować ludzi, żeby np. prowadzić procedury odwoławcze. Wtedy ta ścieżka może być zagwarantowana w różnych modelach, obejmujących nie tylko drogę sądową czy administracyjną, lecz także mediacje czy alternatywne metody rozwiązywania sporów. Brytyjska organizacja Doteveryone.uk proponuje, by zapewnienie możliwości odwołania się było podstawowym zadaniem nowego rodzaju regulatora, dbającego o odpowiedzialne wykorzystanie systemów ADM, w tym także w sądownictwie.
Jakie są elementy ryzyka, a jakie korzyści z wprowadzenia ADM do wymiaru sprawiedliwości? Co przeważy?
Wielką szansą jest stworzenie rozwiązań bardziej wydajnych, pozwalających zapanować nad bolączkami wymiaru sprawiedliwości, czyli np. osądzające w prostych sprawach, które de facto „zatykają” system sądownictwa. Z kolei jeśli będziemy umieli zagwarantować odpowiednie działanie tych systemów, istnieje duża szansa, że będą one podejmować bardziej obiektywne i racjonalne decyzje. Jest jednak prawdą, że na razie widać więcej ryzyk niż szans, a jakość rozwiązań systemów ADM jest często bardzo niska i nie podlega odpowiedniej, niezależnej kontroli. Zapobieganie tym ryzykom jest szczególnie istotne w administracji publicznej. W Polsce na tę kwestię uwagę zwraca także Fundacja ePaństwo w raporcie „AlGOVrytmy”.
Bardzo ważne jest również prowadzenie oceny skutków wdrożeń algorytmicznego podejmowania decyzji, co postuluje amerykańska fundacja AI NOW. Z kolei w Wielkiej Brytanii we wrześniu tego roku rozpoczęto konsultacje wymogów, które należy stosować w procedurach przetargowych na systemy ADM dla administracji publicznej. Istotne będą również odpowiednie procedury audytu oraz istnienie organizacji władnych taki audyt przeprowadzić. Ostatnią kwestią, której nie można pominąć w rozważaniach nad społecznym wymiarem technologii, jest edukacja. Osoby decydujące o nowoczesnych wdrożeniach, a następnie pracujące z systemami ADM, muszą być w pełni świadome szans i zagrożeń, a także rozumieć podstawy działania algorytmów. Od tych czynników zależy, czy systemy te będą wykorzystywane odpowiedzialnie i czy faktycznie będą służyć dobru społeczeństwa.