statystyki

Sprawiedliwość z algorytmu? Tarkowski: Na pewno będziemy potrzebować ludzi, żeby prowadzić procedury odwoławcze

autor: Maciej Weryński12.01.2020, 20:00
dr Alek Tarkowski, prezes fundacji Centrum Cyfrowe, współautor raportu „AlgoPolska. Zautomatyzowane podejmowanie decyzji w służbie społeczeństwu”

fot. Materiały Prasowe

dr Alek Tarkowski, prezes fundacji Centrum Cyfrowe, współautor raportu „AlgoPolska. Zautomatyzowane podejmowanie decyzji w służbie społeczeństwu” fot. Materiały Prasoweźródło: DGP

Życie w świecie, w którym wszystkie systemy są automatyczne, może być bardzo zdehumanizowane i sztuczne. Na pewno będziemy potrzebować ludzi, żeby np. prowadzić procedury odwoławcze - mówi dr Alek Tarkowski, prezes fundacji Centrum Cyfrowe, współautor raportu „AlgoPolska. Zautomatyzowane podejmowanie decyzji w służbie społeczeństwu”

Czy zautomatyzowane podejmowanie decyzji (ADM) rzeczywiście może zapobiegać przestępstwom i czy np. śledzenie danych z mediów społecznościowych albo typowanie potencjalnych przestępców na podstawie historycznych danych statystycznych nie jest ograniczeniem praw człowieka?

Zapobieganie przestępczości jest „najgorętszym” obszarem, w którym wykorzystuje się systemy ADM i szerzej – analizę danych. Dziesięć lat temu, gdy miasta zaczęły się otwierać i udostępniać dane publiczne, w pierwszej kolejności wszyscy chcieli się dowiedzieć, które miejsca są niebezpieczne i gdzie konkretnie najczęściej dochodzi do popełnienia przestępstw. Sposób działania tych systemów bardzo szybko okazał się jednak dość kontrowersyjnym przedsięwzięciem, gdyż bardzo łatwo stygmatyzuje pojedyncze osoby, a także całe społeczności czy okolice.

Ponadto delegowanie kompetencji organów ścigania w ręce sztucznej inteligencji niesie ze sobą duże ryzyko ograniczenia praw i wolności jednostek. Jednym z głównych problemów jest jakość danych, którymi „karmi się” algorytm. Mówi się tutaj często o tzw. dirty data – brudnych danych. Ich wielkie zbiory pozyskiwane w sposób niechlujny lub nieodpowiedzialny mogą być wykorzystywane do podejmowania decyzji, które nieraz potrafią zaburzyć normalne funkcjonowanie ludzi, których dotyczą. Zapewne jednym z najbardziej niesławnych systemów automatycznego podejmowania decyzji w prewencji kryminalnej jest opracowany przez firmę Equivant system COMPAS służący do przewidywania ryzyka recydywizmu wśród przestępców. Dziennikarka dochodzeniowa Julia Angwin wykazała, że system ten jest wręcz rasistowski – zawyża ocenę ryzyka popełnienia przestępstwa przez osoby czarnoskóre, a zaniża u białych. Niestety nie wiemy, czy jest to wynik wadliwych danych czy źle skonstruowanego algorytmu, bo system jest zastrzeżony przez prywatną firmę. COMPAS jest zresztą pokazywany jako kluczowy dowód na to, że algorytmy podejmujące decyzje, które mają wpływ na prawa i wolności obywateli, muszą być przejrzyste i podlegać kontroli. Jednak pomimo wszystkich krytycznych głosów system jest nadal stosowany w niektórych stanach USA.


Pozostało jeszcze 73% treści

Czytaj wszystkie artykuły na gazetaprawna.pl oraz w e-wydaniu DGP
Zapłać 97,90 zł Kup abonamentna miesiąc
Mam kod promocyjny
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy INFOR Biznes. Kup licencję

Polecane

Reklama

Komentarze (1)

  • C++ nienawiści?(2020-01-13 05:06) Zgłoś naruszenie 10

    System jest rasistowski i sieje mowę nienawiści :))))))), bo głvpi system nie wie, że poprawnie politycznie całą winę powinien zwalić na białych mężczyzn wyznania katolickiego.

    Odpowiedz

Twój komentarz

Zanim dodasz komentarz - zapoznaj się z zasadami komentowania artykułów.

Widzisz naruszenie regulaminu? Zgłoś je!

Galerie

Polecane