Rodzimy Instytut Transportu Samochodowego bierze udział w projekcie „aDrive”, realizowanym w ramach Narodowego Centrum Badań i Rozwoju. Ma on przyspieszyć certyfikację pojazdów prowadzonych wyłącznie przez sztuczną inteligencję (SI). Zmiany prawne w tym zakresie są też dyskutowane przez segment Europejskiej Komisji Gospodarczej (UNECE) zajmujący się transportem lądowym. Auta z SI są już testowane w USA i Japonii, a pod koniec 2016 r. zagoszczą w Wielkiej Brytanii. Nad swoimi wersjami pracują też największe koncerny motoryzacyjne. Wkrótce producenci mogą jednak uderzyć w ścianę ze swoimi pomysłami – bo brakuje odpowiednich przepisów.

Lawina problemów

Prof. Dariusz Szostek z kancelarii Szostek-Bar i Partnerzy uważa, że wprowadzenie samochodów z SI do powszechnego użycia może wywołać lawinę kwestii prawnych.

– Pojawi się problem niejednolitych przepisów różnych państw, prawa publicznego w zakresie poruszania się pojazdów, prawa konsumenckiego, prawa autorskiego i jego terytorialnego zastosowania odnośnie do oprogramowania systemu, ochrony danych osobowych (wszak pojazd wysyłałby wiele informacji) oraz inwigilacji systemów określających miejsce położenia pojazdu – wylicza prof. Szostek.

Wtóruje mu Tomasz Zalewski, radca prawny i partner w kancelarii Wierzbowski Eversheds.

– Niemożliwe jest stworzenie uniwersalnych ram prawnych dla wszystkich przypadków zastosowania SI, gdyż zawsze mogą wystąpić czynniki wpływające na zakres występujących sytuacji poddanych regulacjom prawnym – twierdzi Zalewski.

Przykład? Najbardziej paląca kwestia – co będzie, kiedy samochód z SI będzie miał wypadek? Dr Paweł Litwiński z Instytutu Allerhanda twierdzi, że kolizja spowodowana przez system może doprowadzić do natychmiastowego wycofania takiego oprogramowania z rynku – analogicznie do przemysłu lotniczego. Tam, jeżeli padnie choć cień podejrzenia, że podczas lotu zawinił autopilot – system jest natychmiast uziemiany decyzją odpowiednich organów. W ubiegłym roku w Polsce doszło do 32 701 wypadków samochodowych – trudno sobie wyobrazić, żeby drogie oprogramowanie promowane przez producentów było wycofywane natychmiast po chociaż jednym zdarzeniu. Eksperci wskazują, że kwestię wypadków mogłyby zatem regulować kodeks cywilny (k.c.) oraz karny (k.k.). Przykładowo, art. 436 k.c. stanowi, że za szkody wywołane przez ruch pojazdu odpowiedzialność cywilną ponosi jego posiadacz.

– Podczas korzystania z auta z SI użytkownik mógłby jednak bronić się, mówiąc, iż powierzył prowadzenie pojazdu profesjonalnemu zakładowi, który specjalizuje się w danej czynności: w przypadku samochodu Google właśnie tej firmie – mówi Arkadiusz Matusiak, adwokat, szef praktyki prawa karnego w kancelarii Bird & Bird.

Z tą opinią nie zgadza się jednak dr Paweł Litwiński. – Posiadanie to stan faktycznego władztwa nad rzeczą, jaką jest samochód – mówi.

Tłumaczy, że nawet jeśli komputer prowadzi auto, to ktoś wydaje mu polecenia, programując jazdę z punktu A do B. I to wciąż użytkownik ponosi odpowiedzialność za rzecz. Jeżeli zaś chodzi o odpowiedzialność karną, prawnicy są zgodni – sąd musiałby każdorazowo ustalać proporcję winy kierowcy oraz producenta. Gdyby jednak wypadek został spowodowany przez wady programu komputerowego, to jego producent mógłby odpowiadać karnie na mocy art. 18 k.k., który mówi o pomocnictwie do przestępstwa, albo jako tzw. współsprawca rozszerzony. Ale to nie wszystko. Sytuacja komplikuje się w przypadku, gdyby istniała możliwość ingerencji kierowcy w kierowanie autem lub samodzielnej aktualizacji systemu.

– W razie zaniechania czynności w obliczu niebezpieczeństwa odpowiadałby człowiek – twierdzi mec. Matusiak.

Właściciel mógłby być także skazany za świadome użytkowanie wadliwego lub przestarzałego oprogramowania, jeśli doprowadziło to do wypadku. To sytuacja analogiczna do jeżdżenia samochodem bez aktualnego przeglądu technicznego. Użytkownik takiego pojazdu mógłby ponosić odpowiedzialność na podstawie art. 96 kodeksu wykroczeń, a nawet za przestępstwo z art. 179 k.k. z powodu dopuszczenia do ruchu niebezpiecznego samochodu.

Kto kogo kontroluje

Już teraz w Polsce kontrowersje wywołuje system automatycznego parkowania, stosowany w niektórych modelach Audi, Mercedesa, Forda, Skody czy Toyoty. Samochód samodzielnie skręca koła do parkowania i rekomenduje kierowcy wciśnięcie pedału gazu lub hamulca. Nawet jeśli komputer źle określi odległość między samochodami i doprowadzi do kolizji, za szkodę odpowiada kierowca.

– To wciąż człowiek kontroluje maszynę, a nie ona jego – tłumaczy Tomasz Tonder, rzecznik prasowy Volkswagen Group Polska.

Podobnie rozwiązania takie jak tempomat, utrzymywanie pojazdu w pasie ruchu czy system antykolizyjny wspierają działania kierowcy, ale nie zwalniają go z odpowiedzialności za ewentualny wypadek.

– Prawdziwym wyzwaniem dla konsumenta będzie udowodnienie, że wypadek spowodowała wada systemu – uważa prof. Szostek.

Kwestie do rozstrzgnięcia

Kwestie do rozstrzgnięcia

źródło: Dziennik Gazeta Prawna

A przecież, jak każde oprogramowanie, także SI może nie działać prawidłowo. Autonomiczny pojazd Google ma już na koncie pierwszy w historii wypadek spowodowany przez komputer. Źle ocenił on zamiary przecinającego mu drogę autobusu, co doprowadziło do kolizji. Firma oświadczyła, że bierze na siebie tylko część odpowiedzialności. To pokazuje, że producenci mogą starać się odcinać od ewentualnych szkód i umieszczać w swoich umowach krzywdzące dla konsumentów klauzule wyłączeń odpowiedzialności. Co więcej, brak odpowiednich przepisów i zabezpieczeń systemów SI w autonomicznych samochodach, zamiast zwiększyć bezpieczeństwo, może spowodować wiele zagrożeń i nieprzewidywalnych sytuacji na drodze. Dlatego zdaniem prof. Szostka zagadnienie należy unormować co najmniej na poziomie europejskim. Zmiany w polskim prawie, gdzie ustawa – Prawo o ruchu drogowym (t.j. Dz.U. z 2012 r., poz. 1137 ze zm.) definiuje kierującego pojazdem jako osobę – a więc człowieka – mogą się okazać niewystarczające.

– Nie można wciąż udawać, że problemu nie ma, skoro samochody z SI już teraz pojawiają się na światowych drogach – podsumowuje prof. Szostek.