W cieniu AI Act, czyli przepisy o odpowiedzialności za błędy AI

0

W naszym otoczeniu świadomość istnienia przepisów regulujących tematykę sztucznej inteligencji nie wydaje się duża. Jeśli już jest, to głównie w kontekście znajomości pojęcia – niekoniecznie treści – AI Act. Dziś jednak chciałbym zainteresować czytelnika regulacją często pomijaną.

Jest to tak zwana AILD – Artificial Intelligence Liability Directive – dyrektywa w sprawie odpowiedzialności za błędy sztucznej inteligencji. Mniej znane rodzeństwo popularniejszego AI Act jest z nim nieraz bardzo związane, ale dotyczy innych obszarów. I może w praktyce radcy prawnego nawet nieraz istotniejszych.

Geneza

W czym problem? W samej podstawie – czyli fakcie, że AI nie jest człowiekiem. Jako „nieczłowiek” nie ma też osobowości prawnej i trudno oczekiwać ponoszenia przez nią samodzielnie winy za ewentualne związane z jej wykorzystaniem przez nas szkody.

Zapewne dałoby się taką winę, odpowiedzialność i szkodę wydobyć z przepisów już istniejących. Na myśl przychodzić mogą przykładowo przepisy z zakresu produktów niebezpiecznych – sam doskonale pamiętam analizy w rodzaju „czy produktem niebezpiecznym jest energia” lub „czy produktem niebezpiecznym jest zwierzę” wertowane podczas tworzenia mojej pracy magisterskiej. Z ogromnym prawdopodobieństwem dałoby się wysnuć zbliżone także i o sztucznej inteligencji – nie będzie zapewne takiej potrzeby, ponieważ w tym zakresie wyręczy nas Unia Europejska.

Odpowiedzialność

Kto – jeśli nie maszyna – będzie odpowiadać za błędne decyzje AI? Przecież z czasem będziemy oddawać jej coraz większą decyzyjność łącznie z zakresem naszego zdrowia i życia. Wypadki czy wypaczenia zdają się nieuniknione.

W kontekście dyrektywy AILD warto zacząć w pewnym sensie od informacji, jakiego rodzaju odpowiedzialności ta regulacja nie dotyczy. Przede wszystkim – karnej. Jej istotą jest wypracowanie (i jak wskażę dalej – związanie z AI Act) postępowania na drodze cywilnej, choć nie każdej.

Dyrektywa nie jest stosowana do między innymi warstwy przepisów krajowych dotyczących rozłożenia ciężaru dowodu w sprawach innych niż te objęte przepisami dyrektyw czy przypadków zwolnienia z odpowiedzialności w zakresie należytej staranności w akcie o usługach cyfrowych (usługi pośrednie typu caching, hosting i mere conduit). Wyłączamy również przepisy unijne regulujące branżę transportową czy prawa osób poszkodowanych z tytułu szkody wyrządzonej przez produkty wadliwe.

Roszczenie

Wróćmy do momentu, gdy wspomniałem o powiązaniu dyrektywy z AI Act – sprowadza się do m.in. weryfikowania, czy projektujący system zawierający sztuczną inteligencję wdrożył wynikające z AI Act wymagania zasadnicze. Przykładem może być umieszczony w art. 13 obowiązek zachowania transparentności – opracowywanie czy projektowanie systemów sztucznej inteligencji wysokiego ryzyka w sposób zapewniający nam jako użytkownikom interpretację wyników działania, ich właściwe wykorzystanie czy przejrzystość działania.

Systemy wysokiego ryzyka? Dla części czytelników również ten fragment mógł zabrzmieć znajomo i absolutnie nie jest to przypadek. Tutaj także mamy do czynienia ze splątaniem dyrektywy AILD z AI Act – dokładniej ujmując z art. 6 tego rozporządzenia. Na ten moment to przykładowo obszary infrastruktury krytycznej czy biometria, ale to się może płynnie zmieniać. Kluczowe jednak jest to, że tego rodzaju narzędzia – a właściwie ich dostawcy – mają większe wymagania procesowe. W sposób lustrzany z kolei użytkownik ma w tych okolicznościach więcej ułatwień.

Strony sporu

No właśnie – bo choć mogłoby się to wydawać intuicyjne, czas napisać to wprost. Podmiotem ponoszącym odpowiedzialność za AI, podmiotem będącym stroną procesów cywilnych inicjowanych w związku z jej błędami, podmiotem mającym w niektórych okolicznościach trudniejszą sytuację procesową będzie dostawca oprogramowania zawierającego sztuczną inteligencję.

Niejako na marginesie warto w tym miejscu zasygnalizować interesujące dla naszej branży tematy umów odnośnie do tworzenia programów tego rodzaju. Próby dzielenia się odpowiedzialnością, kary umowne, regresy, podwykonawcy, ubezpieczenia – to tylko przykładowe przychodzące na myśl hasła, gdy zaczniemy popuszczać wodze prawniczego szukania ryzyk i sposobów ich łatania.

Po drugiej stronie będzie oczywiście ktoś, kto błędem AI czuje się pokrzywdzony. Idąc w skrajny przykład – pacjent, któremu rozpoznanie i leczenie przez narzędzie sztucznej inteligencji zaszkodziło i trwale zniszczyło zdrowie. AILD ułatwi mu zarówno wykazanie jej „zawinienia”, jak i ustalenie odpowiedzialnego i dalsze kroki procesowe.

Cel

Już pierwsze przepisy projektowanej dyrektywy określają go dość jasno – to ustanowienie wspólnych unijnych przepisów w dwóch zakresach. Pierwszym jest ujawnianie dowodów przy systemach wysokiego ryzyka – aby umożliwić powodowi uzasadnienie roszczenia odszkodowawczego (opartego na zasadzie winy). Drugie ujednolicenie na skalę UE to kwestia ciężaru dowodu z tytułu szkód.

Szkody mogą powstać zarówno przez uzyskanie wyniku od AI, jak i właśnie wręcz przeciwnie – nieuzyskanie go tam, gdzie mogliśmy tego oczekiwać. Potencjalny powód może wystąpić do sądu krajowego o zobowiązanie pozwanego do ujawnienia dowodów dotyczących systemu sztucznej inteligencji. Warunkiem skorzystania z tego prawa jest uprawdopodobnienie istnienia potencjalnego roszczenia o odszkodowanie i podjęcie próby samodzielnego uzyskania dowodów, zapewne zakończone odmową.

Co ważne – można także zabezpieczać sądownie dowody, a więc zapobiegać modyfikowaniu algorytmu przez pozwanego dla swoich korzyści (usunięcie błędu, „zapomnienie” wypadku itp.). Warto od razu zwrócić uwagę na miejsce z „robotą dla prawników”: mamy starcie tego przepisu z tajemnicą przedsiębiorstwa i będziemy je prędzej czy później przechodzić w praktyce.

Domniemanie i podsumowanie

To nie wszystko – choć jest to temat na odrębną analizę, warto choć zasygnalizować wątek nie dla wszystkich wygodnego domniemania. Dla kogo nie? Ponownie – dla twórców systemów opartych na AI, zwłaszcza tych wysokiego ryzyka.

Upraszczając i pomijając część scenariuszy – domniemywamy związek między winą pozwanego a wynikiem uzyskanym przez system. To dostawca będzie musiał wykazać, że nie ponosi odpowiedzialności za szkodę.

Już choćby powyższe stwierdzenia wskazują, że AILD wymaga zainteresowania ze strony radców prawnych. Zaryzykuję, że przez przynajmniej część z nas nawet większego niż „kradnący” mu rozpoznawalność medialną AI Act. Odpowiedzialność, domniemania, regresy, treści umów czy po prostu kwestie procesowe tylko czekają na przetarcie szlaków. Zachęcam, by ten artykuł był pierwszym krokiem do głębszego zapoznania się z tematem jak najszybciej.

TOMASZ PALAK
radca prawny, prelegent, autor artykułów na www.tomaszpalak.pl i w prasie, wykładowca WSB, WSAiB, WSEI i UTH