Rozmowa z r. pr. Mirosławem Wróblewskim, przewodniczącym Komisji Praw Człowieka Krajowej Rady Radców Prawnych.
Mirosław Wróblewski – radca prawny, przewodniczący Komisji Praw Człowieka KRRP. Od 2019 r. członek zarządu Europejskiej Sieci Krajowych Organów Ochrony Praw Człowieka (ENNHRI). Specjalizuje się w prawie europejskim, prawie ochrony danych osobowych i niektórych aspektach prawa nowych technologii. Autor bądź redaktor ponad 80 prawniczych publikacji naukowych.
Jest członkiem założycielem Rady Naukowej Wirtualnej Katedry Prawa i Etyki zajmującej się rozwojem sztucznej inteligencji. Należy też m.in. do autorów opinii dotyczącej projektu Aktu o sztucznej inteligencji Unii Europejskiej przygotowanej przez Fundację AI LAW TECH dla Parlamentu Europejskiego.
Zacznijmy od czerwcowej dyskusji w Białymstoku o problemach sztucznej inteligencji. Czy sztuczna inteligencja może ograniczyć prawa obywatelskie?
Po tym, jak szybko sztuczna inteligencja wkracza w różne dziedziny naszego życia, widać, że jej wpływ na prawa człowieka jest istotny i rzeczywiście może dochodzić do naruszeń. One mają różny wymiar, bo to jest kwestia m.in. wkraczania w prawo do prywatności i możliwość wywoływania pewnych skutków dyskryminacyjnych w odniesieniu do jednostki.
Ze względu na szeroki zakres zastosowań algorytmów jest to bardzo liczna grupa zagadnień i stąd działania regulacyjne podejmowane na forum Unii Europejskiej, żeby tym najbardziej szkodliwym aspektom funkcjonowania sztucznej inteligencji przeciwdziałać, jednocześnie nie ograniczając rozwoju tej technologii, która przecież ma wiele bardzo pozytywnych zastosowań i otwiera nowe możliwości.
Sztuczna inteligencja chyba jest jednym z poważniejszych wyzwań, które prawnicy muszą brać pod uwagę w swoich działaniach. Ona się pojawia nie tylko wraz z legislacją, ale i obsługą klientów, ich ochroną przed negatywnymi skutkami jej działań.
Czy mamy już przypadki negatywnych skutków wykorzystania sztucznej inteligencji?
Każdy, kto korzysta z Internetu, podlega takim działaniom. Cała sfera związana z mikrotargetowaniem, z reklamą behawioralną, czyli to, co jest nam przez handel oferowane, bardzo często wynika z profilowania poszczególnych osób i ich zachowań przy pomocy algorytmów.
To również kwestia wpływu na prywatność i związek z przetwarzaniem danych osobowych. W mniejszym stopniu są to działania ze strony państwa, chociaż inwigilacja przy pomocy nowoczesnej technologii jest także czymś, co stało się codziennością. Natomiast nie mamy na szczęście do czynienia z takimi mechanizmami, jak w Chinach – gdzie wprowadzono publiczny system scoringu społecznego oparty na analizie zachowań społecznych, a przez to dochodzi do ingerencji państwa w prawa obywatelskie, czy też jak w wielu krajach zachodnich, gdzie stosowane są algorytmy i analiza behawioralna do profilowania osób, które należy poddać kontroli policyjnej czy lotniskowej. A to w konkretnych przypadkach może skutkować dyskryminacją osób fizycznych.
Systemy zautomatyzowane lub inteligentne są wykorzystywane np. w monitoringu wizyjnym, więc chodząc po ulicach, niekoniecznie zdajemy sobie sprawę, gdzie te algorytmy są aplikowane. I dlatego też nie zauważamy naruszeń. Tymczasem mogą one wystąpić w różnych sytuacjach, na przykład w procesach rekrutacyjnych w firmach, gdzie źle dobrana bądź nieprzetestowana baza danych może być przyczyną nie tylko replikowania błędów przez algorytm, lecz także może prowadzić do pogłębienia dyskryminacji, np. uprzywilejowując niekoniecznie osoby o najwyższych umiejętnościach. Podawane przeze mnie przykłady wynikają z dotychczasowych doświadczeń w tym zakresie.