Ajajaj AI, CZYLI JAK REGULUJEMY PRAWNIE SZTUCZNĄ INTELIGENCJĘ

0

Tego tekstu nie napisała sztuczna inteligencja – tylko ja, radca prawny Tomasz Palak. Ale gdybym jednak kłamał? Jeśli teraz twierdzę, że AI nie ruszyła przy tekście swoim wirtualnym palcem i nie mówię prawdy – jak wygląda moja odpowiedzialność?

Póki co trudno powiedzieć. Między innymi dlatego pojawia się potrzeba prawnej regulacji tematu sztucznej inteligencji – w naszym kontekście najbardziej interesujący będzie tak zwany AI Act. Dlaczego? Po pierwsze w pewien sposób w tym kontekście przeciera szlaki. A po drugie to potencjalny akt prawny Unii Europejskiej, więc dotyczyć będzie nas jako Polaków.

Otoczenie

16 maja amerykański senator Dick Rubin trafnie powiedział, że politycy przy rozwoju Internetu i social mediów działali powolnie i niewystarczająco. Mówił to w kontekście wyrażenia nadziei, że przy rozwoju sztucznej inteligencji ten błąd nie zostanie ponowiony. Ponadto zauważył, że nie przypomina sobie wcześniejszej sytuacji oddolnego domagania się przez sektor prywatny bycia uregulowanym.

A to właśnie się stało podczas zebrania senatorów. Bo wypowiedź ta miała miejsce przy okazji zeznawania przed nimi Sama Altmana, czyli szefa Open AI – odpowiedzialnego między innymi za błyskawicznie zyskujący na popularności ChatGPT. Dla kontekstu – narzędzie to osiągnęło milion użytkowników w pięć dni, gdy Netflixowi zajęło to mniej więcej trzy i pół roku.

A jednak Sam Altman rozsądnie wskazał potencjalne ryzyka wynikające z AI. Prosząc o regulacje prawne, zrzuca z siebie część odpowiedzialności. A jednak w Unii Europejskiej może być do takich regulacji bliżej niż w USA.

AI Act – stan prac i idea

Prace nad dokumentem znanym w mediach pod tą nazwą trwają już od dawna, ale z powodu znacznie zwiększonej popularności tematu sztucznej inteligencji również i one w ostatnich miesiącach zyskały na widoczności i intensywności. 11 maja przeszliśmy przez kolejny ich etap – poprawki do dokumentu przyjęły Komisja Rynku Wewnętrznego i Ochrony Konsumentów i Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych Parlamentu Europejskiego. Projekt został przyjęty (84 głosy za, 7 przeciw, 12 wstrzymanych).

Dalszym krokiem jest zatwierdzenie przez Parlament Europejski oraz rozpoczęcie konsultacji z Radą Europejską w kwestii jego ostatecznego kształtu. Mówi się o obowiązywaniu już w tym roku, choć prywatnie w tej akurat kwestii nie jestem aż takim optymistą.

Idea AI Act to nie tyle wtrącenie się w technikalia tworzenia sztucznej inteligencji czy przykładowo prawa autorskie do jej wytworów, ile bardziej dbanie o człowieka w relacji z jej efektami. Słynna była bowiem przykładowo konieczność interwencji twórców generatora obrazów Midjourney wobec prób tworzenia z jego pomocą pornografii dziecięcej i zgłoszenia do organów ścigania – niewynikająca przecież z regulacji AI (której brak), lecz z ich wewnętrznej etyki. Albo deklaracje sztucznej inteligencji, że torturowanie ludzi jest w porządku – o ile są mieszkańcami Korei Północnej.

AI Act – co zawiera

Podawany jest też przykład myślenia AI na zasadzie, „jeśli moim zadaniem jest usunąć brud, to najbardziej efektywne będzie usunięcie ludzi – przecież to oni ciągle brudzą”. Co na to regulacja? Oczekuje przede wszystkim, by sztuczna inteligencja była bezpieczna i przejrzysta, zawsze identyfikowalna i nadzorowana przez ludzi – a w dodatku niedyskryminacyjna i przyjazna dla środowiska. Naturalnie część z tych rzeczy powinna nam się wydawać oczywista i bez regulacji – ale z drugiej strony… jeśli ich w tej wyliczance zabraknie, to na co się powoływać?

Spodziewać się możemy także powstania specjalnych organów chroniących obywateli UE przed AI. Osoba uznająca się za pokrzywdzoną będzie mogła do nich wnosić skargę zwłaszcza przy ryzyku negatywnego wpływu na bezpieczeństwo, demokrację lub środowisko.

Oczywiście dla nas najbardziej interesujące w obecnym kształcie regulacji są zakazy. Przydadzą się bowiem nam jako prawnikom podmiotów tworzących rozwiązania oparte na sztucznej inteligencji, jak i reprezentującym ewentualnych pokrzywdzonych ich łamaniem. Co zatem będzie zakazane? Po pierwsze – aspekty z okolic biometrii. Zarówno identyfikacja osób w czasie rzeczywistym w miejscach dostępnych publicznie, jak i następcza – w tym drugim przypadku z wyjątkiem przypadków najpoważniejszych przestępstw i pod warunkiem uzyskania zgody sądu. Niedopuszczalna będzie także kategoryzacja osób na podstawie wrażliwych cech takich jak płeć, rasa, pochodzenie etniczne, narodowość, obywatelstwo, wyznanie, poglądy polityczne. W uproszczeniu to, o czym wielu z nas słyszało w kontekście oceniania Chińczyków przez władze.

Słyszeliśmy może również o filmie „Raport mniejszości”, w którym mieliśmy do czynienia z predykcją kryminalną – przewidywaniem tego, że nastąpi przestępstwo. Analogicznie zakazane będą w AI Act systemy umożliwiające profilowanie potencjalnych sprawców przestępstw na podstawie danych geolokalizacyjnych czy o zachowaniach i cechach tych osób. A także systemy rozpoznawania emocji używane nie tylko w celu zwalczania przestępczości, lecz także w szkolnictwie czy pracy. Źle widziane jest również bezkrytyczne pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy (naruszając prawa człowieka i prawo do prywatności).

Ryzyka i postulaty

Warto tu przytoczyć ocenę Fundacji Panoptykon, która wskazuje dalsze warte uwzględnienia przez europosłów i europosłanki warstwy problemu prawa w AI. Są to: kwalifikowanie AI jako systemu wysokiego ryzyka niezależnie od ryzyka znaczącej szkody, obejmowanie regulacjami AI również bezpieczeństwa publicznego, prawo uzyskania wyjaśnień także decyzji AI „zamieszanym” w nie udziałem człowieka oraz możliwość reprezentowania pokrzywdzonych przez AI przez organizacje społeczne.

Naturalnie ryzykiem wciąż pozostają prawa autorskie. Część narzędzi zaczyna oddolnie umożliwiać artystom opt-out, czyli niebycie skutecznie wpisywanymi w tak zwany prompt. Przykładowo skorzystał z tego Greg Rutkowski – wpisanie polecenia w rodzaju flying bird by greg rutkowski nie odniesie już spodziewanego i popularnego swego czasu efektu. Póki co jednak sprawia to wrażenie dobrej woli twórców narzędzi – a czy powinno nią być? I czy powinno opierać się na prawie odmowy, a nie wyraźnej zgodzie?

Podsumowanie

Właśnie z powodu powyższych ryzyk i wątpliwości AI Act często przedstawiany jest pod hasłem prawnej regulacji „etycznego rozwoju” sztucznej inteligencji. Nie mamy póki co analogicznych rozwiązań w USA czy – i tu już bez „póki co”, bo może wręcz nigdy – w Chinach. Unijny projekt promuje również sandboxy czy środowiska kontrolowane, tworzone przez władze publiczne, które testują AI przed wdrożeniem – tylko czy nie zostaniemy zdominowani i wyprzedzeni przez tych, którzy nie tracą czasu na kontrolowanie i testowanie?