Nastolatek włamujący się do komputera Pentagonu kontrolującego amerykański arsenał nuklearny, myśląc że ma do czynienia ze zwykłą grą i świat na krawędzi atomowego konfliktu. To w bardzo dużym skrócie opis jednej z popularnych produkcji amerykańskich z lat osiemdziesiątych – „Gry Wojenne”. Wszystko kończy się dobrze, bo główny bohater zaczyna uczyć komputer prostej prawdy – że są gry w których wygrać się nie da (o ile druga strona nie popełni błędu) – grając z nim w kółko i krzyżyk. Komputer dochodzi do wniosku, że konflikt nuklearny jest bez sensu bo i tak nikt nie wygra i przerywa sekwencję odliczania pocisków rakietowych. W sumie wszystko kończy się dobrze bo sztuczna inteligencja zadziałała prawidłowo. Znamy jednak także inne produkcje Hollywood, w których komputerowe gwiazdy były zdecydowanie mniej podatne na perswazję żeby wymienić chociażby komputer HAL z Odysei 2001 czy też Skylab z Terminatora.

Po kilku latach bardzo intensywnych dyskusji, Unia Europejska pisze własny scenariusz rozwoju prac nad sztuczną inteligencją. Filmu z tego raczej nie będzie, ale kontrowersji z pewnością nie zabraknie. Czy można bowiem uregulować obszar, który w dużej mierze wymyka się racjonalnym przewidywaniom?

Z czym do sztucznej inteligencji

Już od dawna wiadomo, że mózg ludzki, przy obecnym rozwoju technologii, jest skazany na przegraną jeśli porównać go do maszyny. Biologiczne neurony działają z maksymalna prędkością 200 Hz, czyli siedem rzędów wielkości wolniej niż współczesne mikroprocesory. Aksony – czyli element neuronu odpowiedzialny za przekazywanie informacji, przenoszą potencjały czynnościowe z prędkością mniej więcej 120 m/s. Rdzenie procesów korzystające z łączy optycznych mogą to robić z prędkością światła (300 000 000 m/s).

Biologiczny mózg, biorąc pod uwagę opóźnienia w komunikacji zwrotnej, nie może być większy niż 011 m3. System elektroniczny można rozbudować do wielkości 61×1017 m3 (różnica osiemnastu rzędów wielkości). Jeżeli przyjąć jeden z szacunków, mózg dorosłego człowieka przechowuje około miliarda bitów – kilka rzędów wielkości mniej niż nasze smartphony.

Póki co jednak te słabości sprzętowe udawało się nadrabiać oprogramowaniem wykształconym przez miliony lat ewolucji. Ale i ta przewaga dobiega swojego końca.

Narodziny sztucznej inteligencji

Termin „sztuczna inteligencja” został ukuty przez Johna McCarthy młodego profesora matematyki z Uniwersytetu w Dartmouth w roku 1955 a już kilka lat potem, jak grzyby po deszczu powstawać zaczęły kolejne projekty poświęcone temu zagadnieniu na MIT (projekt MAC), Berkeley (projekt Genie, University of South California. Prace te jednak nie miały odpowiedniego wsparcia w ówczesnej technologii. Jeden z pierwszy, komercyjnie dostępnych komputerów IBM 650 w 1994 roku kosztował pół miliona dolarów, wyposażony był w pamięć pozwalającą na zapamiętanie 2 tysięcy dziesięcioliterowych słów i ważył 900 kilogramów.

Ponowny rozkwit tematyki sztucznej inteligencji to przełom wieków. Wykładniczy wzrost możliwości obliczeniowych przy jednoczesnym spadku ceny komputerów oraz dostępności olbrzymich rezerwuarów danych, zmieniły warunki gry.
Nowe rozwiązania w dziedzinie matematyki i statystyki doprowadziły najpierw do kolejnych przełomów w zakresie uczenia maszynowego (machine learning), a następnie, w połowie pierwszej dekady XXI wieku do przełomów w zakresie budowy sieci neuronowych i zastosowania tzw. głębokiego myślenia (ang. deep learning).

Przegrana ówczesnego mistrza świata w szachach Garriego Kasparova, z komputerem IBM Deep Blue w roku 1996 była jeszcze pokazem brutalnej przewagi siły obliczeniowej połączonej z programowaniem algorytmicznym. Kiedy jednak po kolejnych dwóch dekadach program Alpha Go pokonał mistrza świata w GO, mieliśmy już do czynienia nie tylko ze sztuczną, ale jak podkreślali niektórzy komentatorzy – niemalże z obcą inteligencją. Niektóre posunięcia wykonywane przez Alpha Go w niczym nie przypominały bowiem posunięć, których oprogramowanie mogłoby się „nauczyć” od ludzi.

Zachwyty jakie wzbudziły wykonywane przez Apha Go ruchy przemieszane były z nieśmiałym jeszcze wówczas pytaniem, czy jesteśmy w stanie zapanować nad tym co właśnie stworzyliśmy.

Pierwsze kroki w nieznane

W maju 2019 roku, 42 kraje zrzeszone w OECD przyjęły nowe zasady odnośnie sztucznej inteligencji. Zgodnie z tymi zasadami systemy SI powinny być zaprojektowane tak, by uwzględniać praworządność, prawa człowieka, wartości demokratyczne i różnorodność. Powinny też obejmować odpowiednie zabezpieczenia – na przykład umożliwiające ludzką interwencję tam, gdzie jest to konieczne. Należy także zapewnić przejrzystość i odpowiedzialne ujawnianie informacji na temat systemów SI, aby upewnić się, że ludzie wiedzą, kiedy z nich korzystają i mogą kwestionować wyniki ich pracy.

Systemy sztucznej inteligencji powinny funkcjonować w solidny, bezpieczny i zaufany sposób przez cały okres ich życia, a potencjalne zagrożenia powinny być stale oceniane i pozostawać pod kontrolą.

Co jednak najważniejsze, organizacje i osoby rozwijające, wdrażające lub obsługujące systemy sztucznej inteligencji powinny być pociągane do odpowiedzialności za ich prawidłowe funkcjonowanie zgodnie z powyższymi zasadami.

Mniej więcej w tym samym czasie, 52 ekspertów powołanych przez Komisję Europejską opracowało dokument poświęcony etycznym uwarunkowaniom sztucznej inteligencji. Sztuczna inteligencja winna być godna zaufania, co oznacza, że powinna funkcjonować zgodnie z prawem, tj. zapewniać poszanowanie wszystkich obowiązujących przepisów ustawowych i wykonawczych. Ponadto powinna być etyczna, zapewniając zgodność z zasadami i wartościami etycznymi oraz być solidna zarówno z technicznego, jak i ze społecznego punktu widzenia, ponieważ systemy SI mogą wywoływać niezamierzone szkody nawet wówczas, gdy korzysta się z nich w dobrej wierze.

Przechodząc do wartości etycznych, autorzy opracowania, wskazali na cztery główne zasady. Pierwszą z nich jest poszanowanie autonomii człowieka. Osoby wchodzące w interakcje z systemami SI muszą być w stanie zachować pełną i efektywną zdolność samostanowienia o sobie oraz być w stanie uczestniczyć w procesie demokratycznym. Systemy SI nie powinny zatem „bezpodstawnie podporządkowywać, przymuszać, oszukiwać, kształtować lub kontrolować ludzi ani nimi manipulować“.

Powinny także zapewniać techniczną solidność i bezpieczeństwo, które można byłoby weryfikować na każdym etapie powstawania SI. W raporcie przygotowanym dla Komisji podkreślono także konieczność weryfikowania danych gromadzonych dla „trenowania“ SI celem unikania „społecznie skonstruowanych uprzedzeń“, uwzględniania „nieumyślnych uprzedzeń historycznych“, „niekompletności danych“ i „złych modeli zarządzania“.

Nowe Rozporządzenie

W kwietniu 2021 roku Komisja Europejska zaprezentowała po raz pierwszy projekt rozporządzenia w sprawie sztucznej inteligencji, który pod koniec kwietnia został zaakceptowany przez Parlament Europejski. Tym samym rozpoczęła się ostatnia faza prac legislacyjnych, która może doprowadzić do przyjęcia finalnej treści rozporządzenia jeszcze w tym roku.
Rozporządzenie bazuje na art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE) i zgodnie ze wcześniejszymi zapowiedziami, jego konstrukcję oparto na analizie ryzyka związanego z wykorzystaniem sztucznej inteligencji.
Systemy SI mają być zatem kwalifikowane do jednej z czterech kategorii podzielonych według wielkości ryzyka. Od minimalnego – przykładowo automatyczne tłumaczenie, do nieakceptowalnego – przykładowo testowane na szeroką skalę w Chinach systemy typu „social scoring”.
Ryzyko niedopuszczalne, zdaniem autorów rozporządzenia obejmować ma wszystkie systemy SI, których wykorzystanie powodowałoby sprzeczność z wartościami Unii, na przykład z uwagi na naruszenie praw podstawowych. Dotyczyłoby to w szczególności praktyk, które wykazują znaczny potencjał manipulowania ludźmi, opartych na technikach podprogowych działających na ich podświadomość lub wykorzystujące słabości określonych słabszych grup, takich jak dzieci lub osoby z niepełnosprawnościami.

Projekt rozporządzenia zakazuje również organom publicznym stosowania do celów ogólnych opartych na sztucznej inteligencji systemów punktowej oceny zachowań społecznych oraz wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
Zgodnie z podejściem opartym na analizie ryzyka systemy sztucznej inteligencji wysokiego ryzyka byłyby dopuszczane do obrotu na rynku europejskim pod warunkiem spełnienia określonych wymogów obowiązkowych i przeprowadzenia oceny zgodności ex ante, przez ich dostawców.
Taka ocena, połączona z rygorystycznym egzekwowaniem ex post, zdaniem twórców rozporządzenia będzie skutecznym i uzasadnionym rozwiązaniem w przypadku systemów SI, biorąc pod uwagę wczesny etap interwencji regulacyjnej oraz fakt, że sektor SI charakteryzuje się dużą innowacyjnością, a wiedza ekspercka potrzebna do jego kontrolowania jest dopiero gromadzona.

Tego typu podejście powodować będzie oczywiście potrzebę wprowadzenia w przedsiębiorstwach prowadzących prace nad systemami SI, skutecznych i odpowiednio udokumentowanych procesów zapewnienia zgodności ex-ante ze wszystkimi wymogami rozporządzenia a także systemów zarządzania jakością i ryzykiem oraz monitorowania po wprowadzeniu do obrotu.

Po przeprowadzeniu przez dostawcę odpowiedniej oceny zgodności powinien on zarejestrować system SI sztucznej inteligencji wysokiego ryzyka w unijnej bazie danych, która będzie zarządzana przez Komisję w celu zwiększenia publicznej przejrzystości i kontroli oraz wzmocnienia nadzoru ex post sprawowanego przez właściwe organy.

Rozporządzenie przewiduje też możliwość tworzenia kontrolowanych środowisk do testowania innowacyjnych technologii przez ograniczony czas na podstawie planu testów uzgodnionego z właściwymi organami (tzw. piaskownice regulacyjne) oraz środki mające na celu zmniejszenie obciążeń regulacyjnych dla MŚP i przedsiębiorstw typu start-up.

Kary przewidziane w rozporządzeniu, jak przystało na wagę zagadnienia są niebagatelne. Największa z nich sięgałaby 30 000 000 EUR lub do 6 % całkowitego rocznego światowego obrotu za poprzedni rok budżetowy i mogłaby być nakładana za nieprzestrzeganie zakazu stosowania systemów „nieakceptowalnych” oraz niezgodności systemów AI wysokiego ryzyka z wymogami dotyczącymi używania wysokiej jakości danych do treningu i testowania systemów AI. Pełen katalog kar jest oczywiście znacznie dłuższy.

Nad prawidłową realizacją postanowień rozporządzenia czuwać będzie Europejska Rada ds. Sztucznej Inteligencji.

I co dalej?

Patrząc na dotychczasowe tempo prac, rozporządzenie powinno zostać przyjęte jeszcze w tym roku. I co dalej? Dalej, działy zgodności (ang. compliance) wielu firm otrzymają dodatkowe budżety na zapewnienie specjalistów od rozczytywania kryteriów zapisanych w rozporządzeniu dla systemów wysokiego ryzyka. Firmy zajmujące się wprowadzaniem systemów zarządzania jakością, uzyskają nowe pole do ekspansji. W przedsiębiorstwach zajmujących się SI powstaną opasłe tomy mające dokumentować rygorystyczne trzymanie się nowych przepisów. Ale w dalszym ciągu, nie będziemy w stanie udzielić odpowiedzi na jedno zasadnicze pytanie – do czego doprowadzi nas rozwój systemów SI.

Kilka dekad temu, Claude Shannon twórca teorii informacji, twierdził, że potrafi sobie wyobrazić czasy w który ludzie dla robotów, będą tym czym psy są obecnie dla ludzi. Stephane Hawking przestrzegał, że sztuczna inteligencja może oznaczać koniec ludzkiej cywilizacji. Podobnie zresztą jak Elon Musk, który uważał, że praca nad sztuczną inteligencją jest jak przywoływanie na świat demona i że konieczny jest silny reżim regulacyjny, żeby ludzie nie uczynili czegoś niezmiernie głupiego.

Dwóch pierwszych już nie żyje. A Elon Musk właśnie zabiera się do kolejnego projektu mającego stanowić konkurencję dla OpenAI. Zagrożenia zagrożeniami a uzyskanie przez ChatGPT 100 milionów miesięcznych aktywnych użytkowników w przeciągu zaledwie kilku tygodni to konkret którego żaden inwestor zignorować nie może.

Ireneusz Piecuch
Ireneusz Piecuch
ireneusz.piecuch@dgtl.law | zobacz inne wpisy tego autora