W trakcie jednej z debat, w której miałem przyjemność wziąć udział, poświęconej sztucznej inteligencji, padło twierdzenie, że inteligencja maszyny nigdy nie przekroczy inteligencji tego, który ją stworzył – inteligencji człowieka. Cóż, pewnie tak byłoby prościej i mniej ryzykownie – ale nie będzie.
Kilka dekad temu, Claude Shannon, twórca teorii informacji, twierdził, że potrafi sobie wyobrazić czasy, w który ludzie dla robotów będą tym, czym psy są obecnie dla ludzi. Claude Shannon był naukowcem, nie fantastą. Elon Musk twierdzi, że praca nad sztuczną inteligencją jest jak przywoływanie na świat demona i że konieczny jest silny reżim regulacyjny, żeby ludzie nie uczynili czegoś niezmiernie głupiego. Elon Musk jest fantastą. Ale póki co jego fantastyczne pomysły sprawdzają się jeden po drugim. Stephene Hawking twierdził, że sztuczna inteligencja może oznaczać koniec ludzkiej cywilizacji. Stephene Hawking był geniuszem. Czy wszyscy oni dmuchali na zimne? Być może. Jedno jest jednak pewne – 50 miliardów dolarów, które zdaniem IDC zainwestowano w 2020 roku w rozwój sztucznej inteligencji, a które ma wzrosnąć dwukrotnie w przeciągu 3 kolejnych lat, przybliża nas do momentu, w którym człowiek po raz pierwszy stworzy oprogramowanie, które pokona go nie w jednej czy w kilku dziedzinach – bo ten moment mamy już za sobą – tylko oprogramowanie, które będzie można uznać za uniwersalną sztuczną inteligencję.
Z czym do sztucznej inteligencji?
Już od dawna wiadomo, że mózg ludzki przy obecnym rozwoju technologii jest skazany na przegraną, jeśli porównać go do maszyny. Biologiczne neurony działają z maksymalna prędkością 200 Hz, czyli siedem rzędów wielkości wolniej niż współczesne mikroprocesory. Aksony – czyli element neuronu odpowiedzialny za przekazywanie informacji, przenoszą potencjały czynnościowe z prędkością mniej więcej 120 m/s. Rdzenie procesów korzystające z łączy optycznych mogą to robić z prędkością światła (300 000 000 m/s). Biologiczny mózg, biorąc pod uwagę opóźnienia w komunikacji zwrotnej, nie może być większy niż 011 m3. System elektroniczny można rozbudować do wielkości 61×1017 m3 (różnica osiemnastu rzędów wielkości). Jeżeli przyjąć jeden z szacunków, mózg dorosłego człowieka przechowuje około miliarda bitów – kilka rzędów wielkości mniej niż nasze smartphony. Póki co jednak te słabości sprzętowe udawało się nadrabiać oprogramowaniem wykształconym przez miliony lat ewolucji. Ale i ta przewaga dobiega swojego końca.
Termin „sztuczna inteligencja” został ukuty przez Johna McCarthy, młodego profesora matematyki z Uniwersytetu w Dartmouth, już w roku 1955, a kilka lat potem, jak grzyby po deszczu powstawać zaczęły kolejne projekty poświęcone temu zagadnieniu na MIT (projekt MAC), Berkeley (projekt Genie, University of South California). Prace te jednak nie miały odpowiedniego wsparcia w ówczesnej technologii. Jeden z pierwszych, komercyjnie dostępnych komputerów IBM 650 w 1994 roku kosztował pół miliona dolarów, wyposażony był w pamięć pozwalającą na zapamiętanie 2 tysięcy dziesięcioliterowych słów i ważył 900 kilogramów. Ponowny rozkwit tematyki sztucznej inteligencji to przełom wieków. Prawo Moora zapewniło wykładniczy wzrost możliwości obliczeniowych przy jednoczesnym spadku ceny komputerów. Internet umożliwił powstawanie olbrzymich rezerwuarów danych, które mogły zostać wykorzystane. Nowe rozwiązania w dziedzinie matematyki i statystyki doprowadziły najpierw do kolejnych przełomów w zakresie uczenia maszynowego (machine learning), a następnie, w połowie pierwszej dekady XXI wieku w zakresie budowy sieci neuronowych i zastosowania tzw. głębokiego myślenia (ang. deep learning). Przegrana ówczesnego mistrza świata w szachach Garriego Kasparova, z komputerem IBM Deep Blue w roku 1996 była jeszcze pokazem brutalnej przewagi siły obliczeniowej połączonej z programowaniem algorytmicznym. Kiedy jednak po kolejnych dwóch dekadach program Alpha Go pokonał mistrza świata w GO, mieliśmy już do czynienia nie tyle ze sztuczną inteligencją, co z obcą inteligencją. Niektóre posunięcia wykonywane przez Alpha Go w niczym nie przypominały zagrań, których oprogramowanie mogłoby się „nauczyć” od ludzi. Zachwyt,y jakie wzbudziły wykonywane przez Apha Go ruchy przemieszane były z nieśmiałym jeszcze wówczas pytaniem, czy jesteśmy w stanie zapanować nad tym, co właśnie stworzyliśmy.
No to Regulacje!
W maju 2019 roku 42 kraje zrzeszone w OECD przyjęły nowe zasady odnośnie sztucznej inteligencji. Zgodnie z tymi zasadami systemy SI powinny być zaprojektowane tak, by uwzględniać praworządność, prawa człowieka, wartości demokratyczne i różnorodność. Powinny też obejmować odpowiednie zabezpieczenia – na przykład umożliwiające ludzką interwencję tam, gdzie jest to konieczne. Należy także zapewnić przejrzystość i odpowiedzialne ujawnianie informacji na temat systemów SI, aby upewnić się, że ludzie wiedzą, kiedy z nich korzystają i mogą kwestionować wyniki ich pracy. Systemy sztucznej inteligencji muszą funkcjonować w solidny, bezpieczny i zaufany sposób przez cały okres ich życia, a potencjalne zagrożenia powinny być stale oceniane i pozostawać pod kontrolą.
Co najważniejsze, organizacje i osoby rozwijające, wdrażające lub obsługujące systemy sztucznej inteligencji powinny być pociągane do odpowiedzialności za ich prawidłowe funkcjonowanie zgodnie z powyższymi zasadami.
Mniej więcej w tym samym czasie 52 ekspertów powołanych przez Komisję Europejską opracowało dokument poświęcony etycznym uwarunkowaniom sztucznej inteligencji. Sztuczna inteligencja winna być godna zaufania, co oznacza, że powinna funkcjonować zgodnie z prawem, tj. zapewniać poszanowanie wszystkich obowiązujących przepisów ustawowych i wykonawczych. Ponadto powinna być etyczna, zapewniając zgodność z zasadami i wartościami etycznymi oraz być solidna zarówno z technicznego, jak i ze społecznego punktu widzenia, ponieważ systemy SI mogą wywoływać niezamierzone szkody nawet wówczas, gdy korzysta się z nich w dobrej wierze.
Przechodząc do wartości etycznych, autorzy opracowania, wskazali na cztery główne zasady. Pierwszą z nich jest poszanowanie autonomii człowieka. Osoby wchodzące w interakcje z systemami SI muszą być w stanie zachować pełną i efektywną zdolność samostanowienia o sobie oraz być w stanie uczestniczyć w procesie demokratycznym. Systemy SI nie powinny zatem „bezpodstawnie podporządkowywać, przymuszać, oszukiwać, kształtować lub kontrolować ludzi ani nimi manipulować“.
Powinny także zapewniać techniczną solidność i bezpieczeństwo, które można byłoby weryfikować na każdym etapie powstawania SI. W raporcie przygotowanym dla Komisji podkreślono także konieczność weryfikowania danych gromadzonych dla „trenowania“ SI celem unikania „społecznie skonstruowanych uprzedzeń“, uwzględniania „nieumyślnych uprzedzeń historycznych“, „niekompletności danych“ i „złych modeli zarządzania“.
W kwietniu 2021 roku Komisja Europejska zaprezentowała projekt rozporządzenia w sprawie sztucznej inteligencji.
Publikując go, Komisja z właściwym sobie optymizmem oznajmiła, że to właśnie Europa będzie kolebką w zakresie rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji. Zgodnie z treścią tego projektu wszystkie systemy SI powinny być kwalifikowane do jednej z czterech kategorii podzielonych według wielkości ryzyka (od minimalnego – przykładowo automatyczne tłumaczenie) do nieakceptowalnego (przykładowo testowane na szeroką skalę w Chinach systemy typu „social scoring”). Przynależność do jednej z tych grup determinowałaby obowiązki dostawców AI, włączając w to obowiązkowe audyty i certyfikacje. Nad wszystkim czuwałaby Europejska Rada Sztucznej Inteligencji, a motywacją do ścisłego przestrzegania rozporządzenia miałyby być wysokie kary. Największa z nich sięgałaby 30 000 000 EUR lub do 6% całkowitego rocznego światowego obrotu za poprzedni rok budżetowy i mogłaby być nakładana za nieprzestrzeganie zakazu stosowania systemów „nieakceptowalnych” oraz niezgodności systemów AI wysokiego ryzyka z wymogami dotyczącymi używania wysokiej jakości danych do treningu i testowania systemów AI.
Rozporządzenie dopiero rozpoczyna swoją drogę podróż legislacyjną przez biurokratyczne zakamarki Brukseli i zapewne zostanie przyjęte w połowie 2023 roku. Do tego czasu będziemy musieli budować europejską potęgę AI bez wsparcia prawnego i zapewne wielu przedsiębiorców będzie chciało wykorzystać ten czas jak najlepiej. Zarówno tych prowadzących swoje interesy legalnie, jak i tych dla których sztuczna inteligencja stanowi kolejne narzędzie w repozytorium metod nielegalnego pozyskiwania pieniędzy, informacji czy też wywierania wpływu na upatrzone grupy niczego nie świadomych odbiorców.
Inteligencja sztuczna… ataki prawdziwe
Regulacje mogą (choć nie muszą) usystematyzować sposób w jaki będzie się tworzyć i wykorzystywać systemy sztucznej inteligencji. W żaden jednak sposób nie wpłyną na podmioty prowadzące działalność po ciemnej stronie sieci. Dzięki sztucznej inteligencji cyberprzestępcy będą mogli działać w makroskali choć z nieporównanie większą precyzją i reagować na metody przeciwdziałania z większą niż do tej pory szybkością. Będą mogli rozsyłać miliony zindywidualizowanych informacji skonfigurowanych na podstawie danych dotyczących życia odbiorcy dostępnych w sieci, w tym na mediach społecznościowych. Wykorzystać jego poglądy, zainteresowania, stan emocjonalny aby wywołać odpowiednią reakcję. Ostatnie 12 miesięcy pokazały, że kampanie phishingowe połączone z instalacją oprogramowania złośliwego biją kolejne rekordy wzrostów, a szkody wywołane takimi atakami narastają lawinowo.
Złośliwe oprogramowanie w erze sztucznej inteligencji będzie mogło także mutować w tysiące różnych form po umieszczeniu w systemie komputerowym. Narzędzia Deep RL już teraz potrafią – działając autonomicznie – wykrywać luki, ukrywać złośliwe oprogramowanie i atakować wybiórczo cele spełniające określone parametry.
W końcu systemy AI same stanowić mogą cel ataku. Chociaż jesteśmy dopiero na początku rewolucji wprowadzania systemów AI do naszego życia, istnieją już udokumentowane ataki, które obejmują ukrywanie oszustw, zatruwanie danych, replikacja modeli i wykorzystywanie wad tradycyjnego oprogramowania do oszukiwania, manipulowania, czy kompromitowania systemów sztucznej inteligencji. Nawet niewielka zmiana w zakresie doboru danych może doprowadzić do istotnych (a czasami nieprzewidywalnych) zmian w działaniu systemów sztucznej inteligencji. Stuxnet przez ponad rok zakłócał irański program jądrowy w sposób absolutnie niezauważalny, mimo że jego twórcy nie korzystali z mechanizmów AI.
Sztuczna Inteligencja? Mamy, a jakże.
Według badań przeprowadzonych w 2020 roku przez McKinsey 50% badanych przedsiębiorstw twierdziła, że wdrożyli już rozwiązania w zakresie AI, przynajmniej w odniesienie do jednej w realizowanych prze siebie funkcji biznesowych, a 22% badanych przypisuje osiągniecie przynajmniej 5% EBIT systemom AI. Nawet jeżeli założymy, że połowa badanych określa mianem sztucznej inteligencji systemy informatyczne nie mające nic wspólnego z tym terminem, rynek tych rozwiązań rozwijał się w ciągu ostatniego roku niezmiernie dynamicznie – a to tylko początek drogi. Co przyniesie kolejny rok? Dalszy dynamiczny wzrost – ale to nietrudno odgadnąć. Rosnące zapotrzebowanie na analityków danych. Dalszą eskalację „zbrojeń” w cyberprzestrzeni –wykorzystującą sztuczną inteligencję do działań oficjalnie uznanych za naganne. I dalsze dyskusje na temat regulacji tego obszaru, które co do zasady są potrzebne, ale okażą się spóźnione i mocno nieadekwatne. Innymi słowy – nic, co mogłoby nas zaskoczyć.
Zostaw komentarz
You must be logged in to post a comment.