Na filmach o tsunami wszystko zaczyna się od oceanu, który niespodziewanie cofa się odsłaniając dziesiątki metrów morskiego dna. Robi się spokojnie. Ludzie spacerują po dnie suchą stopą. Podziwiają nadzwyczajne zjawisko natury. Później nadciąga żywioł. Niepowstrzymany. Niszczycielski. Unicestwiający wszystko, co stanie na jego drodze. Koniec spacerów. Pozostaje twarda walka o przetrwanie, którą większość spacerowiczów nieuchronnie przegrywa. Czy z technologicznym tsunami będzie podobnie?
Ruch 37
Kiedy AlphaGo przystępował do meczu z Lee Sedolem w marcu 2016 roku, nawet założyciele spółki DeepMind nie spodziewali się sukcesu, nie mówiąc już komentatorach i ekspertach od GO. Po niespodziewanie wygranej pierwszej partii, eksperci odetchnęli z ulgą w drugiej. AlphaGo popełnił błąd. Wszyscy byli zgodni, że ruch 37 w wykonaniu programu musi skończyć się klęską. I tak się stało. Tyle, że klęską dla Lee Sedola. AlphaGo zrobił ruch, który pozostawał w sprzeczności z kilkusetletnią wiedzą zgromadzoną na temat tej gry. Ludzkich zasad. Tyle, że AlphaGo nie był człowiekiem. AlphaGo był oprogramowaniem. Sztuczną inteligencją. Czy może należałoby powiedzieć obcą inteligencją?
Od tego czasu nie minęła nawet dekada, a sztuczna inteligencja stała się integralną częścią tysięcy rozwiązań informatycznych, zwiększając ich wydajność i funkcjonalność. Rozpoznaje ludzką mowę i pozwala na jej syntetyzację w sposób nierozróżnialny dla normalnego słuchacza. Podobnie z kwestią rozpoznawania i syntetyzowania obrazów. Rozwiązania oparte na sztucznej inteligencji znajdują swoje zastosowanie w coraz większych obszarach naszego życia, np. w medycynie, gdzie diagnostyka komputerowa w niektórych obszarach jest skuteczniejsza od tej realizowanej przez ludzkich diagnostów, czy też w sztuce.
Ale wznosząca się fala entuzjazmu, która spowodowała, że ChatGPT w roku 2023, zaledwie w dwa miesiące pozyskał 100 milionów użytkowników i zwiększył wycenę firmy OpenAI do kwoty 29 miliardów dolarów, to nie wszystko. Kolejne przełomy uzyskiwane są w genetyce, gdzie po raz pierwszy doszło do świadomej ingerencji w łańcuch DNA człowieka. Co prawda wydaje się, że minimalnej, a lekarz, który tego dokonał, został skazany, jednocześnie Chiny jako jedne z pierwszych państw przyjęło regulacje zabraniające tego typu operacji, ale jak powiedział jeden z „bohaterów” afery Watergate „bardzo ciężko jest wcisnąć pastę do zębów z powrotem do tubki”. Edytowanie łańcucha DNA stwarza za dużo pokus, żeby nawet najlepsze regulacje były w stanie całkowicie wyeliminować dalsze próby. Kolejna technologia z potencjałem na zmianę świata to komputery kwantowe. Przy tych komputerach obecne superkomputery wyglądać będą jak dziecięce zabawki. Dla przykładu. Algorytm Rivesta-Shamira-Adlemana (RSA) – jeden z pierwszych i obecnie najpopularniejszych asymetrycznych algorytmów kryptograficznych z kluczem publicznym, zaprojektowany w 1977 przez Rona Rivesta, Adiego Shamira oraz Leonarda Adlemana zabezpiecza obecnie dużą część z wartego 4 tryliony USD biznesu związanego z handlem internetowym. Konwencjonalne komputery potrzebowałyby miliardów lat, żeby złamać szyfr RSA. Komputery kwantowe będą mogły zrobić to w kilka sekund.
Każda z tych trzech technologii (a jest ich znacznie więcej) sama w sobie ma potencjał zmiany świata jaki znamy. A gdyby połączyć ich działanie? Gdyby wyposażyć autonomiczne roboty w sztuczną inteligencję?
Autonomia czy anarchia
W listopadzie 2020 roku Mohsen Fakharizadeh – czołowy irański naukowiec zatrudniony przy irańskim projekcie broni atomowej został zastrzelony przy zastosowaniu karabinu maszynowego zainstalowanego w zaparkowanym samochodzie i korzystającego z mechanizmu sztucznej inteligencji. Naszpikowany kamerami, umożliwiający zdalne sterowanie karabin najpierw zatrzymał jadący samochód serią oddana w jego maskę, a gdy Fakharizadeh wysiadł z samochodu, otrzymał trzy śmiertelne trafienia w klatkę piersiową. Nikt inny, ani ochrona, ani żona ofiary, nie odnieśli żadnych obrażeń.
Broń autonomiczna, potrafiąca zidentyfikować cel na podstawie przykładowo rysów twarzy i oddać precyzyjne strzały to nie przyszłość – to teraźniejszość. Dziesięć lat temu uzbrojone mini-drony działające na zasadzie inteligentnego roju były tematem ekscytującej powieści sensacyjnej. Dzisiaj stają się częścią naszej rzeczywistości i nikogo to nie dziwi.
Ale technologie to nie tylko problem ich podwójnego zastosowania – dla celów budowania lub destrukcji. To także ważny bodziec stymulujący zmiany społeczne oraz wpływający na geopolitykę.
Nadchodzą Kampanie Cyfrowe
Brytyjska Kampania Wschodnioindyjska była w XIX wieku prawdziwym imperium. Zarządzała obszarem większym i liczniejszym jeśli chodzi o liczbę mieszkańców niż ówczesna Europa. Dysponowała świetnie zorganizowana armią – dwukrotnie liczniejszą niż armia brytyjska. Ustanawiała własne prawa i porządki.
Początek XX wieku to triumf ustawodawstwa antymonopolowego i powolne wprowadzania równowagi na rynkach. Ale nic nie trwa wiecznie. Ostrze antymonopolowego miecza stępiło się z biegiem czasu, a w Stanach Zjednoczonych w ostatnich dekadach powstały kampanie cyfrowe, które co prawda nie utrzymują własnych armii, ale poza tym nie ustępują potęgą Kampanii Wschodnioindyjskiej. 500 pierwszych firm z listy Fortune’s Global odpowiada za 44% światowego GDP. Apple, Amazon, Meta mają budżety, których nie powstydziłaby się niektóre państwa, a sytuacja taka nie ogranicza się wyłącznie do Stanów Zjednoczonych. Samsung – firma, która zaczynała od sprzedaży makaronów, odpowiada dzisiaj za ponad 20% GDP Korei. Nadchodząca fala technologicznych zmian wraz ze sztuczną inteligencją działa na te cyfrowe konglomeraty jak dopalacze w samochodach wyścigowych. W świecie, w którym produkty zastępowane są przez usługi, odpowiednia skala działalności połączona z technologią pozwala na marginalizowanie kosztów i świadczenie usług na poziomie utrudniającym skuteczną konkurencję.
Zasady działania czyli czarne skrzynki
Rewolucja przemysłowa przyzwyczaiła nas do tego, ze budowane przez człowieka maszyny są przewidywalne. Wiemy jak działają, wiemy jaki będzie rezultat, potrafimy wyśledzić dlaczego coś poszło nie tak. Akcja przekłada się na przewidywalną reakcję. Tak było do niedawna. W przypadku sztucznej inteligencji nie potrafimy do końca przewidzieć ruchu 37. Nie potrafimy wytłumaczyć mechanizmu halucynacji, która sprawia że ChatGPT udziela przedziwnych i niezgodnych z prawdą odpowiedzi. Tak naprawdę potrafimy wyłącznie wytłumaczyć jak system powinien zadziałać, a nie jak zadziała.
Przemysł lotniczy jest przykładem branży, gdzie perfekcja inżynieryjna idzie ręka w rękę z mechanizmami kontrolnymi. Każdy wypadek jest dokładnie badany. Wnioski są wyciągane i wdrażane w życie w formie zaleceń bądź nowych regulacji. Perypetie Boeinga i zawieszenie całej floty tych samolotów po dwóch katastrofach wstrząsnęło tym systemem, ale nie na długo. Okazało się, że jak zwykle zawiódł człowiek i religijne przywiązanie do giełdowych wzrostów.
Wyobraźmy jednak sobie, że dochodzi do katastrofy samolotu pilotowanego przez autonomiczny system sztucznej inteligencji. Tylko co tu badać – algorytm? Najprawdopodobniej nic nam nie powie, bo przecież najważniejsze było to, czego ów autonomiczny program się nauczył.
Quo Vadis?
Ujarzmiliśmy technologię. Zaprzęgliśmy ją do rydwanu naszych codziennych potrzeb. Morze się cofnęło. Spacerujemy po niedostępnych dotąd obszarach, podziwiając nowoczesne zdobycze genetyki, kwantowe komputery, autonomiczne roboty, oprowadzani po tej wielkiej wystawie przez ChatGPT, który w chwilach wolnych od halucynacji odpowiada na wszystkie nasze pytania. I patrzymy z politowaniem na tych wszystkich, którzy ostrzegają, że nadchodzi potop.
Mustafa Suleyman, jeden z założycieli firmy DeepMind w swojej książce „The coming wave” przytacza dziewięć konkretnych zaleceń, którymi powinniśmy się kierować, podejmując próby uczynienia nadchodzącej rewolucji cyfrowej bezpieczną dla nas ludzi. Zasady wyglądają na rozsądne, a część z nich jest obecnie przedmiotem debat regulacyjnych w różnych częściach naszego globu. Tylko czy Tsunami może być bezpieczne?
Zostaw komentarz
You must be logged in to post a comment.