Sztuczna inteligencja powoli, lecz konsekwentnie, wkracza w rozmaite dziedziny naszego życia. Jak zostało wskazane na stronie w całości dedykowanej przedstawianiu najnowszych informacji na temat AI Act, rozporządzenie to ma podobnie jak RODO stać się pewnego rodzaju globalnym standardem i ma jednoznacznie wskazywać, do jakiego stopnia sztuczna inteligencja może mieć pozytywny wpływ na życie każdego z nas [1].
Już dziś korzystamy ze sztucznej inteligencji zarówno dla celów prywatnych – na przykład prosząc ChatGPT o zaproponowanie planu posiłków na najbliższy tydzień – jak i dla celów komercyjnych. Wskazać należy chociażby na zastosowanie AI w medycynie. W tym zakresie świetny przykład stanowi stale uaktualniana lista certyfikowanych urządzeń medycznych, które zawierają rozwiązania sztucznej inteligencji i uczenia maszynowego, tworzona przez Amerykańską Agencję ds. Żywności i Leków. W październiku ubiegłego roku lista ta przedstawiała niemal 700 urządzeń – co stanowi ponad dwukrotny wzrost w porównaniu do liczby urządzeń przedstawionej na tej liście w 2021 roku [2]. Nie ulega również wątpliwości, że sztuczna inteligencja jest wykorzystywana dla celów wojskowych, pomagając chociażby w identyfikacji i neutralizacji zagrożeń, gromadzeniu informacji wywiadowczych czy wzmacnianiu zintegrowanego systemu obrony. Technologie AI odnajdziemy także w mediach społecznościowych, instytucjach finansowych, bankowości, w procesach biznesowych et cetera.
Być może w całkiem niedalekiej przyszłości prawdziwym będzie stwierdzenie, że <<sztuczna inteligencja jest wszędzie>>.
W licznych artykułach poruszających kwestię AI wskazuje się, że korzyści płynące z jej wykorzystania muszą przewyższać zagrożenia, jakie sztuczna inteligencja mogłaby przynieść ludzkości. I taki właśnie jest cel regulacji AI Act – wyznaczenie ram, w jakich technologiczni giganci tworzący systemy sztucznej inteligencji będą mogli się poruszać, tworząc coraz to kolejne wersje swojego oprogramowania. Między innymi, będą musieli zwrócić uwagę na nałożone poprzez AI Act ograniczenia co do użycia tzw. deepfake’ów oraz zakaz przeprowadzania social score’ingu.
Deepfake to forma wykorzystania sztucznej inteligencji w celu zmanipulowania publiki poprzez wytworzenie i opublikowanie w mediach fałszywych obrazów, dźwięków i filmów. Metoda ta jest wykorzystywana głównie w niegodziwych celach, głównie do oszukiwania opinii publicznej poprzez szerzenie dezinformacji lub propagandy, kreowanie zdarzeń, które nie miały miejsca, lub tworzenie sztucznych wypowiedzi znanych osób. Wskutek wykorzystania deepfake’ów możliwe jest przepuszczanie ataków dezinformacyjnych, kradzieży tożsamości, dokonywania oszustw finansowych czy nawet do manipulacji wyborczych. Filmy stworzone przy użyciu deepfake mogą przedstawiać światowego przywódcę lub znaną osobę mówiącą lub robiącą coś, czego w rzeczywistości osoba ta nie zrobiła, zmieniając w ten sposób opinię publiczną na ich temat.
Doskonałym przykładem zastosowania deepfake dla celów politycznych było pojawienie się na Facebooku, tuż przed kluczowymi dla Słowacji wyborami, oburzającego „nagrania” rozmowy pomiędzy politykiem Michalem Šimečką a dziennikarką Moniką Tódovą. Na nagraniu tym polityk miał przechwalać się, w jaki sposób można sfałszować wybory, częściowo kupując głosy zmarginalizowanej w kraju mniejszości romskiej. Osoby zainteresowane natychmiast oznajmiły, że nagranie jest fałszywe, a tego rodzaju rozmowa nigdy nie miała miejsca.
Deepfake dotyka również celebrytów. Pod koniec stycznia 2024 roku w sieci pojawiły się wygenerowane przez sztuczną inteligencję obrazy i filmy przedstawiające amerykańską piosenkarkę Taylor Swift w kilku niedwuznacznych pozycjach. Oczywiście wszystkie nieprawdziwe. Szczególnie niepokojący jest fakt, że platforma X, na której ww. deepfake’i zostały opublikowane, niezwykle długo zwlekała z ich usunięciem. Jeden z zamieszczonych filmów zgromadził aż 47 milionów wyświetleń, zanim został usunięty… 17 godzin później (!).
AI Act, zamiast całkowicie zakazać używania deepfake’ów, proponuje inne podejście. Artykuł 52 rozporządzenia wymaga od twórców przede wszystkim przejrzystości. Oznacza to, że każdy, kto tworzy lub rozpowszechnia deepfake, musi ujawnić jego sztuczne pochodzenie i dostarczyć informacji o zastosowanych technikach. Ma to na celu zapewnienie konsumentom wiedzy na temat napotykanych treści i uczynienie ich mniej podatnymi na manipulacje.
Czy słusznie? Jest to dyskusyjne. Przede wszystkim pod względem tego, czy twórcy deepfake’ów rzeczywiście do tych regulacji będą się stosować.
[1] https://artificialintelligenceact.eu/
[2] https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-aiml-enabled-medical-devices
[3] https://www.europarl.europa.eu/sedcms/documents/PRIORITY_INFO/1260/SYN_POJ_March_STR_EN.pdf