Social scoring, czyli…
Unijny AI ACT wprowadza przełomowe regulacje dotyczące wykorzystania sztucznej inteligencji, klasyfikując możliwość zastosowania poszczególnych modeli AI według ustalonych w tym rozporządzeniu poziomów ryzyka – od minimalnego po nieakceptowalne.
AI ACT wyznacza też zakazy, w tym zakaz korzystania z technologii cechującej się największym ryzykiem. A taką technologią (czy też metodą działania), będzie tzw. social scoring.
Social scoring, czyli algorytmiczne ocenianie jednostek na podstawie danych z różnych obszarów życia, takich jak zachowanie społeczne, finanse czy aktywność cyfrowa, jest krytykowany za brak przejrzystości, potencjał do dyskryminacji oraz nadmierną ingerencję w życie obywateli.
Dyskusja na temat social scoringu i jego zakazu ma kluczowe znaczenie w kontekście obecnych technologii. Warto rozważyć, jak te zakazane mechanizmy różnią się od popularnych i dozwolonych systemów ocen, takich jak system „gwiazdkowy” stosowany w popularnych aplikacjach używanych przez nas niemal na co dzień.
System ocen (ratingu) stosowany przez Ubera
Uber, jako jedna z najpopularniejszych aplikacji do zamawiania przejazdów, stosuje dwustronny system ocen, w którym zarówno pasażerowie, jak i kierowcy, oceniają się nawzajem w skali od 1 do 5 gwiazdek. Kluczowe cechy tego systemu, odróżniające go od zabronionego przez AI ACT social scoringu, obejmują m.in.:
- Anonimizację ocen – użytkownicy nie mogą przypisać konkretnych ocen do poszczególnych osób czy przejazdów, co redukuje ryzyko „odwetu” i zwiększa swobodę w udzielaniu rzeczywistych ocen.
- Ograniczony wpływ na sfery życia – oceny oddziałują wyłącznie na dostępność usług w ramach aplikacji, np. możliwość dalszej pracy jako kierowca lub łatwość zamawiania przejazdów przez pasażera.
- Mechanizmy ochrony – jak wskazane zostało na stronie internetowej organizatora przejazdów, Uber wprowadza narzędzia eliminujące nieuczciwe oceny wynikające z problemów technicznych czy czynników niezależnych od użytkownika, takich jak ceny przejazdów czy błędy aplikacji.
Model ten, choć cyfrowy, w dużym stopniu opiera się na ludzkim podejmowaniu decyzji. Oceny wystawiane przez kierowców i pasażerów są subiektywne, ale jednak uwzględniają kontekst konkretnej sytuacji, co odróżnia uberowski rating od algorytmicznych systemów automatycznego scoringu.
Social scoring jako mechanizm nieakceptowalny
Social scoring, zakazany przez AI ACT, to proces, w którym decyzje są generowane wyłącznie przez algorytmy na podstawie posiadane przez nie szerokiego zakresu danych, takich jak historia kredytowa, zachowania społeczne, lokalizacja czy aktywność online. AI ACT klasyfikuje tę praktykę jako naruszającą prawa człowieka, w tym prawo do prywatności, ochrony danych oraz równego traktowania.
Systemy algorytmicznego social scoringu cechują się:
- Automatycznością decyzji – gdzie brak uwzględnienia kontekstu i indywidualnych okoliczności prowadzi do automatyzacji błędnych decyzji, które mogą mieć długofalowe konsekwencje.
- Nieprzejrzystością działania – algorytmy często funkcjonują jako „czarne skrzynki”, nie informując użytkowników o kryteriach oceny czy też sposobie analizy danych.
- Szerokim zakresem wpływu – decyzje oparte na social scoringu mogą ograniczać dostęp do usług finansowych, edukacyjnych czy zdrowotnych, co prowadzi do systemowej dyskryminacji i wykluczenia społecznego.
Różnice między systemem ratingu Ubera a algorytmicznym social scoringiem
Choć oba modele opierają się na ocenie jednostki, ich struktura i wpływ na użytkowników znacząco się różnią.
Najważniejszą różnicą jest sposób przeprowadzenia procesu decyzyjnego. W aplikacji Ubera oceny są wystawiane przez ludzi, co zapewnia bardziej kontekstowe i subiektywne spojrzenie. Z kolei w przypadku pozbawionego ludzkiego wpływu scoringu technologicznego, decyzje są podejmowane automatycznie przez algorytmy, które nie uwzględniają specyficznych okoliczności (pamiętajmy bowiem, że zadaniem sztucznej inteligencji nie jest myślenie jak człowiek; AI jest tworem, który w zależności od podanych mu danych, przekaże nam odpowiedni rezultat).
Kolejną różnicą jest zasięg oddziaływania. System ocen Ubera działa wyłącznie w obrębie platformy, wpływając na relacje między kierowcami a pasażerami. Zabroniony przez AI ACT social scoring może natomiast objąć szerokie aspekty życia, prowadząc do ograniczeń w dostępie do podstawowych usług.
Nie można też zapomnieć o warunku przejrzystości oraz możliwości zmiany dokonanej oceny. Uber wdraża mechanizmy umożliwiające korektę nieuczciwych ocen, podczas gdy w systemach social scoringu użytkownicy nie mają wglądu w proces decyzyjny ani możliwości odwołania się od decyzji algorytmu.
Dlaczego AI ACT zakazuje social scoringu?
Przede wszystkim, aby chronić prawa człowieka i zapobiegać nadużyciom technologicznym. Prawodawca unijny podkreśla, że technologie stosowane w życiu publicznym muszą być zgodne z zasadami przejrzystości, proporcjonalności i ochrony danych osobowych. Social scoring, jako system oparty na automatycznych ocenach, narusza te fundamentalne zasady, prowadząc do powielania uprzedzeń zakodowanych w danych historycznych, tworzenia mechanizmów wykluczenia społecznego, czy nawet utraty kontroli jednostki nad decyzjami wpływającymi na jej życie.
Poprzez zakazanie social scoringu, AI ACT zapewnia, że sztuczna inteligencja nie będzie stosowana w sposób sprzeczny z etyką i interesem obywateli. Zakaz ten stanowi ważny krok w kierunku ochrony praw obywatelskich w erze cyfrowej. AI ACT, eliminując praktyki nieakceptowalne, wyznacza standardy etycznego stosowania sztucznej inteligencji, zapewniając, że technologia ta będzie służyć obywatelom, a nie działać na ich szkodę.