Coraz częściej wykorzystujemy technologie sztucznej inteligencji, które usprawniają nasze działania i zwiększają efektywność. Istotnym czynnikiem jest także aspekt ekonomiczny – AI pozwala na oszczędność czasu i zasobów, co bezpośrednio przekłada się na wzrost wydajności pracy. Z możliwości oferowanych przez algorytmy korzystają zarówno indywidualni użytkownicy, jak i różne przedsiębiorstwa, optymalizując swoje procesy biznesowe. Jednak z uwagi na unijne regulacje dot. sztucznej inteligencji, immamentnym elementem wykorzystania AI staje się dbałość o przejrzystość, odpowiedzialność oraz zapewnienie ludzkiego nadzoru nad wykorzystaniem algorytmów.

 

Gonitwa za ideałem

 

Technologia dźwignią handlu. Po rozwiązania AI coraz częściej sięgają także marki odzieżowe. Przykład jednej z hiszpańskich marek [1], która wprowadziła do swoich kampanii reklamowych modelki wygenerowane przez algorytm, ilustruje, jak dynamicznie rozwijają się możliwości sztucznej inteligencji w przemyśle mody.

 

Wykorzystanie algorytmów do tworzenia modelek wiąże się jednak z pewnym ryzykiem, które może negatywnie wpłynąć na postrzeganie siebie przez konsumentów. Systemy AI często generują obrazy „idealnych” ludzi o perfekcyjnych rysach twarzy, proporcjonalnych sylwetkach i nieskazitelnej cerze, co może prowadzić do nierealistycznych standardów piękna. W efekcie, niektóre osoby mogą zaczynać porównywać się z takimi wirtualnymi postaciami, co może doprowadzić do problemów z samooceną oraz zdrowiem psychicznym.

 

Rozwiązanie? Obowiązek informacyjny.

 

Artykuł 50 AI Act nakłada na podmioty wykorzystujące sztuczną inteligencję obowiązek informowania użytkowników, gdy ci wchodzą w interakcję z systemem AI. Ust. 4 tego artykułu jednoznacznie wskazuje, że „Podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane.”

Wspomniana marka odzieżowa zastosowała się do tego obowiązku i umieściła stosowne adnotacje wskazujące, że wykorzystane wizerunki modelek zostały stworzone przez algorytm – co należy ocenić zdecydowanie na plus.

Obowiązek informacyjny wynikający z AI Act odgrywa kluczową rolę w zapewnieniu transparentności i ochronie konsumentów przed nieświadomym oddziaływaniem sztucznie wygenerowanych treści. Teraz, gdy granica między rzeczywistością a kreacją algorytmiczną staje się coraz bardziej płynna, jasne oznaczanie treści tworzonych przez AI pozwala użytkownikom na świadome podejmowanie decyzji i ocenę przekazu reklamowego. Brak takiej przejrzystości mógłby prowadzić do wprowadzania odbiorców w błąd, co jest niezwykle istotne w omawianym kontekście branży modowej, gdzie prezentowane wizerunki mogą kształtować standardy estetyczne i wpływać na samoocenę konsumentów. Wprowadzenie obowiązku informacyjnego to zatem nie tylko kwestia zgodności z regulacjami, ale także odpowiedzialności społecznej przedsiębiorstw, które powinny dbać o rzetelność przekazu i zaufanie klientów.

 

 

Nie tylko branża modowa

 

Jednym z głównych obszarów, które powinny budzić szczególne zainteresowanie, jest wykorzystanie AI w środowisku pracowniczym. Wiele firm coraz częściej stosuje sztuczną inteligencję w procesach rekrutacyjnych, ocenie pracowników czy monitorowaniu efektywności pracy. Takie praktyki niosą zarówno korzyści, jak i ryzyka, dlatego AI Act nakłada określone obowiązki informacyjne także na pracodawców.

 

 

AI w rekrutacji i ocenie pracowników

Jeżeli sztuczna inteligencja jest wykorzystywana w procesach rekrutacyjnych, pracodawca ma obowiązek poinformowania kandydatów o zastosowaniu systemu AI. Przed wdrożeniem takiego rozwiązania firmy muszą zweryfikować, czy dany algorytm nie jest klasyfikowany jako system niedozwolonego ryzyka oraz czy jego działanie nie prowadzi do dyskryminacji algorytmicznej. Istnieje bowiem ryzyko, że AI nieświadomie faworyzuje określone grupy kandydatów na podstawie czynników niezwiązanych z ich kompetencjami, takich jak wiek, płeć czy miejsce zamieszkania. Aby temu zapobiec, niezbędne jest wprowadzenie mechanizmów kontrolnych oraz stały nadzór nad działaniem algorytmu.

Podobne zasady przejrzystości obowiązują w przypadku wykorzystania AI do oceny efektywności pracowników. Zatrudnione osoby mają prawo wiedzieć, według jakich kryteriów system analizuje ich wydajność oraz jakie dane są przetwarzane. Zarówno AI Act, jak i RODO wymagają, aby pracownicy mieli dostęp do informacji na temat funkcjonowania algorytmów oraz możliwości zakwestionowania decyzji podjętych przez AI. Zapewnienie przejrzystości w tym zakresie jest kluczowe dla ochrony praw pracowniczych i budowania zaufania w miejscu pracy.

 

 

Przejrzystość kluczem do zaufania

 

Przykład znanej marki odzieżowej pokazuje, jak ważna jest przejrzystość i odpowiedzialne podejście do wykorzystania sztucznej inteligencji w biznesie. Firmy powinny nie tylko informować klientów, że mają do czynienia z treściami generowanymi przez AI, ale także dbać o to, by przedstawiane wizerunki były realistyczne i zróżnicowane.

 

Podobne zasady dotyczą środowiska pracy. Pracodawcy korzystający z AI – czy to w procesach rekrutacyjnych, czy do oceny efektywności pracowników – muszą zapewnić pełną transparentność i przestrzeganie obowiązujących regulacji. Kandydaci i zatrudnieni powinni mieć świadomość, w jaki sposób algorytmy wpływają na decyzje dotyczące ich kariery oraz możliwość zakwestionowania takich decyzji. Przestrzeganie regulacji, takich jak AI Act i przepisy o ochronie danych osobowych, to nie tylko wymóg prawny, ale także sposób na budowanie zaufania i tworzenie bardziej uczciwego i przejrzystego środowiska – zarówno dla konsumentów, jak i pracowników.

 

[1]  https://www.wirtualnemedia.pl/artykul/mango-korzysta-z-modelek-wygenerowanych-przez-sztuczna-inteligencje?utm_source=chatgpt.com

Aleksandra Bielat
zobacz inne wpisy tego autora