Algorytmy są intensywnie i szeroko wykorzystywane do automatyzacji ogromnej i rosnącej różnorodności zadań, czynności i procesów decyzyjnych w gospodarce cyfrowej. Automatyzacja jest więc niezbędna, aby zarządzać złożonością, zmniejszać niepewność, wykonywać masowe czynności po przystępnych kosztach. Od podstawowych zadań, takich jak wyszukiwanie, porównywanie, szeregowanie, ustalanie priorytetów, po bardziej wyrafinowane usługi o wartości dodanej, takie jak profilowanie, personalizacja, rekomendacja, scoring wieloatrybutowy, filtrowanie, moderacja treści, zarządzanie algorytmiczne czy rozpatrywanie skarg - wszystko jest dziś wykonywane przynajmniej przez systemy algorytmiczne.
Korzyści z automatyzacji algorytmicznej są powszechnie znane: efektywność, redukcja kosztów transakcyjnych, usprawnienie procesów i wsparcie dla podejmowania decyzji w złożonych kontekstach. Systemy ocen, rankingów, rekomendacji czy porównywarek to niezwykle przydatne narzędzia, które pomagają użytkownikom w podejmowaniu świadomych decyzji. Rozwiązania w zakresie profilowania, personalizacji czy kontekstualizacji pozwalają firmom skutecznie docierać do klientów z ukierunkowaną komunikacją, spersonalizowanymi ofertami i dopasowanymi usługami. Algorytmy przyczyniają się więc do tego, że zgłaszanie, filtrowanie, moderowanie czy usuwanie treści staje się wykonalne, przystępne, a także skuteczne. Algorytmy są więc niezbędne do zarządzania złożonością, niepewnością i wirusowością we współczesnych społeczeństwach.
Choć korzyści płynące z automatyzacji algorytmów są powszechnie znane, to jednocześnie znane i coraz bardziej zauważalne są również ich zagrożenia i niepożądane skutki dla społeczeństwa. Logika algorytmiczna może utrwalać wybór i preferencje; może radykalizować wypowiedzi, polaryzować opinię publiczną w komorach echa i silosach ideologicznych, zmniejszać różnorodność, poszerzać dyskryminujące uprzedzenia i rozszczepienia, standaryzować zachowania na podstawie stereotypów, prowadzić do nieprzejrzystych decyzji, które pozostawiają ofiary bezbronne, podsycać wiralność fałszywych wiadomości, naruszać wolność słowa lub zniekształcać wybór konsumentów za pomocą wprowadzających w błąd ocen, rankingów, ciemnych wzorców lub zaleceń.
Chociaż potencjalne korzyści i coraz szersze zastosowanie systemów algorytmicznych oraz ich ryzyko nie pozostały niezauważone w Unii Europejskiej, przepisy dotyczące procesów algorytmicznych są tak rozproszone w różnych aktach prawnych, że mają jedynie częściowy zakres i nie są zharmonizowane. Brakuje zatem spójnego, kompleksowego i globalnego zestawu zasad lub przepisów dotyczących zautomatyzowanych systemów podejmowania decyzji. W tym kontekście w maju 2022 r. Europejski Instytut Prawa (ELI) opublikował "Zasady przewodnie dotyczące zautomatyzowanego podejmowania decyzji w UE", których celem jest dostarczenie dalszych wskazówek dotyczących ustanowienia ram prawnych dla zautomatyzowanego podejmowania decyzji (ADM) w UE (dostępne tutaj). Wytyczne te zostały przygotowane przez prof. Teresę Rodríguez de las Heras Ballell (członek Komitetu Wykonawczego ELI; profesor Uniwersytetu Carlosa III w Madrycie) z udziałem członków ELI, a następnie przyjęte przez Radę ELI. Jest to drugi dokument ELI Innovation Paper opublikowany przez ELI od czasu uruchomienia w 2020 roku ELI Innovation Paper Series jako nowej przestrzeni dla członków ELI do proponowania pionierskich i innowacyjnych pomysłów. Pomysły, które zasługują na uwagę europejskiego środowiska prawniczego i mają na celu poprawę prawa europejskiego. Dokumenty dotyczące innowacji powinny zawierać konkretne propozycje dla zainteresowanych stron, takie jak projekty aktów prawnych, wzorcowe przepisy, zasady, listy kontrolne lub stanowiska. Więcej informacji na temat projektów ELI można znaleźć tutaj.
Wytyczne ADM stały się podstawą nowego projektu ELI dotyczącego kontraktów algorytmicznych (dostępne tutaj). Celem projektu jest po pierwsze ocena adekwatności obowiązującego prawa konsumenckiego UE w odniesieniu do stosowania ADM w umowach, a po drugie określenie luk, które należy wypełnić, oraz rozwiązań prawnych niezbędnych do ułatwienia zawierania autonomicznych umów w transakcjach B2B, B2C, P2P i M2M poprzez sformułowanie zasad przewodnich i wzorcowych przepisów dotyczących stosowania ADM na wszystkich etapach umów, od ich zawarcia do wykonania.
Niniejszy blog ma na celu przedstawienie najistotniejszych propozycji zawartych w Księdze Innowacji ELI oraz zwrócenie uwagi na niektóre z głównych zasad przewodnich.
Zakres wytycznych: co to jest system zautomatyzowanego podejmowania decyzji (ADM)?
Mimo że automatyzacja przenika do prawodawstwa UE, zwłaszcza do najnowszych inicjatyw, nie istnieje ani jednolita koncepcja, ani ujednolicona terminologia pozwalająca opisać szeroką gamę zautomatyzowanych procesów (algorytmiczne scoringi, algorytmiczne podejmowanie decyzji, algorytmiczne systemy rekomendacji, algorytmiczne moderowanie treści, zautomatyzowane profilowanie, czy też różnorodne działania i czynności wykonywane w sposób zautomatyzowany). Systemy sztucznej inteligencji (AI)" zostały zdefiniowane w kontekście wniosku legislacyjnego UE w sprawie AI (AI Act).
W związku z tym w ramach Referatu Innowacji ELI podjęto dwie decyzje. Po pierwsze, użycie terminu "ADM" (automated decision making) obejmuje zarówno algorytmiczne, jak i oparte na AI podejmowanie decyzji. Po drugie, ADM definiuje się jako "proces (komputerowy), obejmujący techniki i podejścia AI, który zasilany przez wejścia i dane otrzymane lub zebrane z otoczenia, może generować, biorąc pod uwagę zestaw predefiniowanych celów, wyjścia w szerokim zakresie form (treści, oceny, rekomendacje, decyzje, przewidywania itp.) Definicja ADM jest zatem w dużej mierze zbieżna z definicją algorytmicznego podejmowania decyzji zaproponowaną w art. 2 wzorcowych zasad ELI dotyczących oceny wpływu algorytmicznych systemów podejmowania decyzji stosowanych przez administrację publiczną (dostępnych tutaj).
Z definicji ADM łatwo zauważyć, że ADM może produkować lub dostarczać niezliczoną ilość wyników, od zwykłej oceny do decyzji kredytowej, od rekomendacji filmu do zlecenia pracy, od oszacowania składki ubezpieczeniowej do decyzji o usunięciu nielegalnych treści cyfrowych. Różnorodność wyników jest ogromna. Tym samym wynikające z tego konsekwencje prawne oraz reżimy prawne mające zastosowanie do broni masowego rażenia różnią się i są potencjalnie liczne i zróżnicowane. Czasami decyzja (wyjście) ADM (ocena, ranking, predykcja, rekomendacja) jest "wejściem", warunkiem koniecznym do podjęcia kolejnej decyzji przez osobę wchodzącą w interakcję z ADM - co kupić, gdzie się zatrzymać, jaki przedmiot wybrać, z kim się dogadać? Zdarza się, że BMR wywołuje skutki prawne dla konkretnej osoby, w istotny sposób wpływa na jej prawa, status prawny lub umowny, albo po prostu na jej interesy. Dana osoba jest wybierana lub odrzucana, klasyfikowana, nagradzana, degradowana, wydalana z platformy, zwalniana lub w jakiś sposób bezpośrednio dotknięta decyzją.
Po określeniu zakresu, a przed zagłębieniem się w same zasady przewodnie, na uwagę zasługują inne pojęcia użyte w dokumencie ELI Innovation Paper. Po pierwsze, operatorem jest osoba, która zatrudnia, wdraża lub używa BMR w ramach działalności zawodowej lub handlowej. Operatorem jest osoba, która kontroluje ryzyko związane z BMR i która czerpie z niego korzyści w odniesieniu do konkretnej działalności. Tym samym Wytyczne podążają za propozycją zawartą w raporcie Grupy Ekspertów ds. Odpowiedzialności i Nowych Technologii dotyczącym odpowiedzialności za sztuczną inteligencję i inne pojawiające się technologie cyfrowe (tutaj). Po drugie, osoba poszkodowana to osoba fizyczna lub prawna, która wchodzi w interakcję z ADM, albo osoba, której dotyczy ostateczna decyzja, albo osoba, która wykorzystuje wyniki ADM (przewidywania, rekomendacje, oceny, rankingi) lub opiera się na nich w kolejnych celach, w tym przy podejmowaniu kolejnych decyzji. Wreszcie, oprócz osoby poszkodowanej , na skutek działania BMR mogą ucierpieć również osoby trzecie. Jeśli ADM szereguje, wymienia, punktuje lub rekomenduje, osoby trzecie są pozytywnie lub negatywnie dotknięte przez proces i wynik. Poprzez obniżenie oceny, brak rekomendacji, obniżenie oceny lub brak wpisu na listę, strony trzecie mogą ponieść niepożądane konsekwencje dla ich pozycji konkurencyjnej, udziału w rynku lub możliwości utrzymania klientów. Podobnie dostawcy - w tym twórcy oprogramowania, projektanci i inni dostawcy zaangażowani w rozwój, projektowanie i dostawy BMR - importerzy lub dystrybutorzy BMR, tacy jak ci, którzy opracowują, wprowadzają do obrotu, importują lub rozprowadzają tę broń, są również podmiotami właściwymi dla części wytycznych.
Przegląd niektórych wytycznych dotyczących BMR
Dokument dotyczący innowacji ELI zawiera zestaw 12 zasad przewodnich: ADM zgodnie z prawem; niedyskryminacja ADM; system przypisywania decyzji podejmowanych przez ADM; wymóg ujawniania faktu, że podejmowanie decyzji jest zautomatyzowane; wymóg możliwości śledzenia decyzji; wymóg uzasadniania decyzji ; przypisanie ryzyka operatorowi; wymóg braku ograniczeń w korzystaniu z praw i dostępu do wymiaru sprawiedliwości; nadzór ze strony człowieka; przegląd istotnych decyzji przez człowieka; odpowiedzialność za BMR; podejście do BMR oparte na ryzyku.
Przestrzeganie prawa jest pierwszą z Zasad Przewodnich. Wymóg, by projekt i działanie BMR były zgodne z obowiązującym prawem, wydaje się zasadą podstawową i domyślną. Niemniej jednak zasadnicze znaczenie ma to, aby podmiot, który decyduje się na wykorzystanie BMR do określonego celu, zapewnił, że projekt i działanie BMR są zgodne z przepisami mającymi zastosowanie do równoważnego niezautomatyzowanego systemu podejmowania decyzji, w celu promowania automatyzacji bez uszczerbku dla ochrony danych interesów i praw. Wymóg zgodności z prawem uzasadnia druga Zasada Przewodnia, która postuluje, aby zautomatyzowanej decyzji nie odmawiano skuteczności prawnej, ważności lub wykonalności wyłącznie na podstawie tego, że jest zautomatyzowana. Wytyczne przewidują zatem elastyczny i ewoluujący system prawny dla ADM, nie wymagając od prawa szczególnego uznania każdego nowego użycia lub zastosowania automatyzacji.
Wytyczne 3 i 7 są narzędziami przypisywania skutków i ryzyka: zarówno skutki prawne, jak i ryzyko są w ten sposób przypisywane operatorowi. Operator ten jest tym, który kontroluje system ADM i czerpie korzyści z jego użytkowania.
W celu przeciwdziałania nieprzejrzystości, złożoności i otwartości systemów ADM (w tym systemów AI), a tym samym złagodzenia ich skutków dla osoby dotkniętej problemem, w wytycznych określono pewne wymogi: ujawnienie faktu, że decyzja jest podejmowana w sposób zautomatyzowany, chyba że jest to oczywiste lub prawo to wyłącza (P 4); projekt i działanie ADM muszą umożliwiać śledzenie każdej decyzji (P 5); musi istnieć rozsądna i proporcjonalna kontrola ludzka nad działaniem ADM, z uwzględnieniem występującego ryzyka oraz praw i uzasadnionych interesów, na które ta decyzja może mieć wpływ (P 9) ; i wreszcie, musi istnieć przepis umożliwiający człowiekowi kontrolę ważnych decyzji wybranych na podstawie znaczenia skutków prawnych, nieodwracalności ich konsekwencji lub wagi wpływu na uzasadnione prawa i interesy. Wszystkie te wymagania muszą być realizowane przez operatora (P10).
Uznając znaczący wpływ społeczny, jaki może mieć automatyzacja, Zasady wzywają do odpowiedzialnego stosowania BMR. Zgodnie z P11, operatorzy powinni uznać potencjalny wpływ używanych przez nich systemów ADM na kontekst społeczno-gospodarczy (wartości demokratyczne, podstawowe prawa i wolności, godność ludzką, spójność społeczną itp.) oraz zachować należytą staranność, aby używać systemów ADM w sposób odpowiedzialny (P11).
Celem wytycznych jest zatem dostarczenie wskazówek organom regulacyjnym i ustawodawczym, praktykom i pracownikom naukowym, aby zwiększyć przewidywalność użycia broni masowego rażenia.
Prof. Teresa Rodríguez de las Heras Ballell, członek Komitetu Wykonawczego ELIProfesor
na Uniwersytecie Carlosa III w Madrycie
Share :
- Drukuj
- Kieszeń
WordPress:
Podoba mi się. ładowanie...Warto przeczytać
- 11 sierpnia 2023
Cyberprzestępczość będzie jutro w centrum naszego codziennego życia. Jak wiele ataków komputerowych zostało ujawnionych, a sieci internetowe zlikwidowane, abyśmy byli tego...
Czytaj dalej- 21 lipca 2023
Książka autorstwa Catherine Warin (doktor prawa, członek luksemburskiej palestry, członek zespołu blogdroiteuropéen) Prawa jednostki w prawie Unii Europejskiej. Studium...
Czytaj dalej