AKTUALNOŚCI

Projekt Dyrektywy UE w sprawie odpowiedzialności za sztuczną inteligencję

03.08.2023 | News, PL

Projekt Dyrektywy UE w sprawie odpowiedzialności za sztuczną inteligencję

sie 3, 2023

Głównym celem Dyrektywy jest ułatwienie dochodzenia roszczeń w przypadku wystąpienia szkody spowodowanej przez AI. Będzie dotyczyło to osób, które poniosły szkodę spowodowaną wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli należało go uzyskać. Przepisy będą miały zastosowanie wyłącznie do odpowiedzialności pozaumownej.

Jak wskazano w uzasadnieniu projektu, w większości państw członkowskich klasyczna odpowiedzialność deliktowa oparta jest na zasadzie winy. Oznacza to, że poszkodowany, w sytuacji szkody pozaumownej, co do zasady musi udowodnić:

  • bezprawne działanie lub zaniechanie osoby wywołujące szkodę;
  • winę;
  • wysokość szkody;
  • zaistnienie związku przyczynowo–skutkowego.

W przypadku wystąpienia szkody spowodowanej przez AI dodatkową trudnością będzie zidentyfikowanie osoby, która powinna ponieść odpowiedzialność. Ponadto, w sprawach związanych ze sztuczną inteligencją, sądy poszczególnych państw członkowskich będą dokonywać wykładni krajowych przepisów dotyczących odpowiedzialności cywilnej, co może utrudniać zapewnienie jednolitych standardów ochrony w UE. Z tego względu konieczne jest ujednolicenie przepisów na szczeblu unijnym.

Rozwiązania wprowadzane przez dyrektywę

Swoim zakresem, dyrektywa obejmuje roszczenia z tytułu odpowiedzialności wynikającej z winy jakiejkolwiek osoby (odpowiedzialnym może być zarówno dostawca jak i użytkownik technologii wykorzystującej AI – oba pojęcia zostały zdefiniowane w art. 3 tzw. AI Act). Dochodzenie odpowiedzialności od tych osób ma zostać ułatwione przez:

1. złagodzenie wymogów związanych z ciężarem dowodu;

  • Zgodnie z art. 4 ust. 1 dyrektywy – wprowadzone zostanie domniemanie wzruszalne wystąpienia związku przyczynowo – skutkowego między niedopełnieniem obowiązków a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez system sztucznej inteligencji wyniku, co doprowadziło do powstania szkody.
  • Jednakże, aby doszło do zaistnienia takiego domniemania: 1) powód musi wykazać winę pozwanego lub osoby, za której zachowanie pozwany ponosi odpowiedzialność; 2) można uznać, że istnieje uzasadnione prawdopodobieństwo, że wina wpłynęła na wynik uzyskany przez system sztucznej inteligencji; 3) powód wykazał, że szkoda została spowodowana wynikiem uzyskanym (lub który miał być uzyskany) przez system sztucznej inteligencji.
  • Ponadto, należy zaznaczyć, że zgodnie z dyrektywą, wykazanie winy polega na wykazaniu nieprzestrzegania obowiązku dochowania należytej staranności określonego w prawie Unii lub w prawie krajowym, bezpośrednio służącego ochronie przed zaistniałą szkodą.
  •  

Podsumowując, oznacza to, że jeśli poszkodowana osoba jest w stanie wykazać winę wobec osoby, która nie dochowała należytej staranności, to sąd sam może założyć, że niedopełnienie danego obowiązku było przyczyną szkody. Warunkiem jest tylko to, aby związek przyczynowo–skutkowy był racjonalnie prawdopodobny. Domniemanie jest wzruszalne co oznacza, że druga strona może je obalić przeciwdowodem.

2. osoby dochodzące odszkodowania będą miały możliwość uzyskania informacji na temat systemów sztucznej inteligencji wysokiego ryzyka, które mają być rejestrowane/dokumentowane zgodnie z aktem w sprawie AI.

  • Oznacza to, że sąd może nakazać ujawnienie odpowiednich dowodów dotyczących konkretnych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę.
  • Co istotne – sąd może zarządzić ujawnienie tylko w ograniczonym zakresie tj. wyłącznie w zakresie niezbędnym do uzasadnienia roszczenia.
  • W przypadku, gdy pozwany nie zastosuje się do nakazu ujawnienia dowodów sąd domniemywa, że pozwany nie zastosował się do obowiązku dochowania należytej staranności. Oznacza to, że sąd domniemywa winę pozwanego.

W celu ilustracji powyższej regulacji, nowe przepisy mogą okazać się przydatne w takich sytuacjach jak np.:

  • doświadczenie dyskryminacji w procesie rekrutacji przeprowadzanym przy użyciu AI (na stanowisko pracy czy w rekrutacji do szkoły/na uczelnię);
  • spowodowanie szkody przez autonomiczne pojazdy korzystające z AI, które nieprawidłowo zinterpretowały sytuację drogową;
  • zniszczenie mienia przez drony sterowane AI, które upuściły przewożoną paczkę co doprowadziło np. do uszkodzenia samochodu.

Podsumowanie

Dyrektywa zmierza do zwiększenia pewności prawa i zapewnienia spójności z innymi aktami prawnymi UE, przede wszystkim AI ACT. Ma prowadzić do uproszczenia postępowania, a w związku z tym ułatwić poszkodowanym dochodzenie ochrony w przypadku szkód wywołanych działaniem sztucznej inteligencji. Nowe przepisy będą dotyczyć szkód, które powstały po implementacji dyrektywy do porządków krajowych.

Co istotne, dyrektywa nie będzie zawierać przepisów karnych.

Termin na przyjęcie niezbędnych środków transpozycji zgodnie z projektem ma wynieść dwa lata od dnia wejścia w życie dyrektywy.

Warto również zaznaczyć, że państwa członkowskie mogą przyjąć lub utrzymać w mocy przepisy krajowe, które są korzystniejsze dla powodów w zakresie uzasadniania pozaumownego cywilnoprawnego roszczenia odszkodowawczego z tytułu szkody spowodowanej przez system sztucznej inteligencji, pod warunkiem, że takie przepisy są zgodne z prawem Unii.

Pełny tekst projektu Dyrektywy na stronie: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496

Zobacz też:

Długo wyczekiwany AI Act przyjęty przez Parlament Europejski

  Uchwalenie AI ACT 13 marca 2024 r. Parlament Europejski przyjął Akt w sprawie sztucznej inteligencji (tzw. AI Act), stanowiący od dłuższego czasu istotny obiekt uwagi wielu firm technologicznych. Za przyjęciem AI Act zagłosowała znaczna większość...

Kontakt

Zapraszamy do kontaktu lub wizyty w naszej kancelarii

Warszawa

ul. Sobieszyńska 35,
00-764 Warszawa
tel. +48 664 948 372

Formularz kontaktowy

4 + 6 =