Sztuczna inteligencja – niezbędnik część 3
W dzisiejszym, trzecim już, wpisie dotyczącym sztucznej inteligencji zajmiemy się przedstawieniem perspektyw związanych z postulowanymi i projektowanymi zmianami prawnymi. Zmiany wprowadzane w nasze życie przez sztuczną inteligencję wymykają się coraz częściej, powstałym na długo wcześniej, regulacjom prawnym i wymagają zajęcia się nimi przez prawodawców. Próby uregulowania sztucznej inteligencji prowadzone są w wielu krajach świata. Z naszej perspektywy najistotniejsze są działania Unii Europejskiej w tym zakresie.
Aktualnie trwają pracę nad propozycją kompleksowej horyzontalnej regulacji AI (artificial intelligence) na poziomie UE. W lutym 2020 roku Komisja Europejska opublikowała białą księgę dotyczącą europejskiego podejścia do sztucznej inteligencji, zawierającą omówienie wyzwań i ich możliwych rozwiązań. Księga była otwarta do publicznej konsultacji, w której wzięli udział obywatele UE, państwa członkowskie, organizacje pozarządowe, przedstawiciele przemysłu oraz naukowcy. Na 21 kwietnia 2021 roku zaplanowane było, opóźnione o około miesiąc wobec pierwotnego harmonogramu, przedstawienie podsumowania dalszych działań związanych z białą księgą. Oczekiwane jest przedstawienie konkretnych propozycji legislacyjnych. Jak mówi Roberto Viola, Dyrektor Generalny ds. Sieci Komunikacyjnych, Treści i Technologii Komisji Europejskiej, mają one zawierać wspólną definicję sztucznej inteligencji oraz zasady odpowiedzialności za działania z nią związane. Odmiennie może wyglądać regulacja technologii niskiego oraz wysokiego ryzyka. Podział ten został przedstawiony w białej księdze i, jak się wydaje, zdobył uznanie Komisji Europejskiej. Za technologie wysokiego ryzyka uznawane są te wykorzystywane w ochronie zdrowia, transporcie, działalności policji, rekrutacji pracowników oraz w systemach prawnych, a także technologie, których wykorzystanie wiąże się z ryzykiem śmierci, obrażeń lub spowodowaniem szkody. Dość pewnym kandydatem do uznania za technologię wysokiego ryzyka mogą być na przykład samochody autonomiczne. Pomimo, że są one już dziś bardzo zaawansowane technologicznie i zapewniają wysoki poziom bezpieczeństwa, nie sposób całkowicie uniknąć ryzyka wypadku, a to wiąże się z koniecznością ustalenia reżimu odpowiedzialności za potencjalne szkody. Ponadto, trwają także prace nad regulacją częstotliwości radiowych wykorzystywanych do komunikacji urządzeń połączonych w ramach Internetu Rzeczy (IoT).
Komisja Europejska w strategii dotyczącej sztucznej inteligencji wyznaczyła trzy cele. Po pierwszy umieszczenie Europy na czele rozwoju technologicznego i promocja wykorzystanie AI zarówno przez podmioty publiczne jak i prywatne. Po drugie, przygotowanie na społeczno-gospodarcze zmiany powodowane przez rozwój sztucznej inteligencji. Po trzecie, zapewnienie właściwych ram etycznych oraz prawnych. Komisja Europejska zamierza podjąć działania, które przyspieszą rozwój technologiczny oraz ułatwią współpracę między państwami i zwiększą poziom inwestycji w dziedzinie sztucznej inteligencji.
W styczniu 2021 roku kilkadziesiąt organizacji pozarządowych zajmujących się ochroną praw człowieka, między innymi Fundacja Panoptykon, Amnesty International czy Human Rights Watch, opublikowało wspólny list wzywający Komisję Europejską do zapewnienia, aby regulacja sztucznej inteligencji zabezpieczała podstawowe prawa i wolności UE. Wskazują między innymi na zagrożenia związane z rozpoznawaniem twarzy opartym na uczeniu maszynowym i możliwym naruszeniem prywatności bądź jego nieetycznym wykorzystaniem. Zwracają uwagę na badania, pokazujące, że dotychczasowe technologie lepiej radziły sobie z rozpoznawaniem twarzy białych mężczyzn niż kobiet lub osób nie-białych, co może narażać je na wyższe ryzyko niewłaściwej identyfikacji. Wskazują także na ryzyka jakie są związane z wykorzystaniem sztucznej inteligencji w celu kontroli imigracji, przyznawania świadczeń socjalnych czy w postępowaniach karnych.
Ciekawym przykładem takiego ryzykownego zastosowania jest sprawa programu SyRI, wykorzystywanego przez rząd Niderlandów do określania prawdopodobieństwa z jakim dana osoba może popełnić oszustwo podatkowe lub oszustwo związane z kwalifikacją do przyznania świadczeń społecznych. W lutym 2020 roku sąd w Hadze nakazał zaprzestanie wykorzystania programu wskazując na brak przejrzystości dotyczący funkcjonowania programu i tego, na podstawie jakich kryteriów typował osoby, które powinny zostać poddane kontroli. Skutkiem braku przejrzystości była możliwość dyskryminacji, a także pozbawienie stron postępowania możliwości skutecznego odwołania od decyzji o wszczęciu kontroli.
Skala wyzwań jakie stoją dziś przed Komisją Europejska jest ogromna. Proponowana regulacja musi sprostać realizacji tak różnorodnych celów jak wsparcie rozwoju nowych technologii i zwiększenie poziomu inwestycji, opracowanie zasad odpowiedzialności za działania związane z wykorzystaniem sztucznej inteligencji czy zapobieganie zastosowaniom AI, które mogą wiązać się z naruszeniem praw człowieka. Z niecierpliwością czekamy na 21 kwietnia, aby poznać dalsze działania Komisji i z pewnością będziemy o nich informować.
Zobacz też:
Wyrok ws. podobieństwa znaków towarowych
W wyroku z 27 listopada 2024 r. w sprawie T‑509/23, Sąd badał podobieństwo pomiędzy graficznym znakiem towarowym przedstawiającym dużą literę „V”, a graficznym znakiem towarowym Giorgio Armani przedstawiającym stylizowanego orła z rozłożonymi skrzydłami. 29 grudnia...
Wyrok TSUE dotyczący opłaty reprograficznej
Opłata reprograficzna stanowi opłatę nałożoną na podmioty zapewniające dostęp do urządzeń, które umożliwiają zwielokrotnianie utworów w ramach dozwolonego prywatnego użytku, jako wynagrodzenie za korzystanie z utworów. Takimi urządzeniami są przede wszystkim...
Wyrok ws. unieważnienia trójwymiarowego znaku towarowego
W wyroku z 13 listopada 2024 r. w sprawie T-524/23, Sąd rozpatrywał sprawę dotyczącą unieważnienia trójwymiarowego znaku towarowego przedstawiającego inhalator. Znak towarowy został zgłoszony 16 lipca 1999 r. przez niemiecką spółkę Boehringer Ingelheim Pharma GmbH...