Pojęcie sztucznej inteligencji nie stanowi w obecnych czasach terminu obcego – od roku 1953, kiedy to John McCarthy użył po raz pierwszy tego wyrażenia na konferencji w Dartmouth, pojęcie to stanowi nieodłączny element otaczającej nas rzeczywistości począwszy od literatury, poprzez motoryzację na kinematografii skończywszy. W dobie czwartej rewolucji przemysłowej sztuczna inteligencja stała się nieodzownym elementem postępu technologicznego, bez którego nie do pomyślenia byłby dalszy rozwój wszelkiego rodzaju współczesnych technologii.
Mając na uwadze coraz powszechniejszy wpływ sztucznej inteligencji na praktycznie wszelkie aspekty codziennego życia nasuwa się pytanie dotyczące potencjalnych zagrożeń związanych z jej wykorzystywaniem. W tym aspekcie kluczowymi kwestiami są zagrożenia powstałe w związku z wykorzystywaniem SI a przede wszystkim odpowiedzialność cywilna za szkody wyrządzone przez sztuczną inteligencję.
Wskazać należy, iż dotychczasowe przepisy unijne nie regulują kwestii odpowiedzialności za szkody wyrządzone przez systemy sztucznej inteligencji, natomiast propozycje w tym zakresie znajdują się natomiast we wniosku dotyczącym Rozporządzenia Parlamentu Europejskiego i Rady w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji z dnia 05.10.2020 r. (link). Wskazane regulacje w sposób jednoznaczny wskazują na zakres odpowiedzialności za wykorzystywanie systemów SI i odpowiadają na podstawowe w tym zakresie pytania, tj. kto dokładnie kontroluje ryzyko związane z wykorzystywaniem danego systemu sztucznej inteligencji, które dane wejściowe bądź kod źródłowy doprowadził do powstania szkody oraz jak wykazać występowanie związku przyczynowo-skutkowego między danych zachowaniem i związaną z nim szkodą.
Spis treści
Pojęcie sztucznej inteligencji na gruncie rozporządzenia
Przedmiotowe rozporządzenie w art. 3 pkt. a definiuje jako sztuczną inteligencję „system, który opiera się na oprogramowaniu albo jest wbudowany w urządzenia, wykazuje się zachowaniem symulującym inteligencję m.in. w oparciu o gromadzenie i przetwarzanie danych, analizowanie i wyciąganie wniosków dotyczących otoczenia oraz podejmuje działania w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele.”
Wraz z wprowadzeniem przedmiotowej definicji legalnej oraz zdefiniowania pojęć takich jak autonomiczność, operator, poszkodowany, szkoda czy producent powstały podwaliny systemu pozwalającego dokładne określenie nie tylko podmiotu odpowiedzialnego za szkodę powstałą w związku z wykorzystywaniem SI, ale również określenie zakresu tejże odpowiedzialności.
Podmioty odpowiedzialne za szkody wyrządzone przez sztuczną inteligencję
Projekt rozporządzenia wskazuje, iż podmiotem odpowiedzialnym za szkodę może być człowiek bądź osoba prawna. Oznacza to zatem rezygnację – przynajmniej na tym etapie – z ustanowienia wspomnianej wcześniej „cyfrowej tożsamości”, tj. odrębnej osobowości prawnej dla systemu SI.
Odnosząc się do podmiotów ponoszących odpowiedzialność rozporządzenie wyróżnia operatora oraz producenta. Jako operatora określa zarówno osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z działaniem systemu sztucznej inteligencji i czerpie korzyści z jego działania (tzw. „operator front-end”), jak również osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem też sprawuje pewną kontrolę nad ryzykiem związanym z działaniem systemu SI (tzw. „operator beck-end”). Producentem jest natomiast podmiot odpowiadający definicji producenta w myśl art. 3 Dyrektywy Rady 85/374/EWG tj. producenta produktu gotowego, producenta każdego surowca lub producenta części składowej i każdą osobę, która przedstawia się jako producent umieszczając swą nazwę, znak handlowy lub inną wyróżniającą cechę na produkcie.
Zakres odpowiedzialności oraz zakres stosowania
Sam zakres odpowiedzialności został zdefiniowany 2 ust. 1, jak również art. 3 pkt. 1 i obejmuje zgodnie negatywny wpływ na życie, zdrowie i nienaruszalność cielesną osoby fizycznej, na własność osoby fizycznej lub prawnej albo negatywny wpływ powodujący poważną szkodę niematerialną skutkującą możliwą do zweryfikowania stratą ekonomiczną. Odpowiedzialność nie będzie natomiast obejmowała roszczeń z zakresu ochrony dóbr osobistych, prawa ochrony konsumentów, prawa antydyskryminacyjnego, czy też ochrony danych osobowych.
Co ważne – wysunięcie roszczeń na podstawie przedmiotowego rozporządzenia nie ogranicza podmiotu poszkodowanego w myśl art. 3 pkt. h do dodatkowych roszczeń z tytułu odpowiedzialności, wynikających ze stosunków umownych oraz regulacji dotyczących odpowiedzialności za produkt, ochrony konsumentów, niedyskryminacji, ochrony pracy i środowiska między operatorem a osobą fizyczną lub prawną poszkodowaną w wyniku działania systemu sztucznej inteligencji (art. 2 ust. 3).
Jako podmiot poszkodowany rozporządzenie definiuje każdą osobę, która ucierpiała lub odniosła szkodę na skutek fizycznego lub wirtualnego działania, urządzenia lub procesu wykorzystującego system sztucznej inteligencji. Poszkodowanym może być zatem zarówno osoba fizyczna, jak również podmiot posiadający osobowość prawną przy czym poszkodowanym – w myśl przepisów – nie może być sam operator.
Podkreślić należy, że postanowienia rozporządzenia znajdują zastosowanie na terytorium Unii Europejskiej w zakresie obejmującym fizyczne oraz wirtualne działanie zarówno samego systemu sztucznej inteligencji, jak również działanie urządzenia wykorzystującego taki system lub fizyczny bądź wirtualny proces oparty na systemie SI. Zatem ujęty zakres jest bardzo szeroki i dotyczy praktycznie każdego aspektu związanego z działalnością SI. Co więcej – nie ma znaczenia, skąd pochodzi operator systemu SI.
Postanowienia rozporządzenia mają ponadto charakter bezwzględnie obowiązujący – wszelkie regulacje mające na celu ograniczenie praw bądź obowiązków określonych w rozporządzeniu są z mocy prawa nieważne. Odnosi się to do postanowień uzgodnionych zarówno przed, jak i po wystąpieniu szkody.
Zasady odpowiedzialności
Odpowiedzialność na zasadzie ryzyka
Sam projekt przewiduje dwa typy odpowiedzialności cywilnej – pierwszy rodzaj odpowiedzialności został oparty o zasadę ryzyka (tzn. brak możliwości zwolnienia się z odpowiedzialności za wyrządzoną szkodę poprzez wykazanie braku winy) i odnosi się wprost do podmiotów wdrażających tzw. systemy wysokiego ryzyka.
Pojęcie to zdefiniowane zostało w art. 3 lit. jako znacząca potencjalna możliwość wyrządzenia przez autonomicznie działający system sztucznej inteligencji losowo występujących szkód jednej osobie lub większej liczbie osób w taki sposób, że wykracza to poza okoliczności, jakich można by racjonalnie oczekiwać; znaczenie tego potencjału zależy od wzajemnego powiązania między powagą ewentualnej szkody, stopniem autonomiczności w podejmowaniu decyzji, prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi, oraz sposobem i kontekstem użycia systemu sztucznej inteligencji.
Sam projekt zawiera katalog, w którym wyszczególnione są systemy wysokiego ryzyka, które wiążą się m.in. z infrastrukturą krytyczną (np. transportem) powodującą zagrożenie dla życia i zdrowia obywateli, pojazdami autonomicznymi o poziomach 4 i 5, elementami bezpieczeństwa produktów (np. zastosowaniem sztucznej inteligencji w chirurgii wspomaganej robotami), bezzałogowymi statkami powietrznymi, czy też autonomicznymi systemami zarządzania ruchem.
Wyłączenie odpowiedzialności operatora może nastąpić wyłącznie w przypadku wystąpienia szkody spowodowanej działaniem siły wyższej, własnym postępowaniem podmiotu poszkodowanego oraz czynnościami osoby trzeciej.
W przypadku występowania dwóch bądź większej ilości operatorów (np. z operatorem front-end i back-end) ich odpowiedzialność wobec podmiotu poszkodowanego jest solidarna. Oznacza to uprawnienie podmiotu poszkodowanego do wyboru operatora, do którego skierowane zostaną roszczenia o naprawienie szkody.
Samym operatorom natomiast – ponoszącym odpowiedzialność solidarną – przysługuje prawo do proporcjonalnego regresu wobec siebie. Proporcje odpowiedzialności zostają w takim przypadku ustalone w oparciu o odpowiedni stopień kontroli nad ryzykiem związanym z funkcjonowaniem oraz obsługą systemu sztucznej inteligencji. Oznacza to konieczność ustalenia we wzajemnych relacjach operatorów precyzyjnych warunków kontroli SI, które w przypadku zaistnienia szkody pozwolą w sposób dokładny określić stopień odpowiedzialności i związaną z tym wysokość odszkodowania.
Odpowiedzialność na zasadzie winy
Drugi rodzaj odpowiedzialności cywilnej oparty został o wspomnianą już wcześniej zasadę winy. Art. 8 ust. 1 rozporządzenia wskazuje, że odpowiedzialność na zasadzie winy obejmuje wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie tego systemu sztucznej inteligencji, działanie urządzenia sterowanego tym systemem lub wskutek procesu opartego na tym systemie. Oznacza to, iż ten rodzaj odpowiedzialności odnosi się do szkód wyrządzonych działaniem systemów sztucznej inteligencji innych niż systemy wysokiego ryzyka i oznacza, że operator ponosi winę w wystąpieniu zdarzenia wywołującego szkodę.
Zwolnienie operatora z odpowiedzialności na zasadzie winy nastąpi zatem jedynie w przypadku wykazania przez podmiot odpowiedzialny, że szkoda nastąpiła w wyniku działania siły wyższej. Mając na uwadze zakres regulacji wskazać jednak trzeba, iż odpowiedzialność operatora zostanie wyłączona również w przypadku wykazania powstania szkody w wyniku ingerencji osoby trzeciej bądź działalności samego poszkodowanego.
Także uruchomienie systemu sztucznej inteligencji przez osobę trzecią bez wymaganej zgody – w przypadku dochowania należytej staranności bądź podjęcia rozsądnych środków zapobiegawczych – uzasadnia wyłączenie odpowiedzialności operatora. Okolicznością wyłączającą odpowiedzialność na zasadzie winy jest ponadto dochowanie należytej staranności poprzez wykonanie łącznie działań polegających na:
=> dobraniu odpowiedniego systemu sztucznej inteligencji do danego zadania i umiejętności,
=> odpowiedniego uruchomienia systemu SI,
=> prowadzenia nadzoru działania i utrzymania systemu SI w dobrym stanie poprzez regularną instalację dostępnych aktualizacji.
Niezależnie od przesłanek egzoneracyjnych, rozporządzenie obarcza operatora odpowiedzialnością odszkodowawczą w przypadkach powstania szkody w wyniku działalności strony trzeciej, która zaingerowała w działanie systemu sztucznej inteligencji przez modyfikację jego funkcjonowania lub skutków, ale nie można ustalić miejsca jej pobytu lub jest ona niewypłacalna. Taka regulacja ma na celu niejako zmuszenie operatorów do wprowadzenie i integracji odpowiednich zabezpieczeń systemu SI.
Również w przypadku powstania szkody w wyniku autonomicznego działania systemu sztucznej inteligencji, autonomicznego działania urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie operator nie jest zwolniony z odpowiedzialności.
Podobnie jak w przypadku odpowiedzialności na zasadzie ryzyka w przypadku występowania dwóch bądź większej ilości operatorów (np. z operatorem front-end i back-end) ich odpowiedzialność wobec podmiotu poszkodowanego jest solidarna, a samym operatorom przysługuje prawo do proporcjonalnego regresu, która także zostaje ustalone ustalone w oparciu o odpowiedni stopień kontroli nad ryzykiem związanym z funkcjonowaniem oraz obsługą systemu sztucznej inteligencji.
Zakres i kwoty odszkodowań
Odszkodowanie na zasadzie ryzyka
W przypadku stwierdzenia odpowiedzialności na zasadzie ryzyka operatora systemu sztucznej inteligencji obarczonego wysokim ryzykiem wysokość należnego podmiotowi poszkodowanemu odszkodowania wynosi:
=> w przypadku śmierci, uszczerbku na zdrowiu lub okaleczenia osoby – do kwoty 2 milionów euro,
=> w przypadku poważnej szkody niematerialnej skutkującej możliwą do zweryfikowania stratą ekonomiczną lub szkody majątkowej, w tym zniszczenia kilku przedmiotów należących do poszkodowanego w wyniku pojedynczego działania jednego systemu sztucznej inteligencji obarczonego wysokim ryzykiem – do kwoty jednego miliona euro przy, czym gdy na mocy zawartej umowy poszkodowany jest uprawniony również do wystąpienia z roszczeniem w stosunku do operatora nie wypłaca się odszkodowania, jeżeli całkowita wartość zniszczonego mienia lub poważnej szkody niematerialnej nie przekracza kwoty 500 euro.
Co ważne – w przypadku, gdy łączne odszkodowanie, które ma zostać wypłacone kilku poszkodowanym osobom w wyniku tego samego działania tego samego systemu sztucznej inteligencji obarczonego wysokim ryzykiem, przekracza w odniesieniu do wskazanych wyżej szkód kwoty maksymalne (tj. odpowiednio dwa lub jeden milion euro) kwoty wypłacane każdej z osób zostają proporcjonalnie zmniejszone, tak by łączna kwota odszkodowania nie przekroczyła wskazanych maksymalnych kwoty. Jest to regulacja dość kontrowersyjna – biorąc przykładowo pod uwagę sztuczną inteligencję sterującą samolotem pasażerskim bądź pociągiem należne odszkodowanie w przypadku katastrofy z dużą ilością ofiar może być czasami wręcz symboliczne.
Odszkodowanie za okaleczenie skutkujące śmiercią poszkodowanego jest wyliczane w oparciu o koszty leczenia, które podmiot poszkodowany poniósł przed śmiercią, oraz o szkody majątkowe poniesione przed śmiercią w związku z zaprzestaniem lub ograniczeniem możliwości zarobkowania lub wzrostem potrzeb w związku ze szkodami poniesionymi przed śmiercią. Operator – który w takim przypadku ponosi odpowiedzialność – zobowiązany jest ponadto zwrócić koszty pochówku poszkodowanego stronie, która poniosła te wydatki.
Ponadto odpowiedzialność operatora obejmuje również utrzymanie strony trzeciej w przypadku, gdy poszkodowany pozostawał z nią w związku i był prawnie zobowiązany do jej utrzymywania. Odpowiedzialność obejmuje utrzymanie w takim zakresie, w jakim do ponoszenia tych kosztów byłby zobowiązany poszkodowany, przez okres odpowiadający średniej długości życia osoby w tym wieku i w podobnym stanie. Operator pokrywa również koszty utrzymania strony trzeciej, jeżeli w momencie zdarzenia została ona już poczęta, ale jeszcze się nie narodziła.
Natomiast odszkodowanie za uszczerbek na zdrowiu lub okaleczenie poszkodowanego, obejmuje zwrot kosztów związanego ze szkodą leczenia, jak również zwrot kosztów szkód materialnych, które poszkodowany poniósł w wyniku czasowego zawieszenia, ograniczenia lub całkowitego ustania możliwości zarobkowania lub wynikającego z poniesionych szkód, potwierdzonego orzeczeniem lekarskim wzrostu potrzeb.
Odszkodowanie na zasadzie winy
Wysokość oraz zakres odszkodowania należnego z tyt. odpowiedzialności na zasadzie winy regulowane są przepisami państwa członkowskiego, w którym powstała szkoda. Oznacza to, iż w przypadku wejścia w życie ww. regulacji odpowiedzialność kształtowałaby się na podstawie art. 415 k.c. i nast.
Przedawnienie oraz obowiązek ubezpieczenia OC
Proponowane w rozporządzeniu regulacje przewidują, że roszczenia z tytułu odpowiedzialności cywilnej za szkody powstałe w wyniku działania SI wysokiego ryzyka związane ze śmiercią, uszczerbkiem na zdrowiu lub kalectwem przedawniają się z upływem 30 lat od daty powstania szkody.
W przypadku szkód majątkowych lub poważnych szkód niematerialnych skutkujących możliwą do zweryfikowania stratą ekonomiczną przedawnienie wynosi natomiast:
=> 10 lat od daty powstania szkody majątkowej lub możliwej do zweryfikowania straty ekonomicznej wynikającej z poważnej szkody niematerialnej albo
=> 30 lat od daty przeprowadzenia operacji z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem, która doprowadziła do zniszczenia własności poszkodowanego lub do poważnej szkody niematerialnej.
Regulacje rozporządzenia nie odnoszą się do okresu przedawnienia w przypadkach szkód powstałych w wyniku działania SI innego niż wysokiego ryzyka – należy zatem przyjąć, iż w takim przypadku zastosowanie znajdą przepisy poszczególnych krajów członkowskich w zakresie przedawnienia roszczeń odszkodowawczych.
Podobnie sytuacja kształtuje się w przypadku zawieszenia lub przerwania okresu przedawnienia – tutaj również zastosowanie znajdą przepisy poszczególnych krajów członkowskich Unii Europejskiej.
Zgodnie z zapisami rozporządzenia operatorzy systemów sztucznej inteligencji zakwalifikowanej jako SI wysokiego ryzyka będą zobowiązani posiadać obowiązkowe ubezpieczeniu od odpowiedzialności cywilnej (OC) do wysokości wskazanego w rozporządzeniu odszkodowania tj. odpowiednio dwóch i jednego miliona euro. Oznacza to konieczność przeprowadzenia przez operatorów SI dokładnej analizy w celu ewentualnego wykupienia odpowiedniej polisy ubezpieczeniowej.
Podsumowanie
Podsumowując kwestie odpowiedzialności cywilnoprawnej za szkody wyrządzone przez systemy sztucznej inteligencji podkreślić należy, iż dotychczasowe regulacje nie przystają do panujących warunków oraz rozwoju technologicznego. Dotyczy to zarówno regulacji polskich, jak i unijnych, który uchwalone zostały jeszcze w czasach, gdy systemy sztucznej inteligencji stanowiły element futurystyczny, który występował praktycznie wyłącznie w literaturze popularnonaukowej oraz literaturze science fiction. Wiele stanów faktycznych próbuje się rozstrzygać w oparciu o analogię pewnych przepisów oraz mechanizmów, jednakże mimo to nie gwarantuje to pełnej ochrony gwarantowanych praw i wolności.
Wraz z przyspieszającym rozwojem technologicznym, upowszechnieniem oraz łatwym dostępem do różnego rodzaju technologii kwestia uregulowania odpowiedzialności cywilnoprawnej za szkody wyrządzone przez systemy sztucznej inteligencji jest jednym z najpilniejszych problemów wymagających uregulowania. Podkreślić należy, iż tempo rozwoju technologicznego wielu dziedzin przyspiesza coraz bardziej. Obowiązujące przepisy często nie nadążają już za zmieniającą się rzeczywistością, jednakże najnowsze projekty unijne w zakresie regulacji problematyki odpowiedzialności za działania sztucznej inteligencji stanowią dobry – i przede wszystkim konieczny – punkt wyjścia dla dalszej dyskusji oraz prac legislacyjnych.
W przypadku jakichkolwiek pytań w kwestiach związanych z odpowiedzialnością za szkody wyrządzone przez sztuczną inteligencję zapraszamy do kontaktu pod adresem e-mail kontakt@kancelaria-pozniak.pl lub pod numerem telefonu +48 665 246 969.