Artykuł Kto poniesie odpowiedzialność za działanie sztucznej inteligencji? pochodzi z serwisu CRN.
]]>Wszystkie powyższe założenia niezaprzeczalnie są potrzebne i spotykają się z pozytywnym odbiorem. Warto jednak w tym wszystkim zadać sobie pytanie, kto ponosi odpowiedzialność cywilną za działanie sztucznej inteligencji. Czy będą to programiści? Osoby wdrażające system sztucznej inteligencji? Osoby uczące system odpowiedniego zachowania, reakcji na bodźce otaczającego świata? Osoby wprowadzające oprogramowanie do obrotu? Producenci urządzeń wyposażonych w system AI? Właściciele urządzeń korzystających z inteligentnego systemu? Czy może osoby posługujące się systemem AI w ramach swojej działalności gospodarczej lub w celach prywatnych? Kto konkretnie i na jakich zasadach będzie odpowiedzialny za działanie sztucznej inteligencji?
Odpowiedź na szereg istotnych pytań zawarta jest w dość obszernym i mało zrozumiałym projekcie przepisów dotyczących sztucznej inteligencji, który jeszcze nie był w tym miejscu szerzej omawiany. Parlament Europejski wydał 4 maja 2020 r. projekt rozporządzenia wraz z zaleceniami dla Komisji Europejskiej dotyczący charakteru odpowiedzialności cywilnej za sztuczną inteligencję (dalej jako „projekt”) wobec poszkodowanych osób fizycznych i prawnych.
Prawo unijne ponad krajowym…
Zanim przejdę do szczegółowego omówienia odpowiedzialności należy wyjaśnić dwie zasadnicze kwestie. Po pierwsze, omawiam projekt rozporządzenia wraz z zaleceniem, który znajduje się na etapie ustawodawczym, czyli nie dość, że może się jeszcze zmienić, to dzisiaj nie stanowi źródła prawa, a tylko propozycję nowego aktu prawnego, która prawdopodobnie będzie obowiązywać dopiero za kilka lat. Niemniej warto już dzisiaj zacząć się przygotowywać do tego, co ma zostać wdrożone w prawie. Dodatkowo z projektu wynika, że akt ten powinien mieć status rozporządzenia, co oznacza, że nie będzie potrzeby jego wdrożenia do polskiego porządku krajowego. Oznacza to tyle, że nim się spostrzeżemy, stanie się on prawem powszechnie obowiązującym i to niezależnie od tego, czy to się krajowemu ustawodawcy będzie podobało, czy też nie. Zgodnie z założeniami, w ten sposób zapewniona będzie maksymalna jednolitość rozwiązań prawnych na terenie Unii Europejskiej.
Po drugie, jak się ma tytuł do treści artykułu o odpowiedzialności za działanie AI? Nikogo nie trzeba przekonywać, że sztuczna inteligencja redefiniuje wiele zawodów przez automatyzację oraz optymalizację procesów, a co się z tym wiąże, powoduje, że maszyny zastępują rutynową i powtarzalną pracę na niespotykaną wcześniej skalę. Nie możemy wykluczyć, że w przyszłości ktoś z nas zleci prostsze prace prawne związane np. ze sporządzaniem umowy mecenasowi-robotowi, wykorzystując dobrodziejstwa sztucznej inteligencji, a także powierzy temu samemu mecenasowi reprezentację w sporze sądowym w tzw. drobnych roszczeniach, które będzie rozstrzygał inteligentny system komputerowy, czyli „krzemowy sędzia”.
Absurdalne? Oczywiście, że nie. Rozejrzyjmy się dookoła i odpowiedzmy sobie na pytanie, jak często korzystamy z z takich narzędzi jak np. Google Translate? Być może ktoś teraz pomyśli, że zanim dotrze to do naszego kraju, to już mnie to nie będzie dotyczyło. Otóż Sąd Rejonowy Poznań Stare Miasto w Poznaniu w ubiegłym roku zajmował się precedensową sprawą automatycznego tłumaczenia tekstów z wykorzystaniem sztucznej inteligencji. Jak czytamy, jest to prawdopodobnie pierwsza sytuacja w historii orzecznictwa, gdzie polski sąd powszechny podjął się oceny nieprawidłowości profesjonalnego tłumaczenia dokonanego przez Google Translate.
Powyżej przywołany przeze mnie wyrok dotyczy sporu sądowego na linii biuro tłumaczeń a wykonawca tłumaczenia. I tu uwaga – skoro Sąd Rejonowy przyjął, czytamy w uzasadnieniu, że „wykonanie tłumaczenia z użyciem Google Translate stanowi nie tyle nienależyte wykonanie umowy, ile jej niewykonanie. […] Wrzucenie tekstu w translator ma niewiele wspólnego z profesjonalnym tłumaczeniem tekstów”, to kto w takim razie był wykonawcą tłumaczenia i potencjalnie powinien ponieść odpowiedzialność cywilną?
Na to pytanie autorzy omawianego projektu zapewne nie odpowiedzą, a i ja nie będę dzisiaj starał się na to odpowiedzieć. Chcę dzisiaj zwrócić uwagę na to, że idea, jaka przyświeca projektowi jest taka, że autorzy chcą z jednej strony zapewnić osobom pokrzywdzonym możliwość dochodzenia odszkodowania od podmiotu, który wyrządził szkodę, a z drugiej strony chcą umożliwić podmiotom rozwój technologiczny ich produktów lub usług. Rozwiązanie, z którym ostatecznie będziemy mieć do czynienia, powinno spełniać nie tylko oczekiwania producentów, osób wdrażających systemy sztucznej inteligencji, ale również pokrzywdzonych.
Zakaz ograniczania odpowiedzialności
Projekt Parlamentu Europejskiego zakłada wprost i dość jednoznacznie, że zasady odpowiedzialności wytwórców (manufacturer), operatorów końcowych (backend operator) i programistów (developer) tworzących sztuczną inteligencję nie można ograniczyć albo wyłączyć całkowicie w drodze umownej pomiędzy wdrażającym system sztucznej inteligencji a daną osobą fizyczną lub prawną. Wszelkie tego typu postanowienia umowne będą nieważne. Rozwiązania prawne projektu unijnego będą miały pierwszeństwo przed uregulowaniami krajowymi w przypadku ewentualnego konfliktu przepisów.
Kto i za co ma być odpowiedzialny?
Całe szczęście, w tym zakresie zmiany nie są przewidziane. Odpowiedzialność zawsze będzie ponosił człowiek. Działania autonomicznie podejmowane przez sztuczną inteligencję mają swoją „pierwotną przyczynę” w działalności człowieka, który projektuje, wdraża lub modyfikuje systemy sztucznej inteligencji. Co zaś znajdzie się pod ochroną odpowiedzialności cywilnej? Jak podkreślono w projekcie prawo ma chronić krzywdę lub szkodę na życiu, zdrowiu, integralności cielesnej i majątku osoby fizycznej lub prawnej, wyrządzonej na terenie Unii Europejskiej. Czego z kolei projekt nie planuje chronić? Przepisów projektu nie zastosujemy do roszczeń z obszaru ochrony dóbr osobistych, ochrony danych osobowych, prawa antydyskryminacyjnego czy prawa ochrony konsumentów. Zdaniem autorów projektu obecnie istniejące przepisy są w tym zakresie wystarczające.
No dobrze, czyli kto będzie ponosił odpowiedzialność? Otóż odpowiedzialność jest zaskakująco precyzyjnie i wąsko zaadresowana do osób wdrażających (deployer) system sztucznej inteligencji. Odpowiedzialność producentów, wytwórców (manufacturer), operatorów końcowych (backend operator) i programistów (developer) tworzących sztuczną inteligencję ma zostać uregulowana odrębnie w dyrektywie o produktach wadliwych, która ma zostać w tym zakresie znowelizowana.
Rodzaje odpowiedzialności, ubezpieczenie, przedawnienie
W projekcie przewidziano dwa rodzaje odpowiedzialności cywilnej. Pierwszy rodzaj odpowiedzialności oparty został o zasadę ryzyka. Zasada została wprost zaadresowana do wdrażających systemy wysokiego ryzyka. Projekt zawiera listę, katalog systemów nazwanych systemami wysokiego ryzyka, są nimi: bezzałogowe statki powietrzne, pojazdy autonomiczne o poziomach 4 i 5, autonomiczne systemy zarządzania ruchem, roboty autonomiczne, a także autonomiczne urządzenia do czyszczenia miejsc publicznych. Katalog ten wskazuje na szeroko pojętą branżę transportową i jest katalogiem zamkniętym z możliwością jego aktualizowania przez Komisję Europejską nie częściej niż raz na sześć miesięcy.
Projekt, poza odpowiedzialnością cywilną, nakłada na wdrażających systemy AI wysokiego ryzyka obowiązek posiadanie ubezpieczenia OC w wysokości 10 mln euro w wypadku krzywdy w postaci śmierci i naruszenia stanu zdrowia oraz 2 mln euro w wypadku szkody we własności.
Zwracam uwagę, że z branży transportowej oraz od osób zainteresowanych tematyką słychać dosyć wyraźnie, że treść definicji wdrażającego, jaka jest zawarta w projekcie, wskazywać może na to, że z ubezpieczenia będą wyłączone osoby korzystające z systemów AI wysokiego ryzyka. Korzystający z systemu AI wysokiego ryzyka nie kontroluje tego ryzyka, ponieważ – przykładowo – tylko steruje środkiem transportu, dronem i nie ma żadnego wpływu na działanie AI, czy też nie ma wpływu na decyzję o tym, jakie konkretne oprogramowanie zostało wdrożone.
Wymaga podkreślenia długi okres przedawnienia roszczeń, który miałby wynosić 30 lat od dnia wystąpienia szkody w wypadku śmierci lub naruszenia zdrowia oraz 10 lat od dnia wystąpienia szkody dla przedmiotu własności, z zastrzeżeniem alternatywnego terminu 30 lat od dnia uruchomienia systemu.
Drugi rodzaj odpowiedzialności cywilnej za działanie systemu sztucznej inteligencji oparty został o zasadę winy. Podobnie jak wyżej, wymieniona zasada ryzyka w zakresie systemów wysokiego ryzyka, ta zasada również została zaadresowana do wdrażających pozostałe systemy AI, czyli wszystkie inne systemy niż te zdefiniowane jako systemy wysokiego ryzyka.
W tym reżimie odpowiedzialności cywilnej warto zwrócić uwagę na bardzo interesującą konstrukcję dodatkowej odpowiedzialności po stronie wdrażających system. Jest to odpowiedzialność, która na zasadzie winy nałożona została na wdrażających system i oparta została także o ochronę przed ingerencją osób trzecich w działanie systemu przy jednoczesnym braku możliwości identyfikacji sprawcy cyberataku.
Dodatkowe zobowiązanie nałożone na wdrażającego, w mojej ocenie, automatycznie wymusi wyższy standard świadczenia usług, co może okazać się korzystne, ponieważ wdrażający poświęci więcej uwagi temu, czy do danego rozwiązania dobrano właściwy system AI, czy powierzono napisanie systemu AI odpowiednim fachowym, kompetentnym specjalistom, jak też czy zapewniono końcowemu użytkownikowi systemu możliwości aktualizacji systemu AI etc.
Wnioski
Uregulowanie prawne odpowiedzialności cywilnej za działanie systemu AI jest w mojej ocenie dobrym pomysłem. Nie jestem przekonany, czy proponowana odpowiedzialność cywilna powinna być uregulowana dodatkowym, odrębnym, opasłym aktem prawnym. Wydaje mi się natomiast, że pożądanym rozwiązaniem byłaby kodyfikacja pakietu rozwiązań prawnych kompleksowo regulująca sztuczną inteligencję. Projekt wpisuje się w przyjęte przez Polskę założenia zmierzające do rozwinięcia i pełnego wykorzystywania potencjału sztucznej inteligencji. Projekt rozporządzenia, po doprecyzowaniu zakresu pojęciowego użytych definicji i wyeliminowaniu pojawiających się wątpliwości, odpowiada zapotrzebowaniu elastycznego i stałego reagowania na rozwój technologii przez ustanawianie przyjaznego prawodawstwa. Przyczyni się do wzrostu zainteresowania branżą prawniczą zorientowaną na sztuczną inteligencję, a to z uwagi na konieczność konsultowania z prawnikami zasad odpowiedzialności za szkody wywołane przez systemy AI.
Jak to zostało zasygnalizowane, projekt nakłada nowe, istotne obowiązki zarówno po stronie podmiotów uczestniczących w produkcji i wdrażaniu systemów AI, jak i po stronie podmiotów planujących wykorzystanie AI w sektorze uznanym za krytyczny (transportowym). Planując wdrożenie systemów opartych na AI warto pomyśleć o skonsultowaniu projektu z prawnikiem już na początku procesu, aby zminimalizować możliwość wystąpienia szkody i ograniczyć do minimum ryzyko bycia pociągniętym do odpowiedzialności, jeśli coś potoczy się w nieprzewidzianym kierunku.
Adwokat, partner, szef Praktyki Postępowań Sądowych w kancelarii Kochański & Partners.
Artykuł Kto poniesie odpowiedzialność za działanie sztucznej inteligencji? pochodzi z serwisu CRN.
]]>Artykuł Konflikt z klientem: spór sądowy to ostateczność pochodzi z serwisu CRN.
]]>Agnieszka Chajewska Temat takich sporów stał się wyjątkowo aktualny, bo pandemia błyskawicznie przeniosła wszystkich w świat technologii – także tych, którzy do tej pory prowadzili konserwatywną politykę, jeśli chodzi o cyfrową transformację. W związku z tym konfliktów z dziedziny IT będzie niestety przybywać. W naszej praktyce procesowej już obserwujemy ten trend. Zwłaszcza, że pojawiają się nowe modele biznesowe, które niosą ze sobą nieznane wcześniej wyzwania.
Mateusz Ostrowski Nasza dotychczasowa praktyka pokazała, że przeważająca liczba spraw spornych powstaje na gruncie umów dotyczących zbudowania, wdrożenia i wykonania rozwiązań IT, czyli w obrębie tzw. umów wdrożeniowych. Najczęściej spór powstaje pomiędzy zamawiającym a wykonawcą w momencie odbioru programu, systemu czy komponentu IT. Nie należą do wyjątków spory związane z ujawnionymi wadami wdrożonych elementów, które uniemożliwiają działanie systemu lub programu albo znacząco utrudniają użytkownikowi korzystanie z niego. Rzadziej pojawia się spór o odpowiedzialność w przypadku zakłóconego działania systemu w wyniku ingerencji osób trzecich, a więc o odpowiedzialność twórców kodu źródłowego, którzy nie zauważyli luki, czy też o odpowiedzialność administratora systemu, który w porę nie wykrył ataku hakerskiego skutkującego złamaniem zabezpieczeń lub, co gorsza, wyciekiem danych.
Agnieszka Chajewska Nasza zaprzyjaźniona kancelaria partnerska z Londynu – Pinsent Masons – większość sporów IT prowadzi w związku z wyciekiem danych i ogólnie cyberbezpieczeństwem. To oznacza, że za kilka lat będzie to standardem także w Polsce.
Jakie firmy IT najczęściej korzystają z waszych usług w zakresie sporów – integratorzy, software developerzy, producenci, a może retailerzy?
Agnieszka Chajewska Widzimy ten podział nieco inaczej. Spory przeważnie dotyczą dostawcy oprogramowania lub usługi i podmiotu, który takie oprogramowanie lub usługę zamawia. Branża, w której działa podmiot zamawiający, często w ogóle nie ma nic wspólnego z technologiami. W takiej sytuacji, kiedy jedna ze stron transakcji, mówiąc kolokwialnie, nie wie z czym to się je, a z drugiej strony mamy profesjonalistę w dziedzinie oprogramowania, może powstać konflikt. Zamawiający oprogramowanie często nie wie, czego tak naprawdę potrzebuje i jak wygląda współpraca z dostawcą rozwiązań IT, jak ułożyć wzajemne relacje i w związku z tym może być niezadowolony z przebiegu współpracy. Jeśli przy konstruowaniu umowy skorzystamy z pomocy prawników, specjalizujących się w tych zagadnieniach, możemy uniknąć sytuacji spornych.
Jak długo mogą trwać tego typu spory i od czego to zależy?
Agnieszka Chajewska Długość trwania sporu zależy od wielu czynników. Statystyki pokazują, że w Sądzie Okręgowym w Warszawie spór gospodarczy trwa średnio 24 miesiące, i to tylko w pierwszej instancji, a cały proces może trwać nawet do 5 lat lub dłużej. Wpływa na to wiele kwestii, w tym jakość materiału dowodowego, konieczność powołania biegłego czy przesłuchania świadków. Przede wszystkim należy odpowiednio przygotować się do tego już na etapie spisywania umowy z klientem. Bo prawda jest taka, że przed sądem wygrywa ten, kto ma dowody, a nie ten, kto ma rację. Tymczasem kontrakty są często niedostosowane do późniejszych realiów, w jakich są realizowane. W każdym razie my spory sądowe traktujemy jako ostateczność. Odpowiednie poprowadzenie negocjacji powinno klienta uchronić przed długim procesem sądowym.
Czy zdarza się, że strony sporu osiągają porozumienie dzięki mediacji?
Agnieszka Chajewska Mediatorzy w sprawach gospodarczych to naszym zdaniem nie najlepszy pomysł. Po obu stronach sporu zasiadają prawnicy wyposażeni we wszelkie narzędzia, dokumenty, dowody, fakty, którzy starają się uzyskać dla swoich klientów tyle, ile się da. Mediator niczego nowego nie wniesie. Niemniej, paradoksalnie, największa zawarta przez nas ugoda odbyła się właśnie z udziałem mediatora. Jednak sąd nie zatwierdził tej ugody z przyczyn czysto formalnych, choć to był jeden z najlepszych mediatorów w Polsce. Od tej pory zawsze staramy się pisać ugody sami, aby zaoszczędzić klientowi czasu i kosztów mediacji.
Mateusz Ostrowski Obecnie mediatorzy nie zawsze rozumieją biznes stron. Nie jest wskazane, aby mediator ze specjalnością na przykład spraw rodzinnych prowadził mediację w sporach gospodarczych, gdzie elementem wiodącym jest nowa technologia. Aby była jasność, nie wykluczamy mediacji. To, w jaki sposób będzie prowadzony spór, zależy od ustalonej z klientem strategii. Nie jest tajemnicą, że wszyscy nasi klienci – w imieniu, których prowadzimy spory sądowe – stawiali sobie za cel, aby ich unikać.
O czym trzeba pamiętać w pierwszych chwilach, gdy spór wybuchnie?
Mateusz Ostrowski W pierwszych chwilach myśli się o wielu rzeczach jednocześnie. Ważne jest to, aby zadzwonić do prawnika, który ma szerszą niż standardowa wiedza o prowadzanym przez klienta biznesie, który posiada wiedzę merytoryczną niezbędną do zebrania materiału dowodowego. Nie ma nic gorszego, niż przegranie sprawy, w której miało się rację, ale nie miało dowodu. My wiemy, co trzeba sprawdzić nawet, jak sprawa jest bardzo złożona.
A co na przykład?
Agnieszka Chajewska W grę wchodzi wiele kwestii, chociażby czy pracownicy zaangażowani w projekt są jeszcze zatrudnieni i czy mogą zeznawać. Klient musi wiedzieć, w jakiej dokładnie sytuacji prawnej się znajduje, bo – jak mawiamy – knowledge is power. Łatwiej jest usiąść do stołu wiedząc, jakie się ma karty w ręku i wyjść z tego sporu jak najmniej skrzywdzonym…
Mateusz Ostrowski W tym celu robimy audyt technologiczno-prawny, analizujemy słabe i mocne strony klienta, decydujemy wspólnie z nim, czy idziemy do arbitrażu, a może jednak lepiej wystąpić o roszczenie. A to nie takie proste, bo musimy wiedzieć na przykład, czy klient będzie kontynuować potem z drugą stroną sporu relacje biznesowe. Priorytetem jest dobro biznesu, a samo prawo jest tutaj tylko narzędziem dochodzenia roszczeń. Można wygrać pod względem prawnym, ale w efekcie stracić kontrahentów, bo spór negatywnie wpłynie na wizerunek firmy na rynku.
Czy dobrze rozumiem, że obsługujecie klientów na każdym etapie projektu technologicznego?
Agnieszka Chajewska Ja i mecenas Ostrowski pracujemy w dziale procesowym i konsultujemy umowy wdrożeniowe pod kątem ewentualnego sporu. W kancelarii mamy też dział technologii, który specjalizuje się w umowach IT i dostosowuje je do indywidualnych potrzeb klienta. Prowadzimy także usługi szkoleniowe, skierowane zarówno do dostawców jak i zamawiających. Celem takiego szkolenia jest uzbrojenie uczestników w wiedzę, jak realizować umowy, żeby uniknąć ewentualnych zastrzeżeń z drugiej strony, ale także, co zrobić żeby być dowodowo przygotowanym na ewentualny spór.
Mateusz Ostrowski Trzeba przy tym pamiętać, że szereg postanowień w umowie, które dla firmy IT na pierwszy rzut oka wyglądają sensownie, z punktu widzenia prawnika procesowego może okazać się niejasnych, nieprecyzyjnych, czy stwarzających problemy dowodowe w sądzie. Konieczne jest wtedy ich uściślenie.
Wielu specjalistów IT może wyjść z założenia, że pomoc prawna na wstępnym etapie nie ma sensu, bo jako prawnicy i tak nie znacie się na oprogramowaniu, kodowaniu etc.
Mateusz Ostrowski Odpowiem konkretnym przykładem. Mamy klienta, który po sześciu latach postępowania przyznał, że żałował kilku tysięcy złotych na konsultację treści umowy, a sam spór i odszkodowanie kosztowały go 3,5 miliona złotych.
Agnieszka Chajewska Jak wcześniej mówiłam, mamy zespół prawników, którzy są doświadczeni w obszarze technologicznym i cały czas pogłębiają swoją wiedzę. Jeśli jakaś sprawa wymaga bardzo konkretnego, technicznego know-how, którego nie mamy, to posiłkujemy się wiedzą naszych partnerów z branży IT. Bez tego nie dałoby się prowadzić spraw, o których rozmawiamy.
Mateusz Ostrowski Mogę jedynie dodać, że epoka tzw. prawnika z kamienicy, który zna się na wszystkim, już się dawno skończyła. W przypadku problemu z zakresu nowych technologii warto się zwrócić do kancelarii, która od lat specjalizuje się w tym obszarze.
Jedno z kolejnych waszych szkoleń ma dotyczyć blockchaina. W jakim kontekście?
Mateusz Ostrowski Coraz większego znaczenia nabiera egzekucja wyroków sądowych w sytuacji, gdy dłużnik zainwestował swój majątek w kryptowaluty czy platformy fintechowe, które są praktycznie oderwane od jakiejkolwiek jurysdykcji. Wtedy pojawia się problem, jak wyegzekwować coś, co jest nowym narzędziem, jakim jest cyfrowy pieniądz. Tym również zajmujemy się w ramach kancelarii.
Rozmawiał Tomasz Gołębiowski
Artykuł Konflikt z klientem: spór sądowy to ostateczność pochodzi z serwisu CRN.
]]>