Strona główna Blog Strona 113

Baker McKenzie oraz DWF w przejęciu kanadyjskiego studia z branży gier

Przedmiotem transakcji było nabycie przez People Can Fly 100% udziałów w spółce Game On Creative Inc. Nie ujawniono wartości transakcji. 

Studio dla branży gier

Studio Game On działa od 2002 roku. Zatrudnia blisko 30 twórców. Specjalizuje się w usługach motion capture, cinematics i audio dla wiodących firm z branży gier komputerowych. Spółka pracowała między innymi dla Electronic Arts czy Xbox Games Studios.

– Po przejęciu nie rościmy sobie prawa do wyłączności: Game On będzie kontynuować niezależną współpracę z innymi klientami z branży gier, a Sam Girardin pozostanie jej CEO – powiedział w komunikacie People Can Fly prezes jej zarządu Sebastian Wojciechowski.

– PCF Group S.A. jest obecnie globalnym graczem, który w ostatnich latach rozwijał się w niesamowitym tempie. Dołączenie do rodziny People Can Fly jest dla nas strategicznym posunięciem, które wzmacnia zdolność Game On do wprowadzania innowacji w zakresie nowych technologii i usług, aby produkować wysokiej jakości treści dla naszych klientów – tak skomentował tę transakcję CEO Game On Sam Girardin.

Zobacz także: Penteris oraz Olesiński i Wspólnicy w gamingowej transakcji za niemal 40 mln dolarów

Prawnicy pracujący przy transakcji

Zespół Baker McKenzie doradzający People Can Fly prowadzili prof. Paweł Wajda i Radzym Wójcik. 

Zespołem DWF kierował Rafał Woźniak, a transakcję nadzorował partner zarządzający Michał Pawłowski. W pracę nad transakcją zaangażowani byli również  Adrian JoncaIzabela Plis, Magdalena Trzepizur, Krzysztof Jagiełło, Tomasz Kaczmarek oraz Adrian Ziółkowski.

Poza tym, jak poinformowała kancelaria DWF, w kanadyjskich aspektach transakcji Game On Creative Inc. Doradzała kancelaria Miller Thomson LLP. 

Penteris oraz Olesiński i Wspólnicy w gamingowej transakcji za niemal 40 mln dolarów

Wartość transakcji to 38,9 mln dolarów.

– To wyjątkowy moment dla Huuuge. Traffic Puzzle to oryginalna gra kategorii puzzle, która szybko staje się naszą trzecią najważniejszą grą. Unikalne doświadczenie match-3 (“wybierz trzy”), które oferuje gra pozwala oczekiwać, że dotychczasowe wzrosty to dopiero początek – tak skomentował transakcję Anton Gauffin, założyciel i dyrektor generalny Huuuge.

Pracami Penteris kierowała Agnieszka Pytlas, zaś wspierali ją Jeremiasz Kuśmierz, Małgorzata Kociszewska oraz Justyna Jóźwiak. – To dla nas wyróżnienie, że zespół Penteris może doradzać Huuuge w zamknięciu pierwszej transakcji po wejściu spółki na Giełdę Papierów Wartościowych w Warszawie, wspierając realizację istotnego celu strategicznego grupy, jakim jest rozszerzenie działalności w segmencie gier casual – powiedziała Agnieszka Pytlas.

Z kancelarii Olesiński i Wspólnicy spółce Picadilla Games doradzali Ewelina Macewicz w zakresie obsługi całej transakcji, Andrzej Boboli w zakresie zabezpieczenia praw IP, Sebastian Kleszyk w zakresie zabezpieczenia wsparcia gry po transakcji, a w kwestiach podatkowych partner zarządzający kancelarii Rafał Olesiński oraz Tomasz Gałka.

Gra Traffic Puzzle podwoiła liczbę użytkowników w 2020 roku w porównaniu z 2019 rokiem, a jej przychody w tym okresie wzrosły trzykrotnie. Średni dzienny przychód z gry wynosi ok. 100 tys. dolarów.

Jak informuje Huuuge, gry casual są jednym z najczęściej pobieranych rodzajów gier mobilnych. Są to gry charakteryzujące się prostymi zasadami i krótszymi rozgrywkami, dzięki czemu trafiają w gusta szerokich kręgów odbiorców. Gry puzzle, do których należy Traffic Puzzle, stanowią największą i najbardziej godną uwagi kategorię w ramach segmentu casual, odpowiadając aż za 56% przychodów tego segmentu w 2020 roku. Poza grami typu social casino jest to również kategoria najistotniejsza dla portfela produktowego Huuuge.

Kancelaria Rö pozywa o greenwashing w imieniu fundacji ClientEarth Prawnicy dla Ziemi

Pozew w tej sprawie został złożony wczoraj (27 kwietnia). Pełnomocnikiem ClientEarth jest adwokatka i wspólniczka w kancelarii Rö Marina Skarbek-Kozietulska.

Jak informuje ClientEarth, fundacja wezwała producenta węgla do zaniechania sprzedaży nieekologicznego opałowego produktu węglowego pod nazwą zawierającą przedrostek „eko” oraz o zaprzestanie wprowadzających w błąd działań promocyjnych, które mogą sugerować, iż spalanie węgla może być przyjazne dla środowiska. W opinii ClientEarth działania firmy to przykład greenwashingu, czyli nieuczciwej praktyki rynkowej, która w nieuzasadniony sposób kreuje ekologiczny wizerunek produktu lub firmy wprowadzając tym samym odbiorców w błąd.

– Materiał dowodowy zebrany przez Fundację ClientEarth daje solidne podstawy prawne do tego, aby w oparciu o przepisy o przeciwdziałaniu nieuczciwym praktykom rynkowym wystąpić na drodze sądowej z żądaniem większej ochrony praw konsumenckich – mówi Marina Skarbek-Kozietulska w komunikacie fundacji.

Fundacja ClientEarth Prawnicy dla Ziemi domaga się od pozwanego zmiany nazwy sprzedawanych produktów na niezawierającą odniesień do ekologii, zaprzestania nieuczciwych praktyk rynkowych, w tym zmiany opakowań sprzedawanego produktu, publikacji oświadczenia w ogólnopolskim dzienniku, w którym firma przyzna się do stosowania nieuczciwej praktyki greenwashingu, a także zapłaty 1500 zł na rzecz Białowieskiego Parku Narodowego.

Kancelarii Rö Radwan-Röhrenschef Petruczenko Tokarzewska reprezentuje fundację ClientEarth Prawnicy dla Ziemi pro bono.

źródło: pl.clientearth.org; zdjęcie: Paweł Czerwiński, Unsplash

Michał Pietuszko na czele praktyki nieruchomości DLA Piper

0

Michał Pietuszko dołączył do DLA Piper w styczniu 2014 roku. Pięć lat później awansował na stanowisko partnera. Jest związany z branżą nieruchomości komercyjnych od 18 lat. Jego doświadczenie zawodowe obejmuje zarówno praktykę w międzynarodowych kancelariach prawnych, jak i pracę w charakterze szefa działu prawnego firmy deweloperskiej.

– Możliwość pokierowania działem nieruchomości to dla mnie niezwykłe wyróżnienie, które traktuję też jako wyraz zaufania ze strony moich kolegów partnerów oraz członków naszego zespołu. To także efekt wzrostu praktyki, którą postaram się kontynuować, pozyskując kolejnych klientów oraz promując kolejne osoby – mówi Michał Pietuszko.

Jacek Giziński kierował praktyką nieruchomości od połowy 2013 roku. Od lipca 2018 roku łączył te obowiązki z funkcją partnera współzarządzającego DLA Piper w Polsce. Z kancelarią związany jest od 14 lat. 

– Dynamicznie rozwijająca się praktyka nieruchomości oraz jej rosnący zespół wymagają coraz większego zaangażowania menedżerskiego, czego na dłuższą metę nie sposób łączyć z zarządzaniem całym biurem oraz codzienną pracą merytoryczną na rzecz klientów. Michał Pietuszko aktywnie współtworzy dział nieruchomości, odkąd dołączył do Kancelarii. To dla mnie wielka radość i osobista satysfakcja, że zgodził się przejąć ode mnie tę funkcję – komentuje Jacek Giziński.

Zespół nieruchomości DLA Piper tworzy 18 prawników. 

Unijne prawo sztucznej inteligencji – tak propozycje KE oceniają prawnicy nowych technologii

Przełom

Prawnicy zgodnie twierdzą, że publikacja przez Komisję Europejską propozycji przepisów dla sztucznej inteligencji to ważny i przełomowy krok. Jak komentuje dr Gabriela Bar, to pierwszy na świecie tak kompleksowy akt prawny dotyczący tej technologii. Xawery Konarski podkreśla, że nigdzie indziej nie zaproponowano tak szerokiej regulacji obowiązków związanych z wykorzystaniem systemów sztucznej inteligencji. 

Natomiast według Tomasza Zalewskiego powstanie projektu rozporządzenia uporządkuje dalsze rozmowy o regulacjach SI. – Obecnie tocząca się dyskusja nad sztuczną inteligencją stała się tak wielowątkowa, a jednocześnie nieskoordynowana, że coraz trudniej było zarówno przedsiębiorcom jak i zwykłym obywatelom odnieść się do poruszanych w niej zagadnień i wątków. Pojawienie się projektu rozporządzenia oznacza, że od tej pory dyskusja ta będzie skoncentrowana na konkretnych problemach i sposobach ich rozwiązania – komentuje partner Bird & Bird. 

Grupy ryzyka

Odnosząc się do istoty proponowanych przepisów, prawnicy zwracają przede wszystkim uwagę na przyjęcie podejścia opartego na ryzyku, jakie tworzą systemy SI i uzależnienia od stopnia tego ryzyka poziomu ich regulacji. Jak zaznacza Tomasz Koryzma, taki mechanizm znany jest już z przepisów i praktyki stosowania RODO.

Zgodnie z projektowanymi przepisami, systemy podzielono na takie, które stwarzają niedopuszczalne ryzyko, wysokie ryzyko oraz  niskie lub minimalne ryzyko.

– Systemy SI o minimalnym ryzyku nie będą objęte planowaną regulacją i będą mogły być rozwijane i wykorzystywane bez ograniczeń. Obejmują one większość wykorzystywanych obecnie rozwiązań sztucznej inteligencji, np. filtry antyspamowe, konwersja mowy na tekst czy automatyczne tłumaczenia tekstów – wyjaśnia Tomasz Zalewski. 

– Komisja – zgodnie z wcześniejszymi zapowiedziami i podejściem zaprezentowanym m.in. w Białej Księdze SI z 2020 roku – zdecydowała się na wprowadzenie rygorystycznych wymogów i obowiązkowej oceny zgodności wyłącznie dla systemów SI zakwalifikowanych jako stwarzających wysokie ryzyko – zaznacza Gabriela Bar. Jak dodaje, do takich należą m.in. systemy wykorzystywane w ramach infrastruktury krytycznej (np. transport, energetyka), w dostępie do edukacji i zatrudnienia, medycynie, wymiarze sprawiedliwości i egzekwowaniu prawa oraz zarządzaniu kontrolą graniczną.

Według Adriany Zdanowicz-Lesniak, jeśli chodzi o zakres obowiązków nałożonych na podmioty wykorzystujące systemy SI wysokiego ryzyka, nowa regulacja idzie nawet o krok dalej niż RODO z obowiązkami wobec administratorów danych. – Projekt wymaga od tej grupy podmiotów m.in. zarządzania danymi i ryzykiem, szczegółowej dokumentacji technicznej dla celów rozliczalności, rozbudowanych obowiązków informacyjnych wobec użytkowników, a także kontroli bezpieczeństwa systemu obejmującej cały cykl jego funkcjonowania – komentuje prawniczka CMS. 

Piotr Kaniewski ocenia, że cały podział systemów sztucznej inteligencji na te mniejszego i większego ryzyka jest dobrym rozwiązaniem. – Jeśli ktoś używa mniej zaawansowanego czy intruzywnego systemu, to nie ma powodów, by obciążać go wysokimi kosztami wynikającymi z dostosowania systemu do wymagań rozporządzenia – dodaje. 

Jak podkreśla dr.Gabriela Bar, a także Tomasz Zalewski, niezależnie od kwalifikacji do grupy ryzyka, systemy SI przeznaczone do interakcji z ludźmi będą podlegać wymogom przejrzystości, tak, by użytkownik wiedział że wchodzi w interakcję z SI a nie z człowiekiem. Przykładem takich systemów są np. chatboty.

Systemy zakazane

Pojekt rozporządzenia przewiduje również, że stosowanie części systemów SI jest niedopuszczalnie. Chodzi o systemy zagrażające bezpieczeństwu i prawom człowieka. To między innymi systemy rozpoznawania twarzy, dlaeko idące monitorowanie ludzi, czy social scoring. – Przepisy odbierają aparatom państwowym czy wielkim korporacjom możliwość używania SI w sposób rodem z dzieł Orwella czy Huxleya – komentuje Piotr Kaniewski. 

Odpowiedzialność nie tyko producentów 

Prawnicy zwracają również uwagę, ze przepisy rozporządzenia znajdą zastosowanie nie tylko wobec producentów systemów SI.  – Mają nimi zostać również objęci dostawcy i użytkownicy systemów sztucznej inteligencji z krajów trzecich, gdy wynik (output)  działania systemu będzie wykorzystywany w UE – zaznacza Xawery Konarski. – Odpowiedzialność rozciągać się będzie także na powdrożeniowe korzystanie z SI – obowiązkowe będą systemy monitorowania systemu po wprowadzeniu do obrotu – dodaje Gabriela Bar. 

Dane SI

Xawery Konarski zaznacza także, że projekt rozporządzenia kładzie nacisk na  sposób zarządzania danymi wykorzystywanymi na potrzeby SI. – Rozporządzenie ma wymagać, aby dostawcy stosowali szereg technik w odniesieniu do zbiorów danych, które są wykorzystywane do szkolenia, testowania uczenia maszynowego i podobnych technologii – komentuje senior partner TKP. 

Natomiast Piotr Kaniewski podkreśla, że w rozporządzeniu jest mowa o recordkeepingu, czyli zapisywaniu historii działań systemów sztucznej inteligencji. – Według mnie, każdy system SI służący do podejmowania jakichkolwiek decyzji powinien mieć “czarną skrzynkę” zbierającą informacje pozwalające ocenić ich słuszność. Wiem z rozmów z programistami machine learning, że nawet najlepsi z nich potrzebują dużo czasu na dojście, dlaczego system podjął konkretną decyzję. Oczekiwałbym nawet bardziej konkretnych regulacji w tym zakresie, niż proponuje to rozporządzenie w obecnym kształcie – dodaje prawnik Kochański & Partners.

Wysokie kary 

Prawnicy zgodnie także podkreślają, że projektowane kary za nieprzestrzeganie przepisów rozporządzania są surowe. 

Jak analizuje Xawery Konarski, na podmioty naruszające zakaz stosowania  niedozwolonych  praktyk związanych ze sztuczną inteligencją (art. 5 projektu rozporządzenia) lub zasad zarządzania danymi (art. 10 projektu rozporządzenia) mogą być nakładane  pieniężne kary  administracyjne w wysokości do 30 000 000 euro lub w przypadku przedsiębiorstw w wysokości do 6% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa. Nieprzestrzeganie pozostałych przepisów rozporządzenia jest zagrożone administracyjną karą pieniężną w  wysokości do 20 000 000 euro lub w przypadku przedsiębiorstw w wysokości do 4% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa

Czas na strategię dla biznesu

– Chociaż opublikowane dokumenty są dopiero początkiem procesu legislacyjnego i mogą jeszcze ulec zmianie, to jednak moim zdaniem już teraz producenci i użytkownicy systemów SI powinni zacząć traktować je jako zarys przyszłych wytycznych, które mogą mieć do nich zastosowanie – podsumowuje Tomasz Zalewski.

Adrianna Zdanowicz-Leśniak ocenia, że zaproponowane przepisy to idące w pożądanym kierunku zmiany, ale przynoszące także liczne obowiązki dla dostawców, importerów, dystrybutorów a także użytkowników systemów SI, co dotyczy zarówno przedsiębiorstw z siedzibą w UE jak i – w określonych przypadkach – poza jej granicam. – Wskazane podmioty powinny już dziś rozważyć strategię wdrożenia projektowanego rozporządzenia, tym bardziej że przewiduje ono wysokie kary administracyjne – zaznacza prawniczka CMS.

Tomasz Koryzma ocenia, że dalsze prace nad unijnym pakietem regulacyjnym sztucznej inteligencji, w tym projektem omawianego rozporządzenia oraz towarzyszącym mu rozporządzeniem w sprawie produktów przemysłu maszynowego, zajmą co najmniej 18 miesięcy. – Dla przedsiębiorstw jest to odpowiedni okres na ocenę, czy wykorzystywane w ramach ich biznesu technologie kwalifikują się jako „systemy SI” w świetle nowej, neutralnej technologicznie definicji projektu, a w przypadku odpowiedzi twierdzącej analizę związanego z tym ryzyka i przygotowanie do wdrożenia omawianej regulacji. – podkreśla partner CMS. 

– Mam wrażenie, że Unia przychodzi z przysłowiowym kijem, ale nie daje marchewki – tak natomiast cały projekt rozporządzenia podsumowuje Piotr Kaniewski.  – Z jednej strony bowiem dobrze, że w Unii myśli się o prywatności i bezpieczeństwie obywateli, etyce i chronieniu praw obywatelskich, te rozwiązania jednak będą drogie do zaimplementowania. To utrudni europejskim producentom rozwiązań AI konkurowanie z dostawcami z krajów anglosaskich czy Azji. Mam wrażenie, że brakuje pozytywnych bodźców dla biznesu. Na przykład z zakresu prawa własności intelektualnej, czyli zagwarantowania ochrony praw własnościowych do samych modeli AI, jak i rezultatów ich pracy (które, w mojej opinii, mogą nie mieścić się w zakresie ochrony prawa autorskiego). Mam świadomość, że prawo autorskie harmonizuje się trudno, bo istotnie różni się w poszczególnych krajach Wspólnoty, ale gdyby Unia dała pozytywny impuls do lepszego chronienia pracy systemów AI i ich samych, to oferowałaby dużo większą pewność obrotu. Warto zauważyć, jak niewiele firm (zwłaszcza w Polsce) realnie wykorzystuje sztuczną inteligencję. Wpływa to negatywnie na naszą konkurencyjność. Widzę zatem konieczność generowania bodźców zachęcających do odważniejszego korzystania z AI – ocenia Piotr Kaniewski. 

„UE konsekwentnie przechodzi na pozycje lidera w rywalizacji globalnej w obszarze AI”

Zobacz także: Unijne prawo sztucznej inteligencji – tak propozycje KE oceniają prawnicy nowych technologii

Jak podkreśla Robert Kroplewski, ogłoszenie komunikatu o harmonizacji reguł dotyczących systemów sztucznej inteligencji zostało połączone z propozycją nowej regulacji maszynowej oraz komunikatem Komisji Europejskiej w sprawie aktualizacji całego Skoordynowanego Planu UE dla AI i wieńczy kolejny etap budowania przez Unię trzeciej drogi rozwoju systemów AI, opartej o ramy etyczne ujęte w koncepcję Trustworthy AI. – Koncepcja ta, to także swoisty znak handlowy promujący ponadregionalne zaufanie do produktów pochodzących z UE i stosowanych na jej terytorium – dodaje. 

Polskie postulaty AI 

Według pełnomocnika Ministra Cyfryzacji ds. Społeczeństwa Informacyjnego, regulacje zaproponowane przez Komisję realizują wiele postulatów Polski wyrażonych we wspólnej deklaracji państw V4 z kwietnia 2018 roku. To między innymi budowanie ambitnej polityki UE w obszarze AI opartej na kształtowaniu zaufania do tej technologii, oraz otwartych ram prawnych dla innowacji, w tym dopuszczenie stosowania eksperymentów w ramach sandboxów, a także określenie reguł odpowiedzialności prawnej AI.

Unia Europejska liderem sztucznej inteligencji 

Zdaniem Roberta Kroplewskiego, zgodnie z zapowiedziami, Unia Europejska konsekwentnie przechodzi na pozycje lidera w rywalizacji globalnej w obszarze AI. – To nie tylko jako twórca uniwersalnych standardów prawnych opartych na godności człowieka i prawach podstawowych, bezpieczeństwie i etyce, ale także jako środowisko polityki i inwestycji wspierających wytwarzanie i stosowania AI, która poddana jest zasadzie nadzorczej roli człowieka, a także uznając priorytet wspierania innowacyjności rynku według proporcjonalnej i stopniowalnej oceny korzyści i ryzyk zastosowań AI – ocenia ekspert.

Kluczowy jest wpływ AI

– Co ważne, regulacja obejmuje ocenę ryzyka w ramach cyklu życia systemu AI w trzech fazach: rozwoju, lokowania na rynku  i użytku. W istocie jej przedmiotem nie jest sama technologia AI, ale jej wpływ, jaki wykazuje w zastosowaniu w środowisku aplikacyjnym – podkreśla Robert Kroplewski. 

Stąd, jak wyjaśnia, proponowana jest stopniowalna miara oceny ryzyka tego wpływu: 1) począwszy od niedopuszczalnego ryzyka związanego z bezpieczeństwem, źródłami utrzymania i prawami człowieka, w tym obejściem świadomości i woli użytkowników (np. zabawki dla dzieci, scoring społeczny, scoring pracowniczy) – limitowanego bezwzględnym zakazem, 2) poprzez aplikacje wysokiego ryzyka – podlegające systemowi oceny ex-ante dopuszczalności do wprowadzenia do obrotu, 3) aplikacje ograniczonego ryzyka – obciążone jedynie obowiązkami transparentności wejścia człowieka w transakcję z udziałem j np. czatbota lub awatar z inkorporacją deep fake maski człowieka, 4) aplikacje irrelewantne dla ryzyka jak np. gry – nieobjęte interwencją regulacji, ale jednak  objęte zobowiązaniem urzeczywistnienia 7 zasad etycznych określonych w ramach koncepcji godnej zaufania sztucznej inteligencji jako aktu samoregulacji. 

Jak dodaje Robert Kroplewski, ważne jest, że Komisja Europejska określa nie jako zakazane, ale tylko wysokiego ryzyka aplikacje systemów AI w połączeniu z technikami biometrii, które umożliwiają identyfikację. – Należy jednak mieć na uwadze, że wysokie ryzyko zastosowania AI w biometrii nie tyle polega na identyfikacji, ale szkodliwej ocenie zachowania poddanej nią osoby. Zatem aplikacje wysokiego ryzyka to nie tylko obszar zastosowania systemów AI w infrastrukturze krytycznej, transporcie, edukacji, usługach kredytowych czy ubezpieczeniowych, usługach publicznych, wymiarze sprawiedliwości, procesach migracyjnych, produktach bezpiecznych czy medycynie – wymienia ekspert. 

Definicja AI

Robert Kroplewski zaznacza również, że regulacja określa otwartą na rozwój technologii definicję sztucznej inteligencji jako systemu AI, wypracowaną na bazie dotychczasowego stanu sztuki technik AI odpowiadającego modelowi inteligentnego agenta. – Model ten jest podstawą rekomendacji OECD Stewardship of Trustworthy AI, projektowanych właśnie w UNESCO globalnych rekomendacji etycznych dla AI oraz regulacji wypracowywanej w ramach Rady Europy w zakresie ochrony praw człowieka, demokracji i praworządności. Definicja wskazuje na cechy specyficzne jakie wykazują systemy AI związane z możliwością (funkcją) delegowania przez człowieka różnego poziomu autonomii do tych systemów AI, ograniczoną możliwość wyjaśnienia procesu budowania rekomendacji przez system AI, ryzyko skalowania błędnych danych czy wreszcie wpływu rezultatów tych systemów na środowisko w którym działają zarówno wymiarze cyfrowym (wirtualnym) i materialnym (fizycznym).  Jednocześnie podkreślona jest właściwa do nadzorczej roli człowiek funkcja definiowania celów systemów AI przez człowieka, jak i technicznych i nietechnicznych reguł nadzoru oddziaływania systemów AI na otoczenie, w którym są zaaplikowane, tak wymiarze software jak i fizycznych robotów, w tym antropomorficznych asystentów – opisuje mecenas Kroplewski. 

Brak „czynnika społecznego”

– Najbardziej wyraźną luką jest brak zapewnienia wpływu czynnika społecznego w procedurach ex-ante systemów AI wysokiego ryzyka, co z kolei stoi w sprzeczności z krajową „Polityką rozwoju sztucznej i inteligencji w Polsce od roku 2020 roku – wskazuje Robert Kroplewski. Jak jednak dodaje, kwestia ta na pewno będzie mogła być doregulowana w porządkach krajowych.

– Ostateczna regulacja wymaga jeszcze przejścia przez proces negocjacyjny organów UE, a jednocześnie należy ją widzieć także w kontekście nadchodzących regulacji Data Governance Act, Data Market Act, Data Service Act czy reguł cywilnej odpowiedzialności za działanie systemów AI – podsumowuje Robert Kroplewski.