AI ACT – czas przygotować się na zmiany. Dotyczy to także branży iGamingu

Autor: Justyna Grusza-Głębicka

Data publikacji: 07.11.2024 Ostatnia aktualizacja: 07.11.2024 12:01

Nie jest nowością, że AI odgrywa w branży iGamingu bardzo ważną rolę. Sztuczna inteligencja jest używana m.in. do kwestii związanych z odpowiedzialną grą, analiz Know Your Customer (KYC), Anti-Money Laundering (AML), pomaga analizować dane, przeciwdziałać oszustwom i konstruować lepsze oferty dla klientów.

Unia Europejska nie pozostała obojętna wobec rewolucji technologicznej, jaką jest rozwój AI i postanowiła być pionierem kompleksowych regulacji prawnych w tym zakresie. Zamysłem ustawodawcy jest wspieranie rozwoju innowacji, a w praktyce? Dopiero się okaże.

AI ACT musi być stosowany bezpośrednio

Rozporządzenie 2024/1689 w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 – akt w sprawie sztucznej inteligencji (AI ACT) pochodzi z 13 czerwca 2024 r., a ma wejść w życie w sierpniu 2026 r.

Zaznaczyć należy, że to rozporządzenie, nie dyrektywa, zatem stosuje się je bezpośrednio, nie wymaga włączenia do porządku regulacyjnego poszczególnych krajów Unii Europejskiej. Nie wątpię w to, że doczekamy się polskiej ustawy związanej z AI, ale jeśli tak się nie stanie, przepisy unijnego rozporządzenia będą musiały być stosowane na równi z innymi regulacjami krajowymi.

Cele nowych regulacji 

Regulacja ma zapewnić spójny i wysoki poziom ochrony całej Unii Europejskiej. Akt ustanawia przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów AI. Obejmuje teren Unii, ale żeby zapobiec obchodzeniu przepisów, uwzględnia też państwa trzecie w zakresie, w jakim wyniki stworzone przez systemy AI poza Unią mają być wykorzystywane na terenie Unii Europejskiej. Regulacji nie stosuje się do używania AI przez osoby fizyczne na własne potrzeby, niezwiązane z działalnością zawodową.

Rzeczywistość wirtualna stwarza możliwość kontroli zachowania ludzi do tego stopnia, że można sterować zachowaniem w sposób szkodliwy. Akt ma za zadanie chronić prawa konsumentów, ma zapobiegać technikom manipulacyjnym, które są niebezpieczne dla ludzi.

Najważniejsze przepisy

Jakie praktyki mają być zakazane? Stosowanie technik poza świadomością danej osoby, ograniczenie zdolności do świadomego podejmowania decyzji, wykorzystywanie słabości ludzi – jak wiek czy niepełnosprawność. Nie będzie można używać AI w sposób dyskryminujący. Przykładowo, niedopuszczalna jest analiza czyjegoś zachowania w celu oszacowania ryzyka popełnienia przestępstwa. Nie można też wykorzystywać systemów do kategoryzacji biometrycznej, która pozwala na wysuwanie pewnych wniosków np. o poglądach politycznych takiej osoby.

Co istotne, akt wprowadza klasyfikację systemów w oparciu o ryzyko. Systemy dzieli się na: wysokiego ryzyka i ogólnego przeznaczenia (w tym wyróżnia się systemy z ryzykiem systemowym).

Systemy wysokiego ryzyka to na przykład takie, które pozwalają na profilowanie osób fizycznych, wykorzystują dane biometryczne, rozpoznają emocje, dotyczą zatrudniania pracowników i zarządzanie nimi, wykorzystują dane do oceny zdolności kredytowej czy dane wykorzystywane do oferty ubezpieczeniowej, wykrywają przestępstwa, związane są z wymiarem sprawiedliwości czy wyborami do władz. Jeśli dany podmiot tworzy systemy wysokiego ryzyka, musi wdrożyć, dokumentować i obsługiwać system zarządzania ryzykiem – i tu jest bardzo ważna rola compliance.

Systemy wysokiego ryzyka muszą mieć techniczne możliwości automatycznego rejestrowania zdarzeń, musi być przejrzystość działania i zapewniony nadzór ze strony człowieka. Dane dotyczące tego rodzaju systemu muszą być udostępniane na wniosek organu nadzoru, albowiem AI ACT przewiduje system nadzoru nad spełnianiem wymagań tej regulacji.

Każdy dostawca systemu AI wysokiego ryzyka będzie musiał:

– posiadać deklarację zgodności UE,

– posiadać oznakowanie CE (zgodność produktu z UE),

– zarejestrować system w specjalnej bazie danych UE,

– posiadać dokumentację techniczną,

– mieć procedury oceny zgodności opierające się na kontroli wewnętrznej,

– mieć system zarządzania jakością i oceny dokumentacji technicznej.

Systemy ogólnego przeznaczenia to takie systemy, które są elastyczne i wszechstronne, uczą się z szerokiego zbioru danych, szybko się adaptują, są użyteczne w różnych aplikacjach np. Chat GPT.

Dostawcy systemów ogólnego przeznaczenia będą musieli:

– sporządzać dokumentację techniczną,

– wprowadzać politykę zapewniającą zgodność z regulacjami UE,

– podawać do wiadomości publicznej streszczenie na temat treści użytych do trenowania danego modelu AI,

– współpracować z organami UE.

Jeśli mamy do czynienia z systemem ogólnego przeznaczenia z ryzykiem systemowym. dodatkowo trzeba oceniać i ograniczać ryzyko systemowe na terenie UE, rejestrować incydenty i zapewnić odpowiedni poziom cyberochrony.

Każde Państwo Członkowskie Unii Europejskiej będzie musiało ustanowić co najmniej jeden organ odpowiedzialny za ocenę, czy dany system spełnia wymagania z AI ACT i odpowiedzialny za nadzór podmiotu dysponującego takim systemem. Ten organ będzie raportował do organu na poziomie Unii Europejskiej. Będą wydawane specjalne certyfikaty zgodności, które będą miały swoją ważność i będą mogły być przedłużane.

Każdy Kraj Członkowski Unii Europejskiej do 2026 r. powinien mieć co najmniej jedną piaskownicę regulacyjną w zakresie AI. Testy systemów AI w warunkach rzeczywistych poza piaskownicami regulacyjnymi będą miały swoje ograniczenia (np. zgoda osób biorących udział w takich testach).

Systemy będą musiały informować osoby fizyczne o interakcji z AI. Będzie także obowiązek informowania o wygenerowaniu treści przez AI i zmanipulowaniu treści (tzw. deepfake), co jest bardzo ciekawym zagadnieniem, albowiem nie wiadomo w jaki sposób będzie to weryfikowane przez organy nadzoru. Na chwilę obecną walka z deepfake jest bardzo utrudniona.

Finalnie, Państwa Członkowskie mają ustanowić kary za nieprzestrzeganie przepisów tej regulacji. Administracyjne kary pieniężne mogą wynosić nawet do 35 milionów euro. Przy wymiarze takiej kary będą brane pod uwagę różne okoliczności, jak wielkość przedsiębiorstwa i charakter naruszenia, a także umyślność.

W jaki sposób AI wpływa na branżę iGaming?

Jaki wpływ ten akt będzie miał na branżę hazardową? Jeśli operatorzy będą tworzyć czy używać systemy związane z AI, muszą zastosować się do tych przepisów. Jest duża pokusa wykorzystywania AI do zwiększenia przychodów w firmie, ale będą pewne ramy wykorzystywania AI, których nie będzie można przekroczyć. Przykładowo, analiza zachowań graczy stwarza potencjał do wpływania na nie, dopasowywania ofert czy do ulepszania produktów. Nie będzie można jednak wykorzystywać danych bez ograniczeń. Plusem jest zharmonizowanie norm na poziomie Unii Europejskiej, więc łatwiej będzie się poruszać regulacyjnie po międzynarodowym obszarze.

Podsumowując, na branżę iGamingu nakładane są kolejne regulacje, elementy compliance, a tym samym jeszcze więcej biurokracji. Fakt ten zapewne nie wywołuje uśmiechu na twarzach operatorów, ale dobra wiadomość jest taka, że nowoczesne narzędzia technologiczne sprawią, że te wszystkie regulacje będzie łatwiej stosować w praktyce.

Komentarze

Turi

Już widze jak gowno firmy typu pzbuk czy inne etoto sie tym przejmują 😀

0
0

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *