[NEW] Szukaj pracy anonimowo — sprawdź szczegóły
Close
Wyzwania dla prawników i biznesu związane z szybkim rozwojem sztucznej inteligencji

Wyzwania dla prawników i biznesu związane z szybkim rozwojem sztucznej inteligencji

Przyjęty przez UE w 2024 roku Akt o Sztucznej Inteligencji (AI Act) niedługo zacznie obowiązywać firmy tworzące lub wykorzystujące sztuczną inteligencję. Część przepisów już weszła w życie, inne – po 12, 24 lub nawet 36 miesiącach. Najwcześniej zaczął obowiązywać zakaz stosowania systemów o „nieakceptowalnym ryzyku”, natomiast najpóźniej obowiązującym prawem staną się wymogi dotyczące systemów „wysokiego ryzyka”. Zakres obowiązków będzie zależeć od rodzaju systemu AI, poziomu ryzyka oraz jego zastosowania.

Jakie wyzwania stoją przed prawnikami w związku z szybkim rozwojem sztucznej inteligencji? Czy firmy są gotowe dostosować się do regulacji UE? I gdzie AI może wyrządzić największe szkody? O tym rozmawiamy z Gabrielą Bar – radczynią prawną, doktorką nauk prawnych, specjalistką w zakresie prawa nowych technologii z ponad 20-letnim doświadczeniem. Gabriela prowadzi kancelarię Gabriela Bar Law & AI i doradza biznesom w sprawach związanych z nowymi technologiami. Została uwzględniona na liście TOP 100 Women in AI in Poland według „Perspektywy” oraz wyróżniona w zestawieniu 25 TOP Prawniczek w Biznesie według magazynu „Forbes”.

— Jak zmieniło się Pani życie jako prawniczki pod wpływem szybkiego rozwoju AI?

Dla mnie to bardzo duża zmiana na plus, ponieważ od lat interesuję się sztuczną inteligencją. Początkowo było to zainteresowanie czysto teoretyczne. W momencie, gdy AI zaczęła zyskiwać na popularności i pojawiły się duże modele językowe, otworzyła się przede mną perspektywa realizowania zupełnie nowych, wymagających i skomplikowanych zadań związanych z technologią, która jednocześnie jest coraz powszechniej stosowana.

Mogłam zacząć wspierać klientów w korzystaniu z tych technologii. Projekt unijny, w którym obecnie uczestniczę – Extra Brain – dotyczy opracowywania sieci neuronowych typu brain-alike, inspirowanych sposobem działania ludzkiego mózgu. Sieci te są bardzo wydajne zarówno pod względem energetycznym, jak i obliczeniowym. Możliwość bycia blisko tego procesu i obserwowania jego rozwoju jest dla mnie niezwykle interesująca.

Dziś coraz więcej firm buduje własne aplikacje i rozwiązania, w których wykorzystywane są modele generatywne. Rośnie też zapotrzebowanie na wsparcie prawne w tym obszarze. Sama aktywnie korzystam z narzędzi AI i testuję, na ile można im ufać – ponieważ później uczę o tym uczestników moich szkoleń z zakresu legal tech.

— Jakie wyzwania pojawiły się dla prawników wraz z rozwojem AI?

Dla prawników, którzy chcą zajmować się prawem nowych technologii — lub już się nim zajmują — wyzwań jest naprawdę wiele. Wynika to przede wszystkim z faktu, że mamy do czynienia zarówno ze złożoną i szybko ewoluującą technologią, jaką jest AI oraz bardzo dużą ilością aktów prawnych — szczególnie unijnych rozporządzeń — które należy zastosować.

W przypadku AI nie sposób być „tylko” prawnikiem. Trzeba rozumieć, co ta technologia wnosi, jak działa, jakie niesie ryzyka — zarówno przez sposób, w jaki została zaprojektowana, jak i przez to, jak generuje wyniki. Czy mamy do czynienia z tzw. „czarną skrzynką” (black box), która jest całkowicie nieprzejrzysta, czy może z algorytmami możliwymi do wyjaśnienia?

To tylko niektóre z aspektów, które prawnicy muszą dziś zrozumieć także od strony technologicznej. To oczywiście nie znaczy, że musimy nauczyć się programować. Musimy jednak znać podstawowe pojęcia, założenia i rodzaje systemów AI, a także rozumieć, jak działają np. sztuczne sieci neuronowe.

Kwestie etyczne związane z rozwojem i wdrażaniem systemów AI są absolutnie kluczowe. Podobnie – nie możemy ignorować rosnących zagrożeń w obszarze cyberbezpieczeństwa, które stają się nieodłącznym elementem środowiska technologicznego, w jakim te systemy funkcjonują.

Naszą rolą – jako prawników – jest także dbanie o to, aby tworzone i wdrażane przez naszych klientów rozwiązania były nie tylko zgodne z prawem, lecz także bezpieczne, etyczne i ukierunkowane na poprawę dobrostanu społecznego. AI nie może być narzędziem wzmacniającym nierówności, dyskryminację czy szkodliwe mechanizmy – nasza odpowiedzialność polega na tym, by temu przeciwdziałać już na etapie projektowania i doradztwa. 

"Wyzwania Prawniczek. Prawniczki są obecne" w Poznaniu

— Jednym z celów Aktu AI jest wymóg przejrzystości dla systemów AI, które np. wchodzą w interakcje z ludźmi lub generują deepfakes. Jak kontrola takich działań będzie wyglądała w praktyce?

Rzeczywiście, AI Act w art. 50 wprowadza szereg obowiązków dotyczących przejrzystości systemów AI — szczególnie tych, które wchodzą w interakcję z człowiekiem, generują treści lub tworzą tzw. deepfakes. W przypadku systemów komunikujących się bezpośrednio z osobą fizyczną, użytkownik powinien zostać poinformowany, że ma do czynienia ze sztuczną inteligencją.

W przypadku treści syntetycznych — takich jak teksty, obrazy, dźwięki czy filmy generowane przez systemy AI — dostawcy są zobowiązani do technicznego oznaczania tych materiałów w sposób możliwy do odczytu maszynowego i umożliwiający ich wykrycie jako sztucznie wygenerowanych lub zmanipulowanych. Co istotne, obowiązek ten dotyczy również systemów ogólnego przeznaczenia (GPAI). Oznaczenia te mają być skuteczne, interoperacyjne i odporne, w granicach technicznej wykonalności i przy uwzględnieniu aktualnego stanu wiedzy technicznej.

W przypadku deepfake’ów obowiązki dotyczą zarówno dostawców, jak i wdrażających (deployers). Ci ostatni muszą ujawniać, że dana treść została sztucznie wygenerowana lub zmanipulowana — przy czym dla treści o charakterze artystycznym, satyrycznym czy fikcyjnym wystarczy informacja o istnieniu takiej manipulacji, podana w sposób nienaruszający odbioru dzieła.

Obowiązki nie mają jednak charakteru absolutnego — przepisy przewidują wyjątki, np. dla przypadków wykorzystania AI do celów dochodzeniowo-śledczych, jeśli przewidziano odpowiednie zabezpieczenia praw i wolności osób trzecich, albo gdy treść była poddana kontroli redakcyjnej, a odpowiedzialność redakcyjna spoczywa na człowieku lub podmiocie prawnym.

— Kiedy zaczną obowiązywać te przepisy?

Przepisy dotyczące systemów, o których mówimy, zaczną obowiązywać od 2 sierpnia 2026 roku. Mimo to dostawcy modeli generatywnych przygotowują się do ich stosowania, tak aby automatycznie oznaczać materiały wygenerowane sztucznie z pomocą np. ChatGPT, za pomocą elektronicznego znaku wodnego lub innych metadanych, które będą identyfikowały tekst i obraz jako sztucznie wygenerowane.

Jednak już dziś pojawiają się głosy krytyczne ze strony niektórych dostawców, którzy kwestionują wykonalność takich wymogów w praktyce — szczególnie w odniesieniu do systemów open-source lub modeli generatywnych udostępnianych publicznie. Przepisy jednak jeszcze nie obowiązują i dopiero w praktyce okaże się, jak zostaną wdrożone i kontrolowane.

Kontrola przestrzegania tych obowiązków będzie zależała m.in. od tego, na ile skuteczne i powszechnie przyjęte będą techniczne standardy oznaczania treści, oraz czy zostaną wypracowane i przyjęte unijne kodeksy praktyk, o których wspomina art. 50 ust. 7. Ich brak może skomplikować egzekwowanie przepisów. 

Nadzór nad przestrzeganiem tych przepisów sprawować będą krajowe organy nadzoru. W Polsce obecnie procedowana jest ustawa o systemach sztucznej inteligencji, która ustanawia taki organ nadzoru – Komisję do spraw rozwoju i bezpieczeństwa sztucznej inteligencji. Ustawa ta powinna zostać uchwalona jeszcze w tym roku. W innych państwach nadzór sprawować będą wyznaczone organy krajowe.

Organy unijne również będą nadzorować stosowanie Aktu AI na terenie całej Europy. Funkcjonuje już urząd do spraw AI.

— Według raportu Statista (2024) w grupie wiekowej 16–24 lata ponad 65% badanych deklaruje regularne korzystanie z aplikacji i serwisów AI. Rodzice i nauczyciele często nie angażują się w wspieranie edukacji dotyczącej AI. Kto powinien się tym zajmować?

To poważny problem. Fakt, że młodzi ludzie korzystają z nowych technologii, nie oznacza, że je rozumieją. Bardzo często robią to zupełnie nieświadomie. Nie są świadomi cyberzagrożeń, zwłaszcza w kwestii ochrony danych osobowych. Nie rozumieją, jak działa technologia i w jaki sposób mogą być wykorzystywane dane, które wprowadzają.

Nauczyciele powinni być odpowiednio przygotowani, by uczyć dzieci i młodzież, jak bezpiecznie i świadomie korzystać z narzędzi AI -  nie tylko technicznie, ale też z uwzględnieniem aspektów etycznych, prawnych i społecznych. Trzeba jednak jasno powiedzieć: szkoła nie jest w stanie w pełni zastąpić roli rodziców. To oni również powinni interesować się tym, z jakimi technologiami dzieci mają styczność i jak ich używają.

Problem polega na tym, że wielu nauczycieli, a także przedstawicieli środowiska akademickiego wciąż nie rozumie, jak działają systemy AI, albo po prostu z nich nie korzysta. A skoro brakuje im praktycznego kontaktu z tą technologią, trudno oczekiwać, że będą potrafili rzetelnie i odpowiedzialnie ją omawiać z uczniami czy studentami.

Edukacja w tym obszarze powinna być więc systemowa — obejmować zarówno kadrę pedagogiczną, jak i rodziców. W przeciwnym razie to TikTok i ChatGPT „wychowają” kolejne pokolenia użytkowników sztucznej inteligencji.

Kluczowe jest budowanie poczucia odpowiedzialności za działania podejmowane przez młodych ludzi w Internecie oraz uczenie ich krytycznego myślenia. Zakazywanie korzystania z AI byłoby błędnym podejściem.

— Pani zdaniem, jak rozwój AI wpływa na bezpieczeństwo państwa polskiego?

Rozwój AI to miecz obosieczny. Z jednej strony może znacząco zwiększyć bezpieczeństwo – np. poprzez lepsze zarządzanie infrastrukturą krytyczną, wcześniejsze wykrywanie zagrożeń czy automatyzację reakcji na incydenty. Z drugiej strony – te same narzędzia wykorzystywane są przez hakerów, grupy cyberprzestępcze i aktorów państwowych do prowadzenia kampanii dezinformacyjnych, ataków typu phishing czy włamań na systemy kluczowe dla funkcjonowania państwa.

Polska, w kontekście wojny w Ukrainie, znajduje się na froncie cyberataków – jesteśmy jednym z najczęściej atakowanych krajów w Europie. Zagrożenie, że zaawansowane narzędzia AI trafią w ręce tych, którzy chcą destabilizować sytuację, jest realne. Dlatego tak ważne jest, by państwo inwestowało nie tylko w technologie defensywne, ale i w kompetencje ludzi – zarówno w sektorze publicznym, jak i prywatnym.

Avatar
Sty 15

Jak znaleźć pierwszą pracę w IT po pięciu latach w modelingu

Po pięciu latach pracy w modelingu Olaf Chuszno zdecydował się przebranżowić na Full-Stack Developera. Jak znaleźć pierwszą pracę w IT, jak przygotować się do rozmów kwalifikacyjnych oraz jakie są różnice między pracą w modelingu a w IT – o tym rozmawiamy z Olafem.
0
Paz 17, 2023

Inżynier oprogramowania w Meta zrezygnował z pracy za 370 tys. dolarów po atakach paniki

Pracowałem do 20:00, a także spędzałem około czterech godzin dziennie w weekendy, aby upewnić się, że nadążam za tempem.
0
Mar 17, 2023

Jak negocjować wynagrodzenie przez e-mail

Jeśli otrzymałeś ofertę pracy drogą mailową, powinieneś także móc negocjować swoje wynagrodzenie właśnie przez maila. W tym artykule omówimy, czym jest mail dotyczący negocjacji wynagrodzenia, co należy zawrzeć w takim mailu, jakie wskazówki warto znać oraz podamy przykłady, które pomogą Ci w tworzeniu własnego tekstu.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies