Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta ogłosiła, że nie zamierza podpisać nowego kodeksu postępowania Unii Europejskiej, który ma wspierać wdrażanie AI Act – przepisów regulujących działanie modeli ogólnego przeznaczenia sztucznej inteligencji (general-purpose AI), – informuje TechCrunch.

Meta: przepisy UE blokują rozwój AI w Europie

Kodeks postępowania został opublikowany 10 lipca jako dobrowolny zbiór wytycznych dla firm tworzących systemy AI. Zakłada m.in. obowiązek dokumentowania funkcji modeli, zakaz trenowania ich na materiałach pirackich oraz konieczność respektowania żądań twórców dotyczących danych treningowych.

Meta krytykuje dokument jako „nadmierne regulowanie” i zapowiada jego bojkot. Joel Kaplan, szef globalnych spraw publicznych Meta, napisał, że kodeks „wprowadza niepewność prawną dla firm rozwijających modele AI” i „wykracza poza zakres AI Act”.

Ostrzegł też, że takie podejście „zdusi rozwój zaawansowanych modeli AI w Europie”.

https://www.linkedin.com/posts/joel-kaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity-7351928745668055042-XuF7/
https://www.linkedin.com/posts/joel-kaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity-7351928745668055042-XuF7/

Brak podpisu zwiększy presję regulacyjną

Chociaż kodeks nie jest obowiązkowy, Komisja Europejska zachęca firmy do jego podpisania. Jak podkreślił rzecznik KE ds. cyfrowych Thomas Regnier, firmy, które tego nie zrobią, będą musiały udowodnić zgodność z przepisami w inny sposób – co może skutkować większym nadzorem i ryzykiem prawnym.

AI Act przewiduje wysokie kary za naruszenia: do 7% rocznego globalnego obrotu, a dla twórców zaawansowanych modeli – do 3%.

Przepisy AI Act wejdą w życie 2 sierpnia

AI Act, pierwsze kompleksowe prawo UE dotyczące sztucznej inteligencji, zacznie obowiązywać 2 sierpnia 2025 roku. Przepisy obejmują m.in. zakaz zastosowań „niedopuszczalnych” (np. manipulacji poznawczej) i rygorystyczne wymogi dla zastosowań „wysokiego ryzyka” – w biometrze, edukacji czy rekrutacji.

Firmy oferujące modele ogólnego przeznaczenia AI o znaczeniu systemowym – takie jak OpenAI, Google, Meta czy Anthropic – będą musiały zapewnić pełną zgodność do 2 sierpnia 2027 roku.

Avatar
Maj 20

Red Hat wprowadza RHEL 10 z inteligencją i bezpieczeństwem dla chmurowych środowisk hybrydowych

Firma Red Hat zaprezentowała wersję 10 systemu Red Hat Enterprise Linux (RHEL), która oferuje przedsiębiorstwom inteligentną i bezpieczną podstawę dla środowisk chmurowych hybrydowych oraz obciążeń związanych z sztuczną inteligencją.
0
Lut 20, 2025

Wprowadzenie Rust do jądra Linux: Oświadczenie Griega Kroaha-Hartmana i Keisa Cooka

Greg Kroah-Hartman, odpowiedzialny za wsparcie stabilnej gałęzi jądra Linux, wyraził poparcie dla rozwoju nowych komponentów jądra w języku Rust. Jako osoba, przez którą przez ostatnie 15 lat przechodziła cała dokumentacja błędów i podatności w jądrze Linux, twierdzi, że większość błędów w jądrze wynika z niewłaściwie obsługiwanych przypadków w języku C (tzw. corner case), które zostałyby całkowicie wykluczone w kodzie napisanym w języku Rust.
0
Cze 18

Amazon zapowiada zmniejszenie liczby stanowisk korporacyjnych w związku z rozwojem AI

Amazon spodziewa się, że wdrażanie generatywnej sztucznej inteligencji doprowadzi do zmniejszenia zapotrzebowania na część stanowisk biurowych. CEO firmy, Andy Jassy, w wewnętrznej notatce zaznaczył, że w miarę wprowadzania nowych agentów AI zmieni się sposób pracy, a niektóre role zostaną zautomatyzowane
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies