Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta ogłosiła, że nie zamierza podpisać nowego kodeksu postępowania Unii Europejskiej, który ma wspierać wdrażanie AI Act – przepisów regulujących działanie modeli ogólnego przeznaczenia sztucznej inteligencji (general-purpose AI), – informuje TechCrunch.

Meta: przepisy UE blokują rozwój AI w Europie

Kodeks postępowania został opublikowany 10 lipca jako dobrowolny zbiór wytycznych dla firm tworzących systemy AI. Zakłada m.in. obowiązek dokumentowania funkcji modeli, zakaz trenowania ich na materiałach pirackich oraz konieczność respektowania żądań twórców dotyczących danych treningowych.

Meta krytykuje dokument jako „nadmierne regulowanie” i zapowiada jego bojkot. Joel Kaplan, szef globalnych spraw publicznych Meta, napisał, że kodeks „wprowadza niepewność prawną dla firm rozwijających modele AI” i „wykracza poza zakres AI Act”.

Ostrzegł też, że takie podejście „zdusi rozwój zaawansowanych modeli AI w Europie”.

https://www.linkedin.com/posts/joel-kaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity-7351928745668055042-XuF7/
https://www.linkedin.com/posts/joel-kaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity-7351928745668055042-XuF7/

Brak podpisu zwiększy presję regulacyjną

Chociaż kodeks nie jest obowiązkowy, Komisja Europejska zachęca firmy do jego podpisania. Jak podkreślił rzecznik KE ds. cyfrowych Thomas Regnier, firmy, które tego nie zrobią, będą musiały udowodnić zgodność z przepisami w inny sposób – co może skutkować większym nadzorem i ryzykiem prawnym.

AI Act przewiduje wysokie kary za naruszenia: do 7% rocznego globalnego obrotu, a dla twórców zaawansowanych modeli – do 3%.

Przepisy AI Act wejdą w życie 2 sierpnia

AI Act, pierwsze kompleksowe prawo UE dotyczące sztucznej inteligencji, zacznie obowiązywać 2 sierpnia 2025 roku. Przepisy obejmują m.in. zakaz zastosowań „niedopuszczalnych” (np. manipulacji poznawczej) i rygorystyczne wymogi dla zastosowań „wysokiego ryzyka” – w biometrze, edukacji czy rekrutacji.

Firmy oferujące modele ogólnego przeznaczenia AI o znaczeniu systemowym – takie jak OpenAI, Google, Meta czy Anthropic – będą musiały zapewnić pełną zgodność do 2 sierpnia 2027 roku.

Avatar
Maj 6

TikTok ukarany przez UE grzywną w wysokości 530 mln euro. Grozi zawieszenie transferów danych do Chin

Unia Europejska nałożyła na TikToka karę w wysokości 530 mln euro za naruszenia w zakresie ochrony danych użytkowników — informuje agencja Reuters, powołując się na irlandzki urząd ochrony danych osobowych (DPC). Regulator ostrzega też, że jeśli firma nie dostosuje się do unijnego prawa w ciągu sześciu miesięcy, transfer danych do Chin zostanie zawieszony.
0
Lip 18

Anthropic ogranicza dostęp do Claude Code bez wcześniejszego uprzedzenia

Użytkownicy Claude Code – w tym ci na planie Max za 200 dolarów miesięcznie – od poniedziałkowego poranka doświadczają nieoczekiwanych ograniczeń w korzystaniu z usługi. Na ekranie pojawia się jedynie komunikat „Claude usage limit reached” z informacją, kiedy dostęp zostanie przywrócony.
0
Lut 11

Google, OpenAI, Roblox і Discord łączą siły na rzecz ochrony dzieci w internecie

Google, OpenAI, Roblox oraz Discord ogłosiły powstanie nowej organizacji non-profit – Robust Open Online Safety Tools (ROOST), której celem jest zwiększenie bezpieczeństwa dzieci w sieci. Inicjatywa koncentruje się na udostępnianiu technologii wykrywania zagrożeń oraz rozwijaniu narzędzi opartych na AI, które pomogą w identyfikacji materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM).
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies