Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta ogłosiła, że nie zamierza podpisać nowego kodeksu postępowania Unii Europejskiej, który ma wspierać wdrażanie AI Act – przepisów regulujących działanie modeli ogólnego przeznaczenia sztucznej inteligencji (general-purpose AI), – informuje TechCrunch.

Meta: przepisy UE blokują rozwój AI w Europie

Kodeks postępowania został opublikowany 10 lipca jako dobrowolny zbiór wytycznych dla firm tworzących systemy AI. Zakłada m.in. obowiązek dokumentowania funkcji modeli, zakaz trenowania ich na materiałach pirackich oraz konieczność respektowania żądań twórców dotyczących danych treningowych.

Meta krytykuje dokument jako „nadmierne regulowanie” i zapowiada jego bojkot. Joel Kaplan, szef globalnych spraw publicznych Meta, napisał, że kodeks „wprowadza niepewność prawną dla firm rozwijających modele AI” i „wykracza poza zakres AI Act”.

Ostrzegł też, że takie podejście „zdusi rozwój zaawansowanych modeli AI w Europie”.

https://www.linkedin.com/posts/joel-kaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity-7351928745668055042-XuF7/
https://www.linkedin.com/posts/joel-kaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity-7351928745668055042-XuF7/

Brak podpisu zwiększy presję regulacyjną

Chociaż kodeks nie jest obowiązkowy, Komisja Europejska zachęca firmy do jego podpisania. Jak podkreślił rzecznik KE ds. cyfrowych Thomas Regnier, firmy, które tego nie zrobią, będą musiały udowodnić zgodność z przepisami w inny sposób – co może skutkować większym nadzorem i ryzykiem prawnym.

AI Act przewiduje wysokie kary za naruszenia: do 7% rocznego globalnego obrotu, a dla twórców zaawansowanych modeli – do 3%.

Przepisy AI Act wejdą w życie 2 sierpnia

AI Act, pierwsze kompleksowe prawo UE dotyczące sztucznej inteligencji, zacznie obowiązywać 2 sierpnia 2025 roku. Przepisy obejmują m.in. zakaz zastosowań „niedopuszczalnych” (np. manipulacji poznawczej) i rygorystyczne wymogi dla zastosowań „wysokiego ryzyka” – w biometrze, edukacji czy rekrutacji.

Firmy oferujące modele ogólnego przeznaczenia AI o znaczeniu systemowym – takie jak OpenAI, Google, Meta czy Anthropic – będą musiały zapewnić pełną zgodność do 2 sierpnia 2027 roku.

Avatar
Jul 13, 2023

Bard debiutuje w 40 nowych językach, w tym polskim

Dziś następuje debiut w 40 nowych językach na całym świecie, w tym arabskim, niemieckim, hindi itd.
0
Jan 23

Stargate za 500 miliardów dolarów: Musk krytykuje, Altman odpowiada

Świat technologii jest świadkiem zaostrzenia konfliktu pomiędzy Elonem Muskiem a Samem Altmanem, tym razem wokół projektu Stargate – gigantycznej inicjatywy o wartości 500 miliardów dolarów mającej na celu budowę infrastruktury dla sztucznej inteligencji w USA. Projekt, ogłoszony w Białym Domu, ma na celu wzmocnienie amerykańskiej pozycji lidera w dziedzinie AI.
0
Mar 30

Google przechodzi na rozwój Androida za zamkniętymi drzwiami – kod źródłowy będzie udostępniany dopiero po wydaniach

Począwszy od przyszłego tygodnia, firma Google wprowadza nowy model rozwoju platformy Android, w ramach którego prace nad kolejnymi wydaniami będą odbywać się za zamkniętymi drzwiami – bez publicznego dostępu do pośrednich efektów prac oraz bez otwartych recenzji zmian w poszczególnych komponentach.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies