[NEW] Search for a job anonymously — check the details
Close
Google szkoli swoje modele AI na filmach z YouTube – bez zgody twórców

Google szkoli swoje modele AI na filmach z YouTube – bez zgody twórców

Google wykorzystuje część biblioteki YouTube do trenowania modeli generatywnych, takich jak Gemini i Veo 3 – nowy generator treści wideo i audio oparty na AI. Firma potwierdziła, że korzysta z wybranych materiałów z platformy, jednak według ekspertów większość twórców nie miała świadomości, że ich treści są przetwarzane w tym celu, – informuje CNBC.

Miliony godzin wideo używane do trenowania modeli

Z nieoficjalnych informacji wynika, że Google sięga po dane z katalogu zawierającego nawet 20 miliardów filmów. Nawet jeśli trenowanie obejmuje zaledwie 1% tej bazy, to odpowiada ponad 2,3 miliarda minut materiału – czterdziestokrotnie więcej niż w przypadku konkurencyjnych modeli AI. Wewnętrzne zasady YouTube pozwalają firmie na szerokie wykorzystanie przesłanych treści, bez opcji wycofania zgody na wykorzystywanie ich do trenowania własnych modeli AI.

Brak przejrzystości i ryzyko naruszeń praw autorskich

YouTube deklaruje, że informował wcześniej o możliwości wykorzystywania materiałów do ulepszania swoich usług, również w kontekście AI. Jednak wielu twórców i przedstawicieli branży medialnej nie miało świadomości, że ich filmy są używane do trenowania modeli sztucznej inteligencji. Narzędzia takie jak Trace ID, opracowane przez firmę Vermillio, wykazują wysoką zbieżność pomiędzy oryginalnymi treściami a materiałami wygenerowanymi przez modele takie jak Veo 3 – w niektórych przypadkach przekraczającą 90% zgodności dźwięku.

Organizacje broniące praw cyfrowych ostrzegają, że może to doprowadzić do poważnych napięć wokół własności intelektualnej. Obawy budzi brak rekompensaty lub mechanizmów kontroli dla autorów, których praca trafia do zbiorów treningowych komercyjnych systemów.

Twórcy bez realnego wpływu na wykorzystanie ich treści

Część twórców nie wyklucza, że generatywna AI może służyć jako źródło inspiracji i eksperymentów. Jednak zdecydowana większość postuluje wprowadzenie jasnych zasad i możliwości wyboru. YouTube wprowadził wprawdzie ograniczoną opcję rezygnacji z przetwarzania przez zewnętrzne firmy (takie jak Amazon czy Apple), ale nie daje możliwości zablokowania wykorzystywania materiałów przez samego Google.

W odpowiedzi na rosnącą presję platforma współpracuje z agencją Creative Artists Agency nad mechanizmami zarządzania treściami generowanymi z wykorzystaniem wizerunku znanych osób. Eksperci zwracają jednak uwagę, że obecne narzędzia usuwania lub śledzenia podobnych materiałów pozostają niewystarczające. Tymczasem w USA pojawiają się propozycje ustawowe, które mają zagwarantować twórcom realną kontrolę nad użyciem ich pracy w erze generatywnej sztucznej inteligencji.

Avatar
Jan 30

"Kupiłem to, zanim Elon oszalał" — właściciele Tesli masowo kupują naklejki na swoje auta

Po tym, jak Elon Musk publicznie zadeklarował swoje poparcie dla Donalda Trumpa w wyborach prezydenckich w USA, właściciele Tesli zaczęli masowo zamawiać naklejki wyrażające dystans wobec założyciela firmy.
0
Jan 9

Sam Altman odpowiedział na pozew z zarzutami o przemoc seksualną wobec swojej siostry

Dyrektor generalny OpenAI, Sam Altman, we wtorek odniósł się do oskarżeń o przemoc seksualną wysuniętych przez jego młodszą siostrę, nazywając te zarzuty „całkowicie nieprawdziwymi”. O czym mowa w pozwie? Według informacji opublikowanych w Saint Louis Post Dispatch, w nowym pozwie złożonym w poniedziałek, Annie Altman oskarżyła swojego starszego brata o stosowanie przemocy seksualnej przez dziewięć lat w latach 1990 i 2000. Pozew ten powtarza zarzuty, które Annie już wcześniej przedstawiała w mediach społecznościowych w 2021 roku.
0
Jan 10

Wybuch w Las Vegas: ChatGPT oskarżany o pomoc w stworzeniu bomby

Rok dla OpenAI nie zaczął się najlepiej. Oprócz zarzutów wobec Sama Altmana, pojawiła się informacja o wybuchu Tesla Cybertruck w Las Vegas 1 stycznia, który niestety pochłonął życie jednej osoby. Według policji Matthew Alan Livelsberger użył ChatGPT do uzyskania informacji na temat ilości materiałów wybuchowych oraz rodzaju pistoletu, który mógłby je zdetonować.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies