[NEW] Search for a job anonymously — check the details
Close
OpenAI wprowadza obowiązkową weryfikację organizacji przed udostępnieniem nowych modeli AI

OpenAI wprowadza obowiązkową weryfikację organizacji przed udostępnieniem nowych modeli AI

Nowa procedura Verified Organization ma poprawić bezpieczeństwo i ograniczyć nadużycia przy korzystaniu z API

Nowa procedura weryfikacji organizacji

OpenAI zapowiedziało wprowadzenie nowego procesu weryfikacji o nazwie Verified Organization, który ma być warunkiem uzyskania dostępu do niektórych przyszłych modeli AI poprzez API firmy. Zgodnie z informacją opublikowaną na stronie pomocy technicznej, organizacje będą musiały potwierdzić swoją tożsamość za pomocą oficjalnego dokumentu tożsamości wydanego przez organ państwowy jednego z krajów wspieranych przez OpenAI. Każdy dokument może zostać wykorzystany tylko raz na 90 dni i tylko w odniesieniu do jednej organizacji.

OpenAI zastrzega, że nie wszystkie organizacje będą kwalifikować się do procesu weryfikacji i niektóre wnioski mogą zostać odrzucone bez podania przyczyny.

Większe bezpieczeństwo i kontrola nadużyć

Firma tłumaczy, że głównym celem nowego rozwiązania jest poprawa bezpieczeństwa oraz zapobieganie niewłaściwemu lub celowemu naruszaniu zasad korzystania z API. Według OpenAI, niewielka grupa deweloperów świadomie wykorzystuje modele w sposób niezgodny z polityką użytkowania. Nowy system ma umożliwić ograniczenie takich przypadków bez blokowania dostępu uczciwym użytkownikom.

Reakcja na zagrożenia dla własności intelektualnej

Drugim możliwym powodem wprowadzenia nowej procedury może być ochrona własności intelektualnej OpenAI. Wcześniej media informowały o tym, że firma prowadzi dochodzenie w sprawie możliwego wycieku danych przez API, którego miała dopuścić się grupa powiązana z chińskim laboratorium DeepSeek. Według nieoficjalnych informacji, dane te mogły zostać użyte do trenowania zewnętrznych modeli, co stanowiłoby naruszenie zasad OpenAI.

W odpowiedzi na podobne incydenty firma zablokowała dostęp do swoich usług w Chinach latem 2024 roku. Nowe zasady weryfikacji mogą być kolejnym krokiem w kierunku ściślejszej kontroli nad wykorzystaniem zaawansowanych modeli sztucznej inteligencji.

Avatar
Mar 30

Google przechodzi na rozwój Androida za zamkniętymi drzwiami – kod źródłowy będzie udostępniany dopiero po wydaniach

Począwszy od przyszłego tygodnia, firma Google wprowadza nowy model rozwoju platformy Android, w ramach którego prace nad kolejnymi wydaniami będą odbywać się za zamkniętymi drzwiami – bez publicznego dostępu do pośrednich efektów prac oraz bez otwartych recenzji zmian w poszczególnych komponentach.
0
Jan 30

Nassim Taleb: wyprzedaż akcji NVIDIA to początek spadków na rynku AI

Autor książki Czarny Łabędź, Nassim Taleb, ostrzega, że poniedziałkowa wyprzedaż akcji NVIDIA z 27 stycznia to jedynie wstęp do większych turbulencji na rynku firm rozwijających sztuczną inteligencję. W rozmowie z Bloomberg News podkreślił, że inwestorzy dopiero zaczynają dostrzegać rzeczywiste ryzyka.
0
Apr 11

Trump zmienia zdanie w sprawie ograniczeń eksportu chipów H20 po kolacji z CEO Nvidii

Administracja Donalda Trumpa niespodziewanie zrezygnowała z planowanego zakazu eksportu chipów H20 do Chin — najnowocześniejszych układów AI, które amerykańskie firmy mogą legalnie sprzedawać na rynek chiński. Decyzję ogłoszono po kolacji w Mar-a-Lago, na którą zaproszono także CEO Nvidii, Jensena Huanga. Koszt jednego miejsca przy stole wynosił milion dolarów.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies