OpenAI wprowadza obowiązkową weryfikację organizacji przed udostępnieniem nowych modeli AI

OpenAI wprowadza obowiązkową weryfikację organizacji przed udostępnieniem nowych modeli AI

Nowa procedura Verified Organization ma poprawić bezpieczeństwo i ograniczyć nadużycia przy korzystaniu z API

Nowa procedura weryfikacji organizacji

OpenAI zapowiedziało wprowadzenie nowego procesu weryfikacji o nazwie Verified Organization, który ma być warunkiem uzyskania dostępu do niektórych przyszłych modeli AI poprzez API firmy. Zgodnie z informacją opublikowaną na stronie pomocy technicznej, organizacje będą musiały potwierdzić swoją tożsamość za pomocą oficjalnego dokumentu tożsamości wydanego przez organ państwowy jednego z krajów wspieranych przez OpenAI. Każdy dokument może zostać wykorzystany tylko raz na 90 dni i tylko w odniesieniu do jednej organizacji.

OpenAI zastrzega, że nie wszystkie organizacje będą kwalifikować się do procesu weryfikacji i niektóre wnioski mogą zostać odrzucone bez podania przyczyny.

Większe bezpieczeństwo i kontrola nadużyć

Firma tłumaczy, że głównym celem nowego rozwiązania jest poprawa bezpieczeństwa oraz zapobieganie niewłaściwemu lub celowemu naruszaniu zasad korzystania z API. Według OpenAI, niewielka grupa deweloperów świadomie wykorzystuje modele w sposób niezgodny z polityką użytkowania. Nowy system ma umożliwić ograniczenie takich przypadków bez blokowania dostępu uczciwym użytkownikom.

Reakcja na zagrożenia dla własności intelektualnej

Drugim możliwym powodem wprowadzenia nowej procedury może być ochrona własności intelektualnej OpenAI. Wcześniej media informowały o tym, że firma prowadzi dochodzenie w sprawie możliwego wycieku danych przez API, którego miała dopuścić się grupa powiązana z chińskim laboratorium DeepSeek. Według nieoficjalnych informacji, dane te mogły zostać użyte do trenowania zewnętrznych modeli, co stanowiłoby naruszenie zasad OpenAI.

W odpowiedzi na podobne incydenty firma zablokowała dostęp do swoich usług w Chinach latem 2024 roku. Nowe zasady weryfikacji mogą być kolejnym krokiem w kierunku ściślejszej kontroli nad wykorzystaniem zaawansowanych modeli sztucznej inteligencji.

Avatar
Sty 13, 2023

CEO Apple Tim Cook obniży swoją pensję o ponad 40%. Firma twierdzi, że sam o to poprosił

W 2023 roku wynagrodzenie Chief Executive Officer Apple Tima Cooka spadnie o ponad 40% — 49 mln USD zamiast 84 mln USD (jak w 2022 r.). Informuje o tym Bloomberg. Firma twierdzi, że sam Cook poprosił o obniżkę wynagrodzenia po krytyce ze strony akcjonariuszy.
0
Paz 13

Nagroda Nobla w dziedzinie fizyki 2025: zjawiska kwantowe w skali makroskopowej

Co roku w październiku ogłaszani są laureaci Nagrody Nobla. Tegoroczna nagroda w dziedzinie fizyki trafiła do trzech naukowców: Johna Clarke’a (Wielka Brytania, Uniwersytet Kalifornijski w Berkeley), Michela Devore’a (Francja, Uniwersytet Yale) oraz Johna Martinisa (USA, Uniwersytet Kalifornijski w Santa Barbara). Byli oni pierwszymi, którzy udowodnili, że efekty kwantowe – takie jak tunelowanie cząstek czy kwantowanie energii – mogą występować nie tylko w mikroskali, ale również w systemach, które dosłownie można trzymać w dłoniach.
0
Cze 24

Iran publikuje fałszywe nagrania zestrzeleń izraelskich myśliwców, wykorzystując ujęcia z Arma 3 i innej gry

Od 13 czerwca na Bliskim Wschodzie trwa wojna między Izraelem a Iranem. Po tym, jak państwo żydowskie przeprowadziło serię skutecznych ataków, rząd ajatollahów zaczął odpowiadać atakami rakietowymi. Gry komputerowe stały się jednym z narzędzi propagandy w tym konflikcie. Irańskie wojsko wykorzystało ujęcia z Arma 3 oraz rosyjskiej gry War Thunder, aby zaprezentować sfabrykowane zestrzelenia izraelskich samolotów. Nagrania te były intensywnie rozpowszechniane w mediach społecznościowych.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies