Niepubliczny model AI Anthropic do cyberbezpieczeństwa trafił w niepowołane ręce

Niepubliczny model AI Anthropic do cyberbezpieczeństwa trafił w niepowołane ręce

Anthropic potwierdza, że niewielka grupa nieuprawnionych osób uzyskała dostęp do Mythos — nowego modelu AI do zastosowań w cyberbezpieczeństwie, który firma sama określa jako potencjalnie niebezpieczny, jeśli trafi w nieodpowiednie ręce, informuje Bloomberg. Do incydentu miało dojść z udziałem zewnętrznego kontraktora współpracującego z Anthropic. Jeden z członków grupy, cytowany anonimowo, twierdził, że dostęp do modelu uzyskano dzięki połączeniu uprawnień kontraktora i ogólnodostępnych narzędzi wykorzystywanych do analizy informacji w sieci.

Czym jest Claude Mythos Preview

Claude Mythos Preview to nowy model ogólnego przeznaczenia, zaprojektowany z myślą o zadaniach z zakresu cyberbezpieczeństwa. Według Anthropic potrafi on wykrywać i wykorzystywać podatności we wszystkich głównych systemach operacyjnych oraz najważniejszych przeglądarkach internetowych, jeśli użytkownik wyda mu takie polecenie.

Oficjalny dostęp do modelu został ograniczony do wąskiej grupy firm uczestniczących w programie Project Glasswing. Wśród nich znajdują się Nvidia, Google, Amazon Web Services, Apple i Microsoft. Technologią interesują się także instytucje rządowe. Anthropic na razie nie planuje publicznego udostępnienia modelu ze względu na ryzyko jego wykorzystania do działań ofensywnych.

Jak doszło do nieautoryzowanego dostępu

Firma poinformowała, że analizuje zgłoszenie dotyczące nieautoryzowanego dostępu do Claude Mythos Preview przez jedno ze środowisk należących do zewnętrznego dostawcy. Jak dotąd nie ma dowodów na to, że incydent wpłynął na jej własne systemy lub wykraczał poza środowisko tego partnera.

Nielegalny dostęp miał zostać uzyskany 7 kwietnia, w dniu ogłoszenia testów modelu Mythos w wybranych firmach. Grupa, która przejęła dostęp, nie została publicznie zidentyfikowana. Jej członkowie mieli działać na kanale Discord, którego uczestnicy szukają informacji o niewydanych jeszcze modelach AI.

Dostęp do Mythos miał zostać uzyskany dzięki wiedzy o formatach innych modeli Anthropic, zdobytej po niedawnym wycieku danych z Mercor. Na tej podstawie grupa miała oszacować prawdopodobną lokalizację modelu w sieci i wykorzystać ten trop do uzyskania dostępu.

Model był używany regularnie po przejęciu dostępu

Po uzyskaniu dostępu członkowie grupy mieli regularnie korzystać z Mythos. Jako potwierdzenie przekazali zrzuty ekranu oraz prezentację działania modelu na żywo. Jednocześnie mieli unikać wykorzystywania go bezpośrednio do działań związanych z cyberbezpieczeństwem, aby nie zwrócić uwagi Anthropic.

Grupa mogła uzyskać dostęp także do innych niewydanych modeli Anthropic. Firma nie podała na razie, jak szeroki był zakres naruszenia ani czy planuje zmiany w procedurach bezpieczeństwa po stronie partnerów zewnętrznych.


Avatar
Paz 6, 2023

Amazon zainwestuje do 4 mld USD w AI

Gigant e-commerce planuje wykorzystać sztuczną inteligencję do zwiększenia możliwości konwersacyjnych swojego asystenta głosowego Alexa.
0
Lut 28, 2024

Zwolnienia grupowe w Infosys Poland

O zwolnieniu 250 pracowników napisał anonimowy czytelnik na jednym z portalu.
0
Lut 20, 2025

Wprowadzenie Rust do jądra Linux: Oświadczenie Griega Kroaha-Hartmana i Keisa Cooka

Greg Kroah-Hartman, odpowiedzialny za wsparcie stabilnej gałęzi jądra Linux, wyraził poparcie dla rozwoju nowych komponentów jądra w języku Rust. Jako osoba, przez którą przez ostatnie 15 lat przechodziła cała dokumentacja błędów i podatności w jądrze Linux, twierdzi, że większość błędów w jądrze wynika z niewłaściwie obsługiwanych przypadków w języku C (tzw. corner case), które zostałyby całkowicie wykluczone w kodzie napisanym w języku Rust.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies