Niepubliczny model AI Anthropic do cyberbezpieczeństwa trafił w niepowołane ręce

Niepubliczny model AI Anthropic do cyberbezpieczeństwa trafił w niepowołane ręce

Anthropic potwierdza, że niewielka grupa nieuprawnionych osób uzyskała dostęp do Mythos — nowego modelu AI do zastosowań w cyberbezpieczeństwie, który firma sama określa jako potencjalnie niebezpieczny, jeśli trafi w nieodpowiednie ręce, informuje Bloomberg. Do incydentu miało dojść z udziałem zewnętrznego kontraktora współpracującego z Anthropic. Jeden z członków grupy, cytowany anonimowo, twierdził, że dostęp do modelu uzyskano dzięki połączeniu uprawnień kontraktora i ogólnodostępnych narzędzi wykorzystywanych do analizy informacji w sieci.

Czym jest Claude Mythos Preview

Claude Mythos Preview to nowy model ogólnego przeznaczenia, zaprojektowany z myślą o zadaniach z zakresu cyberbezpieczeństwa. Według Anthropic potrafi on wykrywać i wykorzystywać podatności we wszystkich głównych systemach operacyjnych oraz najważniejszych przeglądarkach internetowych, jeśli użytkownik wyda mu takie polecenie.

Oficjalny dostęp do modelu został ograniczony do wąskiej grupy firm uczestniczących w programie Project Glasswing. Wśród nich znajdują się Nvidia, Google, Amazon Web Services, Apple i Microsoft. Technologią interesują się także instytucje rządowe. Anthropic na razie nie planuje publicznego udostępnienia modelu ze względu na ryzyko jego wykorzystania do działań ofensywnych.

Jak doszło do nieautoryzowanego dostępu

Firma poinformowała, że analizuje zgłoszenie dotyczące nieautoryzowanego dostępu do Claude Mythos Preview przez jedno ze środowisk należących do zewnętrznego dostawcy. Jak dotąd nie ma dowodów na to, że incydent wpłynął na jej własne systemy lub wykraczał poza środowisko tego partnera.

Nielegalny dostęp miał zostać uzyskany 7 kwietnia, w dniu ogłoszenia testów modelu Mythos w wybranych firmach. Grupa, która przejęła dostęp, nie została publicznie zidentyfikowana. Jej członkowie mieli działać na kanale Discord, którego uczestnicy szukają informacji o niewydanych jeszcze modelach AI.

Dostęp do Mythos miał zostać uzyskany dzięki wiedzy o formatach innych modeli Anthropic, zdobytej po niedawnym wycieku danych z Mercor. Na tej podstawie grupa miała oszacować prawdopodobną lokalizację modelu w sieci i wykorzystać ten trop do uzyskania dostępu.

Model był używany regularnie po przejęciu dostępu

Po uzyskaniu dostępu członkowie grupy mieli regularnie korzystać z Mythos. Jako potwierdzenie przekazali zrzuty ekranu oraz prezentację działania modelu na żywo. Jednocześnie mieli unikać wykorzystywania go bezpośrednio do działań związanych z cyberbezpieczeństwem, aby nie zwrócić uwagi Anthropic.

Grupa mogła uzyskać dostęp także do innych niewydanych modeli Anthropic. Firma nie podała na razie, jak szeroki był zakres naruszenia ani czy planuje zmiany w procedurach bezpieczeństwa po stronie partnerów zewnętrznych.


Avatar
Oct 20, 2022

System operacyjny KataOS i platforma Sparrow – nowe produkty Google’a

Google zapowiedziało rozpoczęcie prac nad KataOS — nowym systemem operacyjnym chroniącą internet rzeczy — oraz referencyjną platformą Sparrow, mającą wspomagać nowe zabezpieczenia.
0
Jun 24

Japońska technologia pozwala sterować robotem przy użyciu mięśni

Japońska firma H2L zaprezentowała nowy interfejs Capsule Interface, który umożliwia zdalne sterowanie robotami humanoidalnymi za pomocą napięcia mięśniowego. System wykorzystuje czujniki do wykrywania mikroruchów mięśni i przekazywania ich w czasie rzeczywistym do robota
0
Jul 18

Anthropic ogranicza dostęp do Claude Code bez wcześniejszego uprzedzenia

Użytkownicy Claude Code – w tym ci na planie Max za 200 dolarów miesięcznie – od poniedziałkowego poranka doświadczają nieoczekiwanych ograniczeń w korzystaniu z usługi. Na ekranie pojawia się jedynie komunikat „Claude usage limit reached” z informacją, kiedy dostęp zostanie przywrócony.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies