[NEW] Szukaj pracy anonimowo — sprawdź szczegóły
Close
OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times.

Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.

"To pierwszy przypadek, gdy zidentyfikowaliśmy tak zaawansowany system inwigilacji oparty na AI. Czasami sami cyberprzestępcy nieświadomie ujawniają nam swoje operacje poprzez to, w jaki sposób wchodzą w interakcję z naszymi modelami."

powiedział Ben Nimmo, główny badacz OpenAI.

Według OpenAI, chiński system monitorowania bazuje na modelu Llama, opracowanym przez Meta. Ponieważ Llama została udostępniona jako open-source, wykorzystano ją do stworzenia tej technologii inwigilacyjnej.

Nie tylko monitoring – kampanie propagandowe z udziałem AI

Oprócz systemu Peer Review, OpenAI wykryła również inną operację o nazwie Sponsored Discontent, która korzystała z jej narzędzi do generowania treści w języku angielskim, skierowanych przeciwko chińskim dysydentom. Grupa ta tłumaczyła także artykuły krytykujące Stany Zjednoczone i rozpowszechniała je w języku hiszpańskim w Ameryce Łacińskiej.

W raporcie OpenAI wskazano także na inne zagrożenia. Badacze ujawnili kampanię z Kambodży, która wykorzystywała AI do udziału w schemacie oszustwa finansowego znanym jako "pig butchering". Metoda ta polega na nawiązywaniu internetowych znajomości z mężczyznami, a następnie wciąganiu ich w fałszywe inwestycje. Oszuści używali AI do generowania przekonujących komentarzy w mediach społecznościowych, by budować zaufanie ofiar.

AI – zarówno zagrożenie, jak i narzędzie ochrony

OpenAI podkreśla, że mimo rosnących zagrożeń, sztuczna inteligencja może być również skutecznym narzędziem do wykrywania i przeciwdziałania szkodliwej działalności.

Avatar
Wrz 14, 2023

RustRover — nowe IDE JetBrains dla programistów Rust

Firma JetBrains zaprezentowała własne samodzielne IDE dla języka Rust — RustRover. Od lat pracowali nad dodaniem wsparcia dla funkcjonalności Rust w formie wtyczki, która działa zarówno w IntelliJ IDEA, jak i CLion.
Lut 28, 2023

To jeszcze nie koniec. Elon Musk zwolnił kolejne 10% pracowników

W ten sposób Elon Musk zredukował siłę roboczą Twittera do 2,000, podczas gdy przed przejęciem giganta w październiku spółka zatrudniała 7500 osób.
Lut 11

Google, OpenAI, Roblox і Discord łączą siły na rzecz ochrony dzieci w internecie

Google, OpenAI, Roblox oraz Discord ogłosiły powstanie nowej organizacji non-profit – Robust Open Online Safety Tools (ROOST), której celem jest zwiększenie bezpieczeństwa dzieci w sieci. Inicjatywa koncentruje się na udostępnianiu technologii wykrywania zagrożeń oraz rozwijaniu narzędzi opartych na AI, które pomogą w identyfikacji materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM).

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies