OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times.

Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.

"To pierwszy przypadek, gdy zidentyfikowaliśmy tak zaawansowany system inwigilacji oparty na AI. Czasami sami cyberprzestępcy nieświadomie ujawniają nam swoje operacje poprzez to, w jaki sposób wchodzą w interakcję z naszymi modelami."

powiedział Ben Nimmo, główny badacz OpenAI.

Według OpenAI, chiński system monitorowania bazuje na modelu Llama, opracowanym przez Meta. Ponieważ Llama została udostępniona jako open-source, wykorzystano ją do stworzenia tej technologii inwigilacyjnej.

Nie tylko monitoring – kampanie propagandowe z udziałem AI

Oprócz systemu Peer Review, OpenAI wykryła również inną operację o nazwie Sponsored Discontent, która korzystała z jej narzędzi do generowania treści w języku angielskim, skierowanych przeciwko chińskim dysydentom. Grupa ta tłumaczyła także artykuły krytykujące Stany Zjednoczone i rozpowszechniała je w języku hiszpańskim w Ameryce Łacińskiej.

W raporcie OpenAI wskazano także na inne zagrożenia. Badacze ujawnili kampanię z Kambodży, która wykorzystywała AI do udziału w schemacie oszustwa finansowego znanym jako "pig butchering". Metoda ta polega na nawiązywaniu internetowych znajomości z mężczyznami, a następnie wciąganiu ich w fałszywe inwestycje. Oszuści używali AI do generowania przekonujących komentarzy w mediach społecznościowych, by budować zaufanie ofiar.

AI – zarówno zagrożenie, jak i narzędzie ochrony

OpenAI podkreśla, że mimo rosnących zagrożeń, sztuczna inteligencja może być również skutecznym narzędziem do wykrywania i przeciwdziałania szkodliwej działalności.

Avatar
May 2

Microsoft wprowadza logowanie bez haseł — nowe konta tylko z passkey, push i kluczami sprzętowymi

Z okazji pierwszego w historii „World Passkey Day”, Microsoft ogłosił, że wszystkie nowe konta tworzone w ekosystemie firmy będą domyślnie pozbawione hasła. Zamiast tego użytkownikom oferowane będą bezpieczniejsze metody uwierzytelniania: klucze dostępu (passkeys), powiadomienia push oraz fizyczne klucze bezpieczeństwa.
0
Jun 24

„Ważne, by nie zapomnieć, jak pisać kod ręcznie”: CEO GitHuba o tym, dlaczego nie warto polegać wyłącznie na AI

CEO GitHuba, Thomas Dohmke, zaznaczył, że nawet w czasach, gdy sztuczna inteligencja aktywnie generuje kod, programiści nie powinni zapominać, jak robić to samodzielnie. Ostrzega, że całkowite poleganie na autogenerowaniu może prowadzić do utraty istotnych umiejętności i czasu.
0
Mar 14

OpenAI wzywa do zakazu chińskich modeli AI

OpenAI w nowej propozycji regulacji dotyczącej sztucznej inteligencji określiło chińskie laboratorium DeepSeek jako „kontrolowane przez państwo”, zalecając rządowi USA rozważenie zakazu modeli AI opracowanych w Chińskiej Republice Ludowej (ChRL). Dokument został przedłożony w ramach inicjatywy administracji Trumpa „AI Action Plan”, której celem jest uregulowanie wykorzystania sztucznej inteligencji.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies