[NEW] Szukaj pracy anonimowo — sprawdź szczegóły
Close
OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times.

Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.

"To pierwszy przypadek, gdy zidentyfikowaliśmy tak zaawansowany system inwigilacji oparty na AI. Czasami sami cyberprzestępcy nieświadomie ujawniają nam swoje operacje poprzez to, w jaki sposób wchodzą w interakcję z naszymi modelami."

powiedział Ben Nimmo, główny badacz OpenAI.

Według OpenAI, chiński system monitorowania bazuje na modelu Llama, opracowanym przez Meta. Ponieważ Llama została udostępniona jako open-source, wykorzystano ją do stworzenia tej technologii inwigilacyjnej.

Nie tylko monitoring – kampanie propagandowe z udziałem AI

Oprócz systemu Peer Review, OpenAI wykryła również inną operację o nazwie Sponsored Discontent, która korzystała z jej narzędzi do generowania treści w języku angielskim, skierowanych przeciwko chińskim dysydentom. Grupa ta tłumaczyła także artykuły krytykujące Stany Zjednoczone i rozpowszechniała je w języku hiszpańskim w Ameryce Łacińskiej.

W raporcie OpenAI wskazano także na inne zagrożenia. Badacze ujawnili kampanię z Kambodży, która wykorzystywała AI do udziału w schemacie oszustwa finansowego znanym jako "pig butchering". Metoda ta polega na nawiązywaniu internetowych znajomości z mężczyznami, a następnie wciąganiu ich w fałszywe inwestycje. Oszuści używali AI do generowania przekonujących komentarzy w mediach społecznościowych, by budować zaufanie ofiar.

AI – zarówno zagrożenie, jak i narzędzie ochrony

OpenAI podkreśla, że mimo rosnących zagrożeń, sztuczna inteligencja może być również skutecznym narzędziem do wykrywania i przeciwdziałania szkodliwej działalności.

Avatar
Cze 19

16 miliardów wykradzionych haseł. Ujawniono dane z Apple, Google, Facebooka i GitHuba

Eksperci potwierdzili ogromny wyciek danych obejmujący aż 16 miliardów kont użytkowników. Chodzi o loginy, hasła, adresy stron internetowych, a nawet tokeny dostępu. Wśród poszkodowanych są użytkownicy takich usług jak Apple, Facebook, Google, Telegram, GitHub, serwisy VPN, sklepy internetowe, portale dla deweloperów, a także platformy rządowe.
0
Lip 15

UE testuje aplikację do weryfikacji wieku użytkowników online

Komisja Europejska rozpoczęła pilotaż aplikacji do weryfikacji wieku w pięciu krajach: Danii, Grecji, Hiszpanii, Francji i Włoszech. Narzędzie ma pomóc platformom internetowym w skuteczniejszej ochronie małoletnich i spełnianiu wymogów wynikających z Aktu o usługach cyfrowych (DSA), – informuje Komisja Europejska.
0
Lut 12

Europa przyspiesza rozwój AI – miliardy na infrastrukturę i superkomputery

Podczas Globalnego Szczytu AI w Paryżu Unia Europejska i Francja ogłosiły gigantyczne inwestycje w rozwój sztucznej inteligencji. UE planuje zainwestować 200 miliardów euro, a Francja dodatkowe 109 miliardów euro oraz 1 gigawat energii jądrowej, by stać się liderem w infrastrukturze AI.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies