[NEW] Search for a job anonymously — check the details
Close
OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times.

Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.

"To pierwszy przypadek, gdy zidentyfikowaliśmy tak zaawansowany system inwigilacji oparty na AI. Czasami sami cyberprzestępcy nieświadomie ujawniają nam swoje operacje poprzez to, w jaki sposób wchodzą w interakcję z naszymi modelami."

powiedział Ben Nimmo, główny badacz OpenAI.

Według OpenAI, chiński system monitorowania bazuje na modelu Llama, opracowanym przez Meta. Ponieważ Llama została udostępniona jako open-source, wykorzystano ją do stworzenia tej technologii inwigilacyjnej.

Nie tylko monitoring – kampanie propagandowe z udziałem AI

Oprócz systemu Peer Review, OpenAI wykryła również inną operację o nazwie Sponsored Discontent, która korzystała z jej narzędzi do generowania treści w języku angielskim, skierowanych przeciwko chińskim dysydentom. Grupa ta tłumaczyła także artykuły krytykujące Stany Zjednoczone i rozpowszechniała je w języku hiszpańskim w Ameryce Łacińskiej.

W raporcie OpenAI wskazano także na inne zagrożenia. Badacze ujawnili kampanię z Kambodży, która wykorzystywała AI do udziału w schemacie oszustwa finansowego znanym jako "pig butchering". Metoda ta polega na nawiązywaniu internetowych znajomości z mężczyznami, a następnie wciąganiu ich w fałszywe inwestycje. Oszuści używali AI do generowania przekonujących komentarzy w mediach społecznościowych, by budować zaufanie ofiar.

AI – zarówno zagrożenie, jak i narzędzie ochrony

OpenAI podkreśla, że mimo rosnących zagrożeń, sztuczna inteligencja może być również skutecznym narzędziem do wykrywania i przeciwdziałania szkodliwej działalności.

Avatar
Mar 21, 2023

Polski startup Travatar.ai wykrywa sztuczny ruch na stronach internetowych

Według raportów Statista szacuje się, że w 2023 roku firmy stracą 100 mld USD przez oszustwa reklamowe (ad fraud) spowodowane przez szkodliwe boty.
0
Jun 9

Intel: nowe produkty tylko z 50% marżą — firma zaostrza politykę zatwierdzania projektów

Podczas konferencji Bank of America Global Technology 2025 Michelle Johnston Holthaus, szefowa Intel Products, zapowiedziała nową politykę zatwierdzania produktów. Firma będzie rozwijać wyłącznie te projekty, które wykażą potencjał osiągnięcia co najmniej 50% marży brutto. Propozycje, które nie spełniają tego kryterium, nie otrzymają zasobów inżynieryjnych ani budżetu,
0
Mar 7, 2024

17-letni programista od półtora roku mieszka w niemieckich pociągach

Chłopak żyje jako cyfrowy nomada bez stałego miejsca zamieszkania w pociągach Deutsche Bahn (DB). W nocy śpi na ich siedzeniach, w ciągu dnia pracuje jako programista w otoczeniu innych pasażerów i podróżuje po całym kraju.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies