OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times.

Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.

"To pierwszy przypadek, gdy zidentyfikowaliśmy tak zaawansowany system inwigilacji oparty na AI. Czasami sami cyberprzestępcy nieświadomie ujawniają nam swoje operacje poprzez to, w jaki sposób wchodzą w interakcję z naszymi modelami."

powiedział Ben Nimmo, główny badacz OpenAI.

Według OpenAI, chiński system monitorowania bazuje na modelu Llama, opracowanym przez Meta. Ponieważ Llama została udostępniona jako open-source, wykorzystano ją do stworzenia tej technologii inwigilacyjnej.

Nie tylko monitoring – kampanie propagandowe z udziałem AI

Oprócz systemu Peer Review, OpenAI wykryła również inną operację o nazwie Sponsored Discontent, która korzystała z jej narzędzi do generowania treści w języku angielskim, skierowanych przeciwko chińskim dysydentom. Grupa ta tłumaczyła także artykuły krytykujące Stany Zjednoczone i rozpowszechniała je w języku hiszpańskim w Ameryce Łacińskiej.

W raporcie OpenAI wskazano także na inne zagrożenia. Badacze ujawnili kampanię z Kambodży, która wykorzystywała AI do udziału w schemacie oszustwa finansowego znanym jako "pig butchering". Metoda ta polega na nawiązywaniu internetowych znajomości z mężczyznami, a następnie wciąganiu ich w fałszywe inwestycje. Oszuści używali AI do generowania przekonujących komentarzy w mediach społecznościowych, by budować zaufanie ofiar.

AI – zarówno zagrożenie, jak i narzędzie ochrony

OpenAI podkreśla, że mimo rosnących zagrożeń, sztuczna inteligencja może być również skutecznym narzędziem do wykrywania i przeciwdziałania szkodliwej działalności.

Avatar
Feb 14

Google rozszerza działalność w Polsce – AI w energetyce i cyberbezpieczeństwie

Google oraz polski rząd podpisały porozumienie o współpracy na rzecz rozwoju zastosowań sztucznej inteligencji w sektorze energetyki, cyberbezpieczeństwa oraz innych strategicznych obszarach. Porozumienie ogłoszono po spotkaniu dyrektora generalnego Google i Alphabet, Sundara Pichaia, z premierem Donaldem Tuskiem w Warszawie. Google od 2014 roku rozwija swoje operacje w Polsce, a obecnie posiada tu największy w regionie hub inżynieryjny, zatrudniający ponad 2000 specjalistów.
0
Jul 14

Grok 4 debiutuje dzień po incydencie z treściami nazistowskimi. xAI zapowiada agentowe modele i nowe funkcje

Firma xAI zaprezentowała dwa nowe modele — Grok 4 oraz Grok 4 Heavy — zaledwie dzień po tym, jak chatbot Grok wygenerował na platformie X odpowiedzi zawierające antysemickie odniesienia. Według xAI wersja Heavy korzysta z architektury multi-agentowej, w której wiele instancji modelu analizuje zapytanie równolegle, a następnie porównuje wyniki przed udzieleniem odpowiedzi. To podejście, określane jako test-time compute scaling, zwiększa wykorzystanie mocy obliczeniowej podczas wnioskowania.
0
Aug 14

Elon Musk zamierza złożyć skargę przeciwko Apple dotyczącą OpenAI

Musk twierdzi, że Apple celowo tworzy sytuację, w której żadne inne aplikacje AI poza ChatGPT nie mogą zajmować pierwszego miejsca w App Store.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies