[NEW] Search for a job anonymously — check the details
Close
OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times.

Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.

"To pierwszy przypadek, gdy zidentyfikowaliśmy tak zaawansowany system inwigilacji oparty na AI. Czasami sami cyberprzestępcy nieświadomie ujawniają nam swoje operacje poprzez to, w jaki sposób wchodzą w interakcję z naszymi modelami."

powiedział Ben Nimmo, główny badacz OpenAI.

Według OpenAI, chiński system monitorowania bazuje na modelu Llama, opracowanym przez Meta. Ponieważ Llama została udostępniona jako open-source, wykorzystano ją do stworzenia tej technologii inwigilacyjnej.

Nie tylko monitoring – kampanie propagandowe z udziałem AI

Oprócz systemu Peer Review, OpenAI wykryła również inną operację o nazwie Sponsored Discontent, która korzystała z jej narzędzi do generowania treści w języku angielskim, skierowanych przeciwko chińskim dysydentom. Grupa ta tłumaczyła także artykuły krytykujące Stany Zjednoczone i rozpowszechniała je w języku hiszpańskim w Ameryce Łacińskiej.

W raporcie OpenAI wskazano także na inne zagrożenia. Badacze ujawnili kampanię z Kambodży, która wykorzystywała AI do udziału w schemacie oszustwa finansowego znanym jako "pig butchering". Metoda ta polega na nawiązywaniu internetowych znajomości z mężczyznami, a następnie wciąganiu ich w fałszywe inwestycje. Oszuści używali AI do generowania przekonujących komentarzy w mediach społecznościowych, by budować zaufanie ofiar.

AI – zarówno zagrożenie, jak i narzędzie ochrony

OpenAI podkreśla, że mimo rosnących zagrożeń, sztuczna inteligencja może być również skutecznym narzędziem do wykrywania i przeciwdziałania szkodliwej działalności.

Avatar
Apr 21

Grzeczność w ChatGPT kosztuje miliony. Altman: „To dobrze wydane pieniądze”

Użytkownicy ChatGPT, którzy w swoich zapytaniach dodają „proszę” i „dziękuję”, generują istotne koszty obliczeniowe – przyznał dyrektor generalny OpenAI Sam Altman. Według niego, uprzejmość kosztuje firmę dziesiątki milionów dolarów, ale to „dobrze wydane pieniądze”.
0
Feb 14

Praktyczne komputery kwantowe za 5-10 lat? Sundar Pichai o przełomie i obawach rynku

Podczas World Government Summit w Dubaju dyrektor generalny Google, Sundar Pichai, zapowiedział, że pierwsze praktycznie użyteczne komputery kwantowe mogą pojawić się w ciągu 5-10 lat. Pichai porównał obecną fazę rozwoju obliczeń kwantowych do początków prac nad sztuczną inteligencją w Google w latach 2010, gdy firma rozwijała projekt Google Brain. Jego zdaniem, właśnie teraz branża kwantowa zaczyna wychodzić poza etap eksperymentów.
0
Jul 21

Amazon redukuje etaty w dziale chmury AWS mimo wzrostów przychodów

Amazon potwierdził, że przeprowadził kolejną rundę zwolnień w swojej jednostce Amazon Web Services (AWS), obejmującą setki pracowników z różnych zespołów.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies