Google, OpenAI, Roblox і Discord łączą siły na rzecz ochrony dzieci w internecie

Google, OpenAI, Roblox і Discord łączą siły na rzecz ochrony dzieci w internecie

Google, OpenAI, Roblox oraz Discord ogłosiły powstanie nowej organizacji non-profit – Robust Open Online Safety Tools (ROOST), której celem jest zwiększenie bezpieczeństwa dzieci w sieci. Inicjatywa koncentruje się na udostępnianiu technologii wykrywania zagrożeń oraz rozwijaniu narzędzi opartych na AI, które pomogą w wykrywaniu i zgłaszaniu materiałów CSAM (materiałów przedstawiających seksualne wykorzystywanie dzieci).

https://roost.tools/
https://roost.tools/

Technologia AI na rzecz bezpieczniejszego internetu

Według The Verge, ROOST powstało w odpowiedzi na dynamiczne zmiany w cyfrowym środowisku, jakie przyniosła generatywna sztuczna inteligencja. Były CEO Google, Eric Schmidt, który jest jednym z założycieli inicjatywy, podkreślił, że organizacja w pierwszej kolejności skupi się na ochronie dzieci, a w przyszłości rozszerzy działalność na szersze aspekty bezpieczeństwa w internecie.

Chociaż szczegóły dotyczące narzędzi oferowanych przez ROOST pozostają nieznane, oficjalne komunikaty zapowiadają „darmowe i proste w użyciu rozwiązanie open-source do wykrywania, przeglądania i raportowania treści CSAM”. Mechanizmy te będą opierać się na dużych modelach językowych, a zespoły ekspertów ROOST pomogą firmom wdrożyć nowe standardy ochrony użytkowników.

Problemy na platformach społecznościowych

Kwestia bezpieczeństwa dzieci w internecie od lat jest szczególnie istotna dla platform takich jak Roblox i Discord, które dołączyły do ROOST jako założyciele. Statystyki wskazują, że w 2020 roku ponad połowa dzieci w USA miała konto w Roblox, co narażało je na nieodpowiednie treści. Ponadto w 2022 roku zarówno Roblox, jak i Discord zostały pozwane za brak skutecznej ochrony dzieci przed niechcianymi kontaktami z dorosłymi.

ROOST z pierwszymi funduszami i wsparciem branży

Na pierwsze cztery lata działalności organizacja ROOST zebrała już ponad 27 milionów dolarów, a jej inicjatywę wspierają liczne fundacje filantropijne, w tym McGovern Foundation, Future of Online Trust and Safety Fund oraz Knight Foundation. W inicjatywie uczestniczą również Microsoft, Mozilla i Bluesky jako partnerzy wspierający.

Eksperci ROOST będą współpracować z organizacjami specjalizującymi się w ochronie dzieci, sztucznej inteligencji, technologii open-source i zwalczaniu ekstremizmu. Wszystkie te działania mają na celu uczynienie internetu miejscem bezpieczniejszym dla najmłodszych użytkowników.

Czy takie inicjatywy mogą realnie wpłynąć na poprawę bezpieczeństwa dzieci w sieci?

Avatar
Lip 21

Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta ogłosiła, że nie zamierza podpisać nowego kodeksu postępowania Unii Europejskiej, który ma wspierać wdrażanie AI Act – przepisów regulujących działanie modeli ogólnego przeznaczenia sztucznej inteligencji (general-purpose AI)
0
Gru 19, 2023

Zalety nowego modelu sztucznej inteligencji Gemini Pro dla developerów

0
Kwi 1

OpenAI planuje pierwszy od lat otwarty model językowy

OpenAI zapowiedziało, że w najbliższych miesiącach udostępni nowy model językowy z otwartymi wagami (ang. open-weight), który będzie można uruchamiać lokalnie — na własnym sprzęcie. To pierwszy taki krok firmy od czasu GPT‑2, a jednocześnie wyraźny sygnał zmiany podejścia w kierunku większej otwartości. Nowy system ma oferować możliwości reasoningowe porównywalne z modelem o3-mini.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies