Elon Musk i czołowi badacze AI wzywają do wstrzymania „gigantycznych eksperymentów dot. AI”

Elon Musk i czołowi badacze AI wzywają do wstrzymania „gigantycznych eksperymentów dot. AI”

Badacze AI, w tym Elon Musk, podpisali list otwarty wzywający laboratoria sztucznej inteligencji na całym świecie do wstrzymania rozwoju wielkoskalowych systemów sztucznej inteligencji, powołując się na obawy dotyczące „poważnych zagrożeń dla społeczeństwa i ludzkości”.

W liście opublikowanym przez organizację non-profit Future of Life Institute zauważono, że laboratoria sztucznej inteligencji są obecnie uwikłane w „niekontrolowany wyścig” w celu opracowania i wdrożenia systemów uczenia maszynowego, „których nikt, nawet ich twórcy,  nie jest w stanie zrozumieć, przewidzieć lub niezawodnie kontrolować”.

„Dlatego wzywamy wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy procesów szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4” – czytamy w liście. „Ta przerwa powinna być publiczna i weryfikowalna oraz obejmować wszystkich kluczowych graczy na rynku AI. Jeśli taka przerwa nie zostanie szybko wprowadzona, powinny wypowiedzieć się rządy poszczególnych krajów i wprowadzić odpowiednie moratoria”.

Wśród sygnatariuszy są pisarz Yuval Noah Harari, współzałożyciel Apple Steve Wozniak, współzałożyciel Skype'a Jaan Tallinn, polityk Andrew Yang oraz wielu znanych badaczy sztucznej inteligencji i dyrektorów generalnych, w tym Stuart Russell, Yoshua Bengio, Gary Marcus i Emad Mostaque . Pełną listę sygnatariuszy można zobaczyć tutaj.

The verge mówi, iż jest to oznaka rosnącego sprzeciwu wobec podejścia typu „wyślij teraz, a napraw później”. 

Jak myślicie, czy list miał jakikolwiek wpływ na obecny klimat w badaniach nad sztuczną inteligencją, w którym firmy technologiczne, takie jak Google i Microsoft, spieszą się z wdrażaniem nowych produktów?


Avatar
Mar 4, 2025

Nowe standardy bezpieczeństwa w C++ – Stroustrup chce zachować konkurencyjność języka

Bjarne Stroustrup, twórca języka C++, wezwał komitet WG21, odpowiedzialny za rozwój standardów C++, do podjęcia działań mających na celu utrzymanie konkurencyjności języka w kontekście rosnącej popularności języków zapewniających bezpieczne zarządzanie pamięcią. Według niego C++ już teraz oferuje wszystkie mechanizmy potrzebne do bezpieczeństwa pamięci, ale brakuje standaryzowanych narzędzi, które gwarantowałyby programowanie wyłącznie w bezpiecznym podzbiorze języka.
0
Sie 11

Linus Torvalds krytykuje kod RISC-V od inżyniera Google: „To śmieci, które czynią świat gorszym miejscem”

Założyciel i główny twórca systemu Linux, Linus Torvalds, odrzucił propozycję włączenia kodu dla architektury RISC-V przesłaną przez inżyniera Google, określając ją jako „śmieci”. Pull request dotyczący wersji Linux 6.17 został wysłany 8 sierpnia, jednak Torvalds skrytykował zarówno jego jakość, jak i zbyt późny termin dostarczenia.
0
Cze 9

Intel: nowe produkty tylko z 50% marżą — firma zaostrza politykę zatwierdzania projektów

Podczas konferencji Bank of America Global Technology 2025 Michelle Johnston Holthaus, szefowa Intel Products, zapowiedziała nową politykę zatwierdzania produktów. Firma będzie rozwijać wyłącznie te projekty, które wykażą potencjał osiągnięcia co najmniej 50% marży brutto. Propozycje, które nie spełniają tego kryterium, nie otrzymają zasobów inżynieryjnych ani budżetu,
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies