Wybuch w Las Vegas: ChatGPT oskarżany o pomoc w stworzeniu bomby

Wybuch w Las Vegas: ChatGPT oskarżany o pomoc w stworzeniu bomby

Rok dla OpenAI nie zaczął się najlepiej. Oprócz zarzutów wobec Sama Altmana, pojawiła się informacja o wybuchu Tesla Cybertruck w Las Vegas 1 stycznia, który niestety pochłonął życie jednej osoby.

Według policji Matthew Alan Livelsberger użył ChatGPT do uzyskania informacji na temat ilości materiałów wybuchowych oraz rodzaju pistoletu, który mógłby je zdetonować.

Odpowiedź OpenAI:

Liz Bourgeois, rzeczniczka OpenAI, w oświadczeniu e-mailowym zapewniła, że firma „jest zaangażowana w odpowiedzialne używanie narzędzi AI” i że „modele są zaprojektowane tak, aby odmawiać realizacji szkodliwych instrukcji.” Dodała także, że ChatGPT w tym przypadku odpowiedział jedynie informacjami już publicznie dostępnymi w internecie oraz ostrzegał przed nielegalnymi lub szkodliwymi działaniami.

Policja poinformowała, że odnaleziono sześciostronicowy dokument określany jako manifest, który może rzucić nowe światło na motywy Livelsbergera. Nowe dowody wskazują również, że śmierć Livelsbergera była samobójstwem.

„Nowe informacje przynoszą więcej pytań niż odpowiedzi. Nie będę wyrażał opinii na temat znaczenia tych dokumentów, ani nie udostępnimy informacji lub dokumentów, które nie zostały w pełni zweryfikowane.”

Szeryf Kevin McMahill

Pomimo zapewnień OpenAI, pojawiają się pytania, dlaczego zapytania takie jak te, które mogły posłużyć do zaplanowania aktu terrorystycznego, nie uruchamiają dodatkowych alarmów w systemach firmy.

Avatar
Kwi 15, 2025

OpenAI wprowadza obowiązkową weryfikację organizacji przed udostępnieniem nowych modeli AI

OpenAI zapowiedziało wprowadzenie nowego procesu weryfikacji o nazwie Verified Organization, który ma być warunkiem uzyskania dostępu do niektórych przyszłych modeli AI poprzez API firmy.
0
Lip 21

Meta nie podpisze unijnego kodeksu dla sztucznej inteligencji GPAI

Meta ogłosiła, że nie zamierza podpisać nowego kodeksu postępowania Unii Europejskiej, który ma wspierać wdrażanie AI Act – przepisów regulujących działanie modeli ogólnego przeznaczenia sztucznej inteligencji (general-purpose AI)
0
Cze 24

„Ważne, by nie zapomnieć, jak pisać kod ręcznie”: CEO GitHuba o tym, dlaczego nie warto polegać wyłącznie na AI

CEO GitHuba, Thomas Dohmke, zaznaczył, że nawet w czasach, gdy sztuczna inteligencja aktywnie generuje kod, programiści nie powinni zapominać, jak robić to samodzielnie. Ostrzega, że całkowite poleganie na autogenerowaniu może prowadzić do utraty istotnych umiejętności i czasu.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies