Sam Altman potwierdził, że OpenAI obecnie nie trenuje GPT-5

Sam Altman potwierdził, że OpenAI obecnie nie trenuje GPT-5

Podczas niedawnego przemówienia na MIT dyrektor generalny OpenAI Sam Altman potwierdził, że obecnie firma nie trenuje piątej wersji generatywnego modelu sztucznej inteligencji (GPT-5). Zamiast tego firma OpenAI skupiła się na rozszerzeniu możliwości swojego ostatniego modelu GPT-4. Altman odpowiedział na pytania badacza sztucznej inteligencji i prowadzącego podcast Lexa Fridmana na temat lista otwartego, w którym domagali się, by został wstrzymany na pół roku rozwój systemów sztucznej inteligencji potężniejszych niż GPT-4.

Altman powiedział, że list zawierał błędy techniczne, między innymi było podano, że obecnie OpenAI nie trenuje GPT-5 i nie będzie tego przez jakiś czas robić. Skomentował, że to „trochę głupie” i wyjaśnił, że trwają stałe prace nad rozszerzaniem możliwości GPT-4 i OpenAI robi inne rzeczy związane z bezpieczeństwem, które są ważne do rozwiązania.

Jednak Altman zgodził się z niektórymi aspektami listu otwartego, w szczególności w odniesieniu do potrzeby zwiększenia możliwości bezpieczeństwa modeli sztucznej inteligencji i ich zgodności z ludzkimi wartościami. Ponieważ OpenAI kontynuuje badania i opracowania w zakresie sztucznej inteligencji, Altman podkreślił konieczność gruntownego podejścia do kwestii bezpieczeństwa podczas rozszerzania możliwości swoich modeli.

Avatar
Gru 19, 2023

Zalety nowego modelu sztucznej inteligencji Gemini Pro dla developerów

0
Mar 14

OpenAI wzywa do zakazu chińskich modeli AI

OpenAI w nowej propozycji regulacji dotyczącej sztucznej inteligencji określiło chińskie laboratorium DeepSeek jako „kontrolowane przez państwo”, zalecając rządowi USA rozważenie zakazu modeli AI opracowanych w Chińskiej Republice Ludowej (ChRL). Dokument został przedłożony w ramach inicjatywy administracji Trumpa „AI Action Plan”, której celem jest uregulowanie wykorzystania sztucznej inteligencji.
0
Lut 24

OpenAI ujawnia chiński system AI do monitorowania krytyki Pekinu w mediach społecznościowych

OpenAI poinformowała o wykryciu chińskiej operacji rządowej, która wykorzystuje sztuczną inteligencję (AI) do monitorowania treści krytycznych wobec Chin w mediach społecznościowych na Zachodzie – informuje The New York Times. Odkryty system AI, nazwany przez badaczy Peer Review, został zidentyfikowany, gdy specjaliści OpenAI zauważyli użycie ich narzędzi do debugowania kodu, będącego podstawą tej operacji szpiegowskiej.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies