[NEW] Szukaj pracy anonimowo — sprawdź szczegóły
Close
DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

Chiński startup AI DeepSeek zainwestował około 1,6 miliarda dolarów w szkolenie swojej zaawansowanej modeli językowej R1, mimo że wcześniejsze doniesienia sugerowały znacznie niższy budżet wynoszący 6 milionów dolarów – wynika z raportu SemiAnalysis.

Koszt trenowania DeepSeek-R1 stał się kluczowym tematem wokół tego startupu, ponieważ jego twórcom udało się osiągnąć poziom zbliżony do OpenAI przy znacznie niższych nakładach finansowych. Według analityków SemiAnalysis, DeepSeek korzysta obecnie z około 50 tysięcy układów Hopper od NVIDIA i oczekuje na dostawę kolejnych 10 tysięcy.

Wykorzystanie chipów w obliczu ograniczeń eksportowych USA

Z powodu amerykańskich ograniczeń eksportowych, DeepSeek nie może swobodnie korzystać z najlepszych chipów AI. Dlatego oprócz H100, które do premiery Blackwell były uznawane za najlepsze w branży, firma używa także H800, H20 (specjalnie dostosowanych do chińskiego rynku) oraz A100.

https://semianalysis.com/2025/01/31/deepseek-debates/
https://semianalysis.com/2025/01/31/deepseek-debates/

Obecnie najwięcej w infrastrukturze DeepSeek stanowią H20 – około 30 tysięcy sztuk wraz z dodatkowymi zamówieniami. Dodatkowo firma posiada po 10 tysięcy jednostek H100, H800 i A100, co pozwala na budowę potężnej infrastruktury obliczeniowej.

Realne inwestycje DeepSeek w infrastrukturę serwerową

Według raportu SemiAnalysis, całkowite inwestycje DeepSeek w serwery wynoszą około 1,6 miliarda dolarów, z czego około 944 miliony dolarów zostały przeznaczone na bieżące potrzeby operacyjne.

Analitycy podkreślają, że wcześniej podawana kwota 6 milionów dolarów dotyczyła jedynie kosztów wstępnego szkolenia modelu V3 i była niewielką częścią całkowitych wydatków. Suma ta obejmowała jedynie nakłady na procesory wykorzystane do pierwszej fazy trenowania.

Konkurencja i obawy dotyczące bezpieczeństwa

Mimo że rzeczywiste koszty szkolenia chińskiego modelu okazały się znacznie wyższe, niż pierwotnie zakładano, producenci chipów oraz inne podmioty z branży AI z optymizmem patrzą na pojawienie się nowego konkurenta.

Jednak chińskie pochodzenie DeepSeek oraz ostatni wyciek danych budzą pewne obawy. Z tego względu Marynarka Wojenna USA, Kongres, Pentagon oraz setki firm na całym świecie ograniczają dostęp swoich pracowników do technologii DeepSeek, obawiając się potencjalnych zagrożeń dla bezpieczeństwa.

Czy uważacie, że DeepSeek może stać się realnym konkurentem dla OpenAI, mimo ograniczeń eksportowych?

Avatar
Kwi 1

OpenAI planuje pierwszy od lat otwarty model językowy

OpenAI zapowiedziało, że w najbliższych miesiącach udostępni nowy model językowy z otwartymi wagami (ang. open-weight), który będzie można uruchamiać lokalnie — na własnym sprzęcie. To pierwszy taki krok firmy od czasu GPT‑2, a jednocześnie wyraźny sygnał zmiany podejścia w kierunku większej otwartości. Nowy system ma oferować możliwości reasoningowe porównywalne z modelem o3-mini.
0
Lut 14

Praktyczne komputery kwantowe za 5-10 lat? Sundar Pichai o przełomie i obawach rynku

Podczas World Government Summit w Dubaju dyrektor generalny Google, Sundar Pichai, zapowiedział, że pierwsze praktycznie użyteczne komputery kwantowe mogą pojawić się w ciągu 5-10 lat. Pichai porównał obecną fazę rozwoju obliczeń kwantowych do początków prac nad sztuczną inteligencją w Google w latach 2010, gdy firma rozwijała projekt Google Brain. Jego zdaniem, właśnie teraz branża kwantowa zaczyna wychodzić poza etap eksperymentów.
0
Lut 17

Apple Intelligence pojawi się na Vision Pro wiosną 2025 roku

Apple planuje wprowadzić system Apple Intelligence do zestawu Vision Pro wraz z aktualizacją systemu visionOS 2.4, której premiera przewidziana jest na kwiecień 2025 roku. Jak informuje dziennikarz Bloomberga Mark Gurman, testy beta tej wersji mogą rozpocząć się już w najbliższych dniach.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies