DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

Chiński startup AI DeepSeek zainwestował około 1,6 miliarda dolarów w szkolenie swojej zaawansowanej modeli językowej R1, mimo że wcześniejsze doniesienia sugerowały znacznie niższy budżet wynoszący 6 milionów dolarów – wynika z raportu SemiAnalysis.

Koszt trenowania DeepSeek-R1 stał się kluczowym tematem wokół tego startupu, ponieważ jego twórcom udało się osiągnąć poziom zbliżony do OpenAI przy znacznie niższych nakładach finansowych. Według analityków SemiAnalysis, DeepSeek korzysta obecnie z około 50 tysięcy układów Hopper od NVIDIA i oczekuje na dostawę kolejnych 10 tysięcy.

Wykorzystanie chipów w obliczu ograniczeń eksportowych USA

Z powodu amerykańskich ograniczeń eksportowych, DeepSeek nie może swobodnie korzystać z najlepszych chipów AI. Dlatego oprócz H100, które do premiery Blackwell były uznawane za najlepsze w branży, firma używa także H800, H20 (specjalnie dostosowanych do chińskiego rynku) oraz A100.

https://semianalysis.com/2025/01/31/deepseek-debates/
https://semianalysis.com/2025/01/31/deepseek-debates/

Obecnie najwięcej w infrastrukturze DeepSeek stanowią H20 – około 30 tysięcy sztuk wraz z dodatkowymi zamówieniami. Dodatkowo firma posiada po 10 tysięcy jednostek H100, H800 i A100, co pozwala na budowę potężnej infrastruktury obliczeniowej.

Realne inwestycje DeepSeek w infrastrukturę serwerową

Według raportu SemiAnalysis, całkowite inwestycje DeepSeek w serwery wynoszą około 1,6 miliarda dolarów, z czego około 944 miliony dolarów zostały przeznaczone na bieżące potrzeby operacyjne.

Analitycy podkreślają, że wcześniej podawana kwota 6 milionów dolarów dotyczyła jedynie kosztów wstępnego szkolenia modelu V3 i była niewielką częścią całkowitych wydatków. Suma ta obejmowała jedynie nakłady na procesory wykorzystane do pierwszej fazy trenowania.

Konkurencja i obawy dotyczące bezpieczeństwa

Mimo że rzeczywiste koszty szkolenia chińskiego modelu okazały się znacznie wyższe, niż pierwotnie zakładano, producenci chipów oraz inne podmioty z branży AI z optymizmem patrzą na pojawienie się nowego konkurenta.

Jednak chińskie pochodzenie DeepSeek oraz ostatni wyciek danych budzą pewne obawy. Z tego względu Marynarka Wojenna USA, Kongres, Pentagon oraz setki firm na całym świecie ograniczają dostęp swoich pracowników do technologii DeepSeek, obawiając się potencjalnych zagrożeń dla bezpieczeństwa.

Czy uważacie, że DeepSeek może stać się realnym konkurentem dla OpenAI, mimo ograniczeń eksportowych?

Avatar
Maj 5

Windsurf: według Mohana, nawet przy 90% kodu generowanego przez AI rola programistów pozostaje kluczowa

Varun Mohan, założyciel startupu Windsurf (obecnie rozważanego do przejęcia przez OpenAI), podkreśla, że rozwój AI nie eliminuje znaczenia zespołów inżynierskich. Jego zdaniem technologia skraca czas potrzebny na programowanie, ale nie zastępuje pełnego procesu tworzenia oprogramowania.
0
Mar 11

Musk mówi, że jego zaangażowanie w DOGE utrudnia zarządzanie biznesami

Elon Musk w wywiadzie z Larrym Kudlowem na Fox 10 marca przyznał, że jego udział w departamencie DOGE komplikuje zarządzanie jego firmami, takimi jak X, Tesla, SpaceX i innymi. Musk zauważył, że trudno mu znaleźć równowagę między projektami.
0
Cze 20

Google szkoli swoje modele AI na filmach z YouTube – bez zgody twórców

Google wykorzystuje część biblioteki YouTube do trenowania modeli generatywnych, takich jak Gemini i Veo 3 – nowy generator treści wideo i audio oparty na AI. Firma potwierdziła, że korzysta z wybranych materiałów z platformy, jednak według ekspertów większość twórców nie miała świadomości, że ich treści są przetwarzane w tym celu
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies