DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

Chiński startup AI DeepSeek zainwestował około 1,6 miliarda dolarów w szkolenie swojej zaawansowanej modeli językowej R1, mimo że wcześniejsze doniesienia sugerowały znacznie niższy budżet wynoszący 6 milionów dolarów – wynika z raportu SemiAnalysis.

Koszt trenowania DeepSeek-R1 stał się kluczowym tematem wokół tego startupu, ponieważ jego twórcom udało się osiągnąć poziom zbliżony do OpenAI przy znacznie niższych nakładach finansowych. Według analityków SemiAnalysis, DeepSeek korzysta obecnie z około 50 tysięcy układów Hopper od NVIDIA i oczekuje na dostawę kolejnych 10 tysięcy.

Wykorzystanie chipów w obliczu ograniczeń eksportowych USA

Z powodu amerykańskich ograniczeń eksportowych, DeepSeek nie może swobodnie korzystać z najlepszych chipów AI. Dlatego oprócz H100, które do premiery Blackwell były uznawane za najlepsze w branży, firma używa także H800, H20 (specjalnie dostosowanych do chińskiego rynku) oraz A100.

https://semianalysis.com/2025/01/31/deepseek-debates/
https://semianalysis.com/2025/01/31/deepseek-debates/

Obecnie najwięcej w infrastrukturze DeepSeek stanowią H20 – około 30 tysięcy sztuk wraz z dodatkowymi zamówieniami. Dodatkowo firma posiada po 10 tysięcy jednostek H100, H800 i A100, co pozwala na budowę potężnej infrastruktury obliczeniowej.

Realne inwestycje DeepSeek w infrastrukturę serwerową

Według raportu SemiAnalysis, całkowite inwestycje DeepSeek w serwery wynoszą około 1,6 miliarda dolarów, z czego około 944 miliony dolarów zostały przeznaczone na bieżące potrzeby operacyjne.

Analitycy podkreślają, że wcześniej podawana kwota 6 milionów dolarów dotyczyła jedynie kosztów wstępnego szkolenia modelu V3 i była niewielką częścią całkowitych wydatków. Suma ta obejmowała jedynie nakłady na procesory wykorzystane do pierwszej fazy trenowania.

Konkurencja i obawy dotyczące bezpieczeństwa

Mimo że rzeczywiste koszty szkolenia chińskiego modelu okazały się znacznie wyższe, niż pierwotnie zakładano, producenci chipów oraz inne podmioty z branży AI z optymizmem patrzą na pojawienie się nowego konkurenta.

Jednak chińskie pochodzenie DeepSeek oraz ostatni wyciek danych budzą pewne obawy. Z tego względu Marynarka Wojenna USA, Kongres, Pentagon oraz setki firm na całym świecie ograniczają dostęp swoich pracowników do technologii DeepSeek, obawiając się potencjalnych zagrożeń dla bezpieczeństwa.

Czy uważacie, że DeepSeek może stać się realnym konkurentem dla OpenAI, mimo ograniczeń eksportowych?

Avatar
Lut 28

OpenAI prezentuje GPT-4.5 – nowy etap rozwoju sztucznej inteligencji

27 lutego 2025 roku OpenAI ogłosiło premierę GPT-4.5, najnowszego i najbardziej zaawansowanego modelu językowego AI. Nowa wersja to kolejny krok w kierunku lepszego skalowania uczenia się bez nadzoru oraz bardziej efektywnych procesów post-treningowych. Dzięki temu model jeszcze lepiej rozpoznaje wzorce, łączy koncepcje i generuje kreatywne treści.
0
Mar 18

Liam Fedus, wiceprezes OpenAI, odchodzi, by założyć startup AI w dziedzinie nauki o materiałach

Liam Fedus, wiceprezes OpenAI ds. badań nad procesami post-treningowymi, opuszcza firmę, aby założyć własny startup wykorzystujący sztuczną inteligencję w nauce o materiałach.
0
Lip 11

Rezygnacja z Google — nowy trend

Wielu z nas wciąż pamięta czasy, gdy Google nazywano „korporacją dobra”, dzięki dewizie Don’t be evil, która była częścią kodeksu etyki firmy. Od tamtej pory wiele się zmieniło. Google, podobnie jak inni giganci technologiczni z grupy FAANG, są oskarżani o nadużywanie zaufania użytkowników, inwigilację i naruszanie prywatności. Niektórzy mogliby wręcz powiedzieć, że ten, kto walczył ze smokiem, sam się nim stał.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies