DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

DeepSeek wydało ponad 1,6 mld dolarów na szkolenie AI, a nie 6 mln

Chiński startup AI DeepSeek zainwestował około 1,6 miliarda dolarów w szkolenie swojej zaawansowanej modeli językowej R1, mimo że wcześniejsze doniesienia sugerowały znacznie niższy budżet wynoszący 6 milionów dolarów – wynika z raportu SemiAnalysis.

Koszt trenowania DeepSeek-R1 stał się kluczowym tematem wokół tego startupu, ponieważ jego twórcom udało się osiągnąć poziom zbliżony do OpenAI przy znacznie niższych nakładach finansowych. Według analityków SemiAnalysis, DeepSeek korzysta obecnie z około 50 tysięcy układów Hopper od NVIDIA i oczekuje na dostawę kolejnych 10 tysięcy.

Wykorzystanie chipów w obliczu ograniczeń eksportowych USA

Z powodu amerykańskich ograniczeń eksportowych, DeepSeek nie może swobodnie korzystać z najlepszych chipów AI. Dlatego oprócz H100, które do premiery Blackwell były uznawane za najlepsze w branży, firma używa także H800, H20 (specjalnie dostosowanych do chińskiego rynku) oraz A100.

https://semianalysis.com/2025/01/31/deepseek-debates/
https://semianalysis.com/2025/01/31/deepseek-debates/

Obecnie najwięcej w infrastrukturze DeepSeek stanowią H20 – około 30 tysięcy sztuk wraz z dodatkowymi zamówieniami. Dodatkowo firma posiada po 10 tysięcy jednostek H100, H800 i A100, co pozwala na budowę potężnej infrastruktury obliczeniowej.

Realne inwestycje DeepSeek w infrastrukturę serwerową

Według raportu SemiAnalysis, całkowite inwestycje DeepSeek w serwery wynoszą około 1,6 miliarda dolarów, z czego około 944 miliony dolarów zostały przeznaczone na bieżące potrzeby operacyjne.

Analitycy podkreślają, że wcześniej podawana kwota 6 milionów dolarów dotyczyła jedynie kosztów wstępnego szkolenia modelu V3 i była niewielką częścią całkowitych wydatków. Suma ta obejmowała jedynie nakłady na procesory wykorzystane do pierwszej fazy trenowania.

Konkurencja i obawy dotyczące bezpieczeństwa

Mimo że rzeczywiste koszty szkolenia chińskiego modelu okazały się znacznie wyższe, niż pierwotnie zakładano, producenci chipów oraz inne podmioty z branży AI z optymizmem patrzą na pojawienie się nowego konkurenta.

Jednak chińskie pochodzenie DeepSeek oraz ostatni wyciek danych budzą pewne obawy. Z tego względu Marynarka Wojenna USA, Kongres, Pentagon oraz setki firm na całym świecie ograniczają dostęp swoich pracowników do technologii DeepSeek, obawiając się potencjalnych zagrożeń dla bezpieczeństwa.

Czy uważacie, że DeepSeek może stać się realnym konkurentem dla OpenAI, mimo ograniczeń eksportowych?

Avatar
Feb 14

Praktyczne komputery kwantowe za 5-10 lat? Sundar Pichai o przełomie i obawach rynku

Podczas World Government Summit w Dubaju dyrektor generalny Google, Sundar Pichai, zapowiedział, że pierwsze praktycznie użyteczne komputery kwantowe mogą pojawić się w ciągu 5-10 lat. Pichai porównał obecną fazę rozwoju obliczeń kwantowych do początków prac nad sztuczną inteligencją w Google w latach 2010, gdy firma rozwijała projekt Google Brain. Jego zdaniem, właśnie teraz branża kwantowa zaczyna wychodzić poza etap eksperymentów.
0
Aug 29

xAI prezentuje model grok-code-fast-1 do agentowego programowania

Startup Elona Muska xAI zaprezentował nowy model sztucznej inteligencji grok-code-fast-1, stworzony z myślą o agentowym programowaniu. Model wyróżnia się szybkością, niskimi kosztami oraz kompaktową architekturą, a przez ograniczony czas jest dostępny bezpłatnie dla wybranych partnerów, m.in. GitHub Copilot, Cursor i Windsurf.
0
Mar 21

Gmail wprowadza inteligentne wyszukiwanie z AI w wersji webowej oraz aplikacjach na Androida i iOS

Google wdraża nową funkcję inteligentnego wyszukiwania w Gmailu, która wykorzystuje sztuczną inteligencję do szybszego dostarczania bardziej trafnych wyników.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies