[NEW] Szukasz pracy w branży tech? Firmy same cię znajdą — wypełnij swój profil
Close
4 powody, dla których sztuczna inteligencja jest tak droga

4 powody, dla których sztuczna inteligencja jest tak droga

Microsoft Corp. i Alphabet Inc. odnotowały rosnące przychody z chmury w swoich ostatnich wynikach kwartalnych, ponieważ klienci biznesowi wydawali więcej na ich usługi AI. Meta Platforms Inc. powiedziała, że jej działania związane z AI pomogły zwiększyć zaangażowanie użytkowników i precyzyjność targetowania reklam. Aby osiągnąć większe zyski, trzy firmy wydały miliardy na rozwój sztucznej inteligencji — i planują jeszcze zwiększyć te inwestycje. 

Zgodnie z obserwacjami poczynionymi przez dziennikarza Bloomberga, koszty AI będą rosły. Istnieją dwa kluczowe powody tego: modele AI stają się coraz większe i droższe do opracowania, a globalne zapotrzebowanie na usługi AI wymaga budowy wielu nowych centrów danych, aby je obsłużyć.

Duże modele językowe stają się większe

Najbardziej znane produkty AI dzisiaj, w tym ChatGPT od OpenAI, są napędzane przez duże modele językowe — systemy, które są zasilane ogromnymi ilościami danych, w tym książkami, artykułami i komentarzami online, aby generować najlepsze możliwe odpowiedzi na zapytania użytkowników. To wymaga zdobywania więcej danych, więcej mocy obliczeniowej i również dłuższego trenowania systemów AI. W wywiadzie podcastowym Dario Amodei, dyrektor generalny Anthropic, powiedział, że obecne modele AI na rynku kosztują około 100 milionów dolarów na szkolenie.

Koszty chipów i komputerów

Większość kosztów jest związana z chipami. Szkolenia dużych modeli językowych firmy AI polegają na jednostkach przetwarzania grafiki — GPU — które mogą przetwarzać ogromne ilości danych z dużą prędkością. Nie tylko te chipy są trudno dostępne, ale są też niezwykle drogie, a najbardziej zaawansowane funkcje są produkowane głównie przez jedną firmę: Nvidia Corp.

Chip graficzny H100 od Nvidii, złoty standard do szkolenia modeli AI, sprzedawano za około 30,000 dolarów.

Firmy mogą wykonywać tę pracę bez kupowania rzeczywistych chipów, ale ich wypożyczanie również jest drogie. Na przykład jednostka chmurowa Amazon.com Inc. wynajmie klientom dużą klaster procesorów budowanych przez Intel za około 6 dolarów za godzinę. Dla porównania, grupa chipów H100 od Nvidii kosztuje prawie 100 dolarów za godzinę.

Centra danych

Firmy kupujące te chipy potrzebują miejsca, aby je umieścić. Meta, wraz z największymi firmami zajmującymi się przetwarzaniem w chmurze — Amazon, Microsoft i Google — oraz innymi dostawcami mocy obliczeniowej na wynajem, ścigają się, aby budować nowe serwerownie. Te budynki są zwykle budowane na zamówienie. Zawierają one stelaże z dyskami twardymi, procesorami, systemami chłodzenia oraz stosami sprzętu elektrycznego i generatorów zapasowych.

Dell’Oro Group, firma badawcza, szacuje, że firmy wydadzą 294 miliardy dolarów na budowę i wyposażenie centrów danych w tym roku, w porównaniu do 193 miliardów dolarów w 2020 roku.

Umowy i talenty

Podczas gdy chipy i centra danych stanowią większość kosztów, niektóre firmy AI wydają również miliony na licencjonowanie danych od wydawców.

OpenAI zawarło umowy z kilkoma europejskimi wydawcami, aby włączyć ich treści informacyjne do ChatGPT i również trenować swoje modele AI. 

Firmy technologiczne również toczą zaciekłą wojnę o talenty związane z AI. W pewnym momencie w zeszłym roku Netflix Inc. ogłosił poszukiwania menedżera produktu AI z wynagrodzeniem do 900,000 dolarów.

Tańsze alternatywy

Firma Microsoft zapowiedziała trzy mniejsze modele AI, które są mniej obciążające obliczeniowo. Według Microsoft, duże modele językowe „wciąż będą złotym standardem do rozwiązywania wielu typów złożonych zadań”, takich jak „zaawansowane rozumowanie, analiza danych i zrozumienie kontekstu”. Ale mniejsze modele mogą wystarczyć dla niektórych klientów i zastosowań. 

Inne firmy, w tym Sakana AI, startup założony przez dwóch byłych pracowników Google, również koncentrują się na mniejszych modelach.

Avatar
Lut 22, 2023
Wprowadzenie do wojny klas dla inżyniera oprogramowania
Jeśli pracujesz w jednej z dużych firm technologicznych, które w ciągu ostatnich kilku tygodni zwolniły tysiące pracowników, być może zastanawiasz się, co się do cholery dzieje. A zwłaszcza jeśli firma, dla której pracujesz, obiektywnie nie boryka się obecnie z problemami ekonomicznymi. Jeśli pracujesz więc np., dla Google'a, na pewno myślisz sobie: „Co jest takiego w nadchodzącej recesji, że firma, która dobrze sobie radzi, po raz pierwszy w swojej 23-letniej historii wprowadza masowe zwolnienia?”. Odpowiedzią, mój przyjacielu, jest walka klas.
Cze 20
Nvidia najcenniejszą spółką giełdową na świecie
Nvidia wyprzedza Microsoft pod względem kapitalizacji rynkowej, stając się najcenniejszą spółką giełdową na świecie.
Paz 25, 2022
“Jeśli komuś się uda znaleźć miłość, to zaleta Amazona i sztucznej inteligencji”: Tomek Stachlewski o 7 latach pracy jako architekt
W październiku po raz pierwszy w Polsce odbył się Amazon Web Services Pop-up Hub, gdzie przez tydzień wszyscy chętni mogli zdobyć wiedzę na temat AI/ML, migracji do chmury, usług IoT, tego, jak można prowadzić operacje i rozwijać aplikacje w chmurze. Redakcja DOU odwiedziła AWS Pop-up Hub Warsaw i porozmawiała z szefem działu technicznego w Europie Środkowo-Wschodniej Tomkiem Stachlewskim.

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies