4 powody, dla których sztuczna inteligencja jest tak droga
Microsoft Corp. i Alphabet Inc. odnotowały rosnące przychody z chmury w swoich ostatnich wynikach kwartalnych, ponieważ klienci biznesowi wydawali więcej na ich usługi AI. Meta Platforms Inc. powiedziała, że jej działania związane z AI pomogły zwiększyć zaangażowanie użytkowników i precyzyjność targetowania reklam. Aby osiągnąć większe zyski, trzy firmy wydały miliardy na rozwój sztucznej inteligencji — i planują jeszcze zwiększyć te inwestycje.
Zgodnie z obserwacjami poczynionymi przez dziennikarza Bloomberga, koszty AI będą rosły. Istnieją dwa kluczowe powody tego: modele AI stają się coraz większe i droższe do opracowania, a globalne zapotrzebowanie na usługi AI wymaga budowy wielu nowych centrów danych, aby je obsłużyć.
Duże modele językowe stają się większe
Najbardziej znane produkty AI dzisiaj, w tym ChatGPT od OpenAI, są napędzane przez duże modele językowe — systemy, które są zasilane ogromnymi ilościami danych, w tym książkami, artykułami i komentarzami online, aby generować najlepsze możliwe odpowiedzi na zapytania użytkowników. To wymaga zdobywania więcej danych, więcej mocy obliczeniowej i również dłuższego trenowania systemów AI. W wywiadzie podcastowym Dario Amodei, dyrektor generalny Anthropic, powiedział, że obecne modele AI na rynku kosztują około 100 milionów dolarów na szkolenie.
Koszty chipów i komputerów
Większość kosztów jest związana z chipami. Szkolenia dużych modeli językowych firmy AI polegają na jednostkach przetwarzania grafiki — GPU — które mogą przetwarzać ogromne ilości danych z dużą prędkością. Nie tylko te chipy są trudno dostępne, ale są też niezwykle drogie, a najbardziej zaawansowane funkcje są produkowane głównie przez jedną firmę: Nvidia Corp.
Chip graficzny H100 od Nvidii, złoty standard do szkolenia modeli AI, sprzedawano za około 30,000 dolarów.
Firmy mogą wykonywać tę pracę bez kupowania rzeczywistych chipów, ale ich wypożyczanie również jest drogie. Na przykład jednostka chmurowa Amazon.com Inc. wynajmie klientom dużą klaster procesorów budowanych przez Intel za około 6 dolarów za godzinę. Dla porównania, grupa chipów H100 od Nvidii kosztuje prawie 100 dolarów za godzinę.
Centra danych
Firmy kupujące te chipy potrzebują miejsca, aby je umieścić. Meta, wraz z największymi firmami zajmującymi się przetwarzaniem w chmurze — Amazon, Microsoft i Google — oraz innymi dostawcami mocy obliczeniowej na wynajem, ścigają się, aby budować nowe serwerownie. Te budynki są zwykle budowane na zamówienie. Zawierają one stelaże z dyskami twardymi, procesorami, systemami chłodzenia oraz stosami sprzętu elektrycznego i generatorów zapasowych.
Dell’Oro Group, firma badawcza, szacuje, że firmy wydadzą 294 miliardy dolarów na budowę i wyposażenie centrów danych w tym roku, w porównaniu do 193 miliardów dolarów w 2020 roku.
Umowy i talenty
Podczas gdy chipy i centra danych stanowią większość kosztów, niektóre firmy AI wydają również miliony na licencjonowanie danych od wydawców.
OpenAI zawarło umowy z kilkoma europejskimi wydawcami, aby włączyć ich treści informacyjne do ChatGPT i również trenować swoje modele AI.
Firmy technologiczne również toczą zaciekłą wojnę o talenty związane z AI. W pewnym momencie w zeszłym roku Netflix Inc. ogłosił poszukiwania menedżera produktu AI z wynagrodzeniem do 900,000 dolarów.
Tańsze alternatywy
Firma Microsoft zapowiedziała trzy mniejsze modele AI, które są mniej obciążające obliczeniowo. Według Microsoft, duże modele językowe „wciąż będą złotym standardem do rozwiązywania wielu typów złożonych zadań”, takich jak „zaawansowane rozumowanie, analiza danych i zrozumienie kontekstu”. Ale mniejsze modele mogą wystarczyć dla niektórych klientów i zastosowań.
Inne firmy, w tym Sakana AI, startup założony przez dwóch byłych pracowników Google, również koncentrują się na mniejszych modelach.