Meta uruchamia Llama API i nowe narzędzia open source na konferencji LlamaCon 2025

Meta uruchamia Llama API i nowe narzędzia open source na konferencji LlamaCon 2025

Podczas pierwszej edycji konferencji LlamaCon, która odbyła się we wtorek w siedzibie Meta w Menlo Park, firma zaprezentowała nowy zestaw narzędzi dla twórców rozwiązań AI opartych na modelach Llama. Wydarzenie miało charakter międzynarodowy, a głównym celem Meta jest zwiększenie adopcji własnych otwartych modeli AI i wzmocnienie pozycji wobec dostawców zamkniętych rozwiązań, takich jak OpenAI.

Llama API i nowe modele: więcej kontroli dla programistów

Meta uruchomiła wersję preview Llama API — narzędzia umożliwiającego łatwe podłączenie do modeli Llama 4 (Scout i Maverick) w chmurze, z jednym kluczem API i wsparciem dla SDK w Pythonie i TypeScript. API obsługuje także konwersję aplikacji opartych na OpenAI SDK. Firma zapowiedziała również możliwość dostrajania modeli przy użyciu Llama 3.3 8B oraz udostępniania własnych modeli na dowolnej infrastrukturze.

Llama API ma na celu uproszczenie pracy deweloperów i zwiększenie kontroli nad modelami bez uzależnienia od zewnętrznych dostawców chmurowych. Nowe modele można testować z użyciem usług Cerebras i Groq, co pozwala osiągać szybszy inference i prototypować bezpośrednio w środowisku Meta.

Partnerstwa, granty i bezpieczeństwo open source

Meta ogłosiła nowe integracje Llama Stack z IBM, Red Hat, Dell Technologies i NVIDIA NeMo. Jednocześnie firma zaprezentowała zestaw narzędzi ochronnych open source: Llama Guard 4, LlamaFirewall, Llama Prompt Guard 2 oraz CyberSecEval 4. Powstał również program Llama Defenders, który umożliwia wybranym partnerom weryfikację odporności swoich systemów.

W ramach programu Llama Impact Grants Meta przyznała 1,5 mln dolarów dziesięciu zespołom z całego świata, m.in. z USA, Wielkiej Brytanii i Afryki. Wśród beneficjentów znalazły się projekty związane z dostępem do usług publicznych, wsparciem aptek oraz narzędziami edukacyjnymi offline.

Rywalizacja z OpenAI i rozmowa z Microsoftem

Podczas wystąpienia na scenie Mark Zuckerberg przyznał, że celem Meta jest budowa silnego ekosystemu open source, który daje deweloperom elastyczność w łączeniu różnych modeli. Wskazał, że otwarte podejście może przewyższyć zamknięte modele, ponieważ pozwala wykorzystywać najlepsze komponenty z różnych źródeł, np. DeepSeek czy Qwen.

W trakcie rozmowy z CEO Microsoftu Satyą Nadellą padło stwierdzenie, że 20–30% kodu w repozytoriach Microsoftu generowane jest już przez AI. Nadella dodał, że postęp w tym zakresie różni się w zależności od języka: największy jest w Pythonie, najmniejszy w C++. Meta nie podała porównywalnych danych, ale rozmowa potwierdziła, że AI zaczyna odgrywać znaczącą rolę nie tylko w produktach końcowych, ale też w samym procesie ich tworzenia. Co więcej, CTO Microsoftu Kevin Scott wcześniej prognozował, że do 2030 roku aż 95% kodu będzie generowane przez AI.

Avatar
Lut 9

Anders Hejlsberg: dlaczego TypeScript przepisano na Go, a nie na Rust, i co dalej z juniorami

GitHub opublikował wywiad z Andersem Hejlsbergiem — architektem C# i TypeScript oraz twórcą Turbo Pascala i Delphi. Opowiada on o kilku kwestiach, które w ostatnim czasie budzą sporo dyskusji.
0
Lut 4, 2025

Inżynierowie bez doświadczenia pomagają Elonowi Muskowi przejąć wpływy w rządzie USA

Elon Musk przydzielił kluczowe stanowiska swoim współpracownikom w Ośrodku Zarządzania Personelem USA (OPM), w tym osobom bez doświadczenia w administracji publicznej. Według WIRED, wśród sześciu zidentyfikowanych asystentów miliardera są zarówno niedawni absolwenci uczelni, jak i osoby nadal studiujące.
0
Mar 10, 2023

Google, w odpowiedzi na ChatGPT, wprowadza AI do wszystkich flagowych produktów

Wyższe kierownictwo Google’a ogłosiło, że "generatywna sztuczna inteligencja" powinna zostać włączona do wszystkich jego największych produktów w ciągu kilku miesięcy.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies