Meta uruchamia Llama API i nowe narzędzia open source na konferencji LlamaCon 2025

Meta uruchamia Llama API i nowe narzędzia open source na konferencji LlamaCon 2025

Podczas pierwszej edycji konferencji LlamaCon, która odbyła się we wtorek w siedzibie Meta w Menlo Park, firma zaprezentowała nowy zestaw narzędzi dla twórców rozwiązań AI opartych na modelach Llama. Wydarzenie miało charakter międzynarodowy, a głównym celem Meta jest zwiększenie adopcji własnych otwartych modeli AI i wzmocnienie pozycji wobec dostawców zamkniętych rozwiązań, takich jak OpenAI.

Llama API i nowe modele: więcej kontroli dla programistów

Meta uruchomiła wersję preview Llama API — narzędzia umożliwiającego łatwe podłączenie do modeli Llama 4 (Scout i Maverick) w chmurze, z jednym kluczem API i wsparciem dla SDK w Pythonie i TypeScript. API obsługuje także konwersję aplikacji opartych na OpenAI SDK. Firma zapowiedziała również możliwość dostrajania modeli przy użyciu Llama 3.3 8B oraz udostępniania własnych modeli na dowolnej infrastrukturze.

Llama API ma na celu uproszczenie pracy deweloperów i zwiększenie kontroli nad modelami bez uzależnienia od zewnętrznych dostawców chmurowych. Nowe modele można testować z użyciem usług Cerebras i Groq, co pozwala osiągać szybszy inference i prototypować bezpośrednio w środowisku Meta.

Partnerstwa, granty i bezpieczeństwo open source

Meta ogłosiła nowe integracje Llama Stack z IBM, Red Hat, Dell Technologies i NVIDIA NeMo. Jednocześnie firma zaprezentowała zestaw narzędzi ochronnych open source: Llama Guard 4, LlamaFirewall, Llama Prompt Guard 2 oraz CyberSecEval 4. Powstał również program Llama Defenders, który umożliwia wybranym partnerom weryfikację odporności swoich systemów.

W ramach programu Llama Impact Grants Meta przyznała 1,5 mln dolarów dziesięciu zespołom z całego świata, m.in. z USA, Wielkiej Brytanii i Afryki. Wśród beneficjentów znalazły się projekty związane z dostępem do usług publicznych, wsparciem aptek oraz narzędziami edukacyjnymi offline.

Rywalizacja z OpenAI i rozmowa z Microsoftem

Podczas wystąpienia na scenie Mark Zuckerberg przyznał, że celem Meta jest budowa silnego ekosystemu open source, który daje deweloperom elastyczność w łączeniu różnych modeli. Wskazał, że otwarte podejście może przewyższyć zamknięte modele, ponieważ pozwala wykorzystywać najlepsze komponenty z różnych źródeł, np. DeepSeek czy Qwen.

W trakcie rozmowy z CEO Microsoftu Satyą Nadellą padło stwierdzenie, że 20–30% kodu w repozytoriach Microsoftu generowane jest już przez AI. Nadella dodał, że postęp w tym zakresie różni się w zależności od języka: największy jest w Pythonie, najmniejszy w C++. Meta nie podała porównywalnych danych, ale rozmowa potwierdziła, że AI zaczyna odgrywać znaczącą rolę nie tylko w produktach końcowych, ale też w samym procesie ich tworzenia. Co więcej, CTO Microsoftu Kevin Scott wcześniej prognozował, że do 2030 roku aż 95% kodu będzie generowane przez AI.

Avatar
Feb 27, 2024

Niedoskonałości Gemini AI pogrzebią CEO Google?

Chatbot Google Gemini AI był ostatnio przedmiotem kontrowersji z kilku powodów. Rozwój sytuacji przybrał na sile do tego stopnia, że postrzegają oni wpadkę chatbota jako "porażkę" ze strony Google.
0
Sep 13, 2024

Samsung planuje redukcję zatrudnienia do 30% w wybranych działach

Samsung Electronics przygotowuje się do zredukowania swojej globalnej siły roboczej nawet o 30% w niektórych działach, jak podają źródła wewnętrzne.
0
Jun 12

NVIDIA i Samsung inwestują w Skild AI – startup rozwijający „mózg” dla robotów

Amerykański startup Skild AI, zajmujący się tworzeniem oprogramowania dla robotów, pozyskał finansowanie w ramach rundy B, osiągając wycenę na poziomie 4,5 miliarda dolarów. NVIDIA zainwestowała 25 mln dolarów, a Samsung – 10 mln. Rundę prowadzi japoński SoftBank, który wcześniej przekazał 100 mln dolarów
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies