Meta uruchamia Llama API i nowe narzędzia open source na konferencji LlamaCon 2025

Meta uruchamia Llama API i nowe narzędzia open source na konferencji LlamaCon 2025

Podczas pierwszej edycji konferencji LlamaCon, która odbyła się we wtorek w siedzibie Meta w Menlo Park, firma zaprezentowała nowy zestaw narzędzi dla twórców rozwiązań AI opartych na modelach Llama. Wydarzenie miało charakter międzynarodowy, a głównym celem Meta jest zwiększenie adopcji własnych otwartych modeli AI i wzmocnienie pozycji wobec dostawców zamkniętych rozwiązań, takich jak OpenAI.

Llama API i nowe modele: więcej kontroli dla programistów

Meta uruchomiła wersję preview Llama API — narzędzia umożliwiającego łatwe podłączenie do modeli Llama 4 (Scout i Maverick) w chmurze, z jednym kluczem API i wsparciem dla SDK w Pythonie i TypeScript. API obsługuje także konwersję aplikacji opartych na OpenAI SDK. Firma zapowiedziała również możliwość dostrajania modeli przy użyciu Llama 3.3 8B oraz udostępniania własnych modeli na dowolnej infrastrukturze.

Llama API ma na celu uproszczenie pracy deweloperów i zwiększenie kontroli nad modelami bez uzależnienia od zewnętrznych dostawców chmurowych. Nowe modele można testować z użyciem usług Cerebras i Groq, co pozwala osiągać szybszy inference i prototypować bezpośrednio w środowisku Meta.

Partnerstwa, granty i bezpieczeństwo open source

Meta ogłosiła nowe integracje Llama Stack z IBM, Red Hat, Dell Technologies i NVIDIA NeMo. Jednocześnie firma zaprezentowała zestaw narzędzi ochronnych open source: Llama Guard 4, LlamaFirewall, Llama Prompt Guard 2 oraz CyberSecEval 4. Powstał również program Llama Defenders, który umożliwia wybranym partnerom weryfikację odporności swoich systemów.

W ramach programu Llama Impact Grants Meta przyznała 1,5 mln dolarów dziesięciu zespołom z całego świata, m.in. z USA, Wielkiej Brytanii i Afryki. Wśród beneficjentów znalazły się projekty związane z dostępem do usług publicznych, wsparciem aptek oraz narzędziami edukacyjnymi offline.

Rywalizacja z OpenAI i rozmowa z Microsoftem

Podczas wystąpienia na scenie Mark Zuckerberg przyznał, że celem Meta jest budowa silnego ekosystemu open source, który daje deweloperom elastyczność w łączeniu różnych modeli. Wskazał, że otwarte podejście może przewyższyć zamknięte modele, ponieważ pozwala wykorzystywać najlepsze komponenty z różnych źródeł, np. DeepSeek czy Qwen.

W trakcie rozmowy z CEO Microsoftu Satyą Nadellą padło stwierdzenie, że 20–30% kodu w repozytoriach Microsoftu generowane jest już przez AI. Nadella dodał, że postęp w tym zakresie różni się w zależności od języka: największy jest w Pythonie, najmniejszy w C++. Meta nie podała porównywalnych danych, ale rozmowa potwierdziła, że AI zaczyna odgrywać znaczącą rolę nie tylko w produktach końcowych, ale też w samym procesie ich tworzenia. Co więcej, CTO Microsoftu Kevin Scott wcześniej prognozował, że do 2030 roku aż 95% kodu będzie generowane przez AI.

Avatar
Jan 8, 2025

6 tez Sama Altmana o koszcie ChatGPT, rekrutacji inżynierów i konflikcie z radą dyrektorów OpenAI

Dyrektor generalny OpenAI, Sam Altman, udzielił obszernego wywiadu, w którym wspomniał o konflikcie z zarządem w 2023 roku, opowiedział o swoim harmonogramie pracy, opcjach cenowych ChatGPT oraz o tym, jak firmie udało się przyciągnąć najbardziej utalentowanych inżynierów. Oto najważniejsze tezy z artykułu Bloomberga.
0
Jun 4

Wbudowany edytor tekstu CLI w Windows 11 – Edit trafia do open source

Firma Microsoft zaprezentowała Edit – nowy, lekki edytor tekstu działający z poziomu wiersza poleceń (CLI), który trafi do systemu Windows 11. Narzędzie jest już dostępne jako projekt open source na GitHubie i można je samodzielnie skompilować z kodu źródłowego. Wkrótce pojawi się w programie Windows Insider, skąd zostanie oficjalnie zintegrowane z systemem operacyjnym
0
Feb 20, 2025

Wprowadzenie Rust do jądra Linux: Oświadczenie Griega Kroaha-Hartmana i Keisa Cooka

Greg Kroah-Hartman, odpowiedzialny za wsparcie stabilnej gałęzi jądra Linux, wyraził poparcie dla rozwoju nowych komponentów jądra w języku Rust. Jako osoba, przez którą przez ostatnie 15 lat przechodziła cała dokumentacja błędów i podatności w jądrze Linux, twierdzi, że większość błędów w jądrze wynika z niewłaściwie obsługiwanych przypadków w języku C (tzw. corner case), które zostałyby całkowicie wykluczone w kodzie napisanym w języku Rust.
0

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies