Mistral AI wydała nowe narzędzia — Codestral Mamba i MathΣtral
Mistral AI zaprezentowało dwa nowe produkty rozszerzające możliwości sztucznej inteligencji, w tym MathΣtral — wyspecjalizowany model do obliczeń matematycznych i badań naukowych, oraz Codestral Mamba — modele z otwartym kodem źródłowym do generowania kodu.
Codestral Mamba
Codestral Mamba to model 7B, który oferuje możliwość kontekstowego wyszukiwania do 256K tokenów. Specjalizuje się w generowaniu kodu i jest dostępny na licencji Apache 2.0. Obsługuje języki programowania takie jak Python, Java, JavaScript, C, C++, Swift, Fortran i Bash.
Modele Mamba mają zaletę liniowego czasu odpowiedzi i teoretyczną możliwość modelowania sekwencji o nieskończonej długości. Dzięki temu użytkownicy mogą otrzymywać szybkie odpowiedzi, niezależnie od długości danych wejściowych.
Codestral Mamba można wdrożyć za pomocą mistral-inference SDK, który opiera się na referencyjnych implementacjach z repozytorium Mamba na GitHubie. Model można również wdrożyć za pomocą TensorRT-LLM lub pobrać surowe wagi z HuggingFace.
MathΣtral
Dla wygody testowania, Codestral Mamba jest dostępna na platformie La Plateforme (codestral-mamba-2407), obok swojej „starszej siostry”, Codestral 22B.
To specyficzny model 7B, przeznaczony do rozwiązywania problemów matematycznych oraz odkryć naukowych. Model ma 32K okno kontekstowe i jest udostępniony na licencji Apache 2.0.
Osiąga najnowocześniejsze w swojej kategorii rozmiarowej możliwości obliczeniowe w różnych standardowych testach branżowych (osiąga 56,6% w MATH oraz 63,47% w MMLU).
Współczynniki wag są umieszczone na HuggingFace. Mathstral można wypróbować za pomocą mistral-inference i dostosować za pomocą mistral-finetune.
MathΣtral jest dostępna do użytku i adaptacji za pomocą narzędzi Mistral AI.