Google testuje możliwość przesyłania filmów do analizy w aplikacji Gemini

Google testuje możliwość przesyłania filmów do analizy w aplikacji Gemini

Użytkownicy aplikacji Gemini mogą już nie tylko przesyłać dokumenty i obrazy, ale również własne pliki wideo. Sztuczna inteligencja od Google potrafi je przeanalizować, streścić lub odpowiedzieć na konkretne pytania dotyczące ich treści, – informuje 9to5Google.

Wideo jako nowy typ danych wejściowych

Nowa funkcja umożliwia użytkownikom załadowanie wideo bezpośrednio do czatu, podobnie jak wcześniej mogli wklejać link do filmu z YouTube. Wideo jest widoczne nad konwersacją i można je ponownie odtworzyć z poziomu aplikacji. Przykładowo, Gemini potrafi wskazać godzinę wyświetlaną na ekranie urządzenia Nest Hub lub opisać jesienny krajobraz leśny na nagraniu.

Jak działa przesyłanie plików

Wideo przesyła się poprzez przycisk „+” z możliwością wyboru pliku z galerii lub menedżera plików. Jeśli funkcja jest aktywna na danym koncie, użytkownik zobaczy opcję wyboru wideo. W przeciwnym razie pliki będą wyszarzone i nie będzie można ich dodać.

Stopniowe wdrażanie i ograniczenia

Możliwość przesyłania filmów nie została jeszcze udostępniona szeroko. Jej dostępność zależy od wersji aplikacji, typu konta oraz urządzenia – funkcja działa zarówno na Androidzie (Google app 16.23 beta), jak i na iOS, w wariantach Gemini 2.5 Flash i 2.5 Pro. Nie jest jeszcze dostępna w wersji przeglądarkowej, gdzie pojawia się komunikat „File type unsupported”. Wbudowana kamera Gemini wciąż nie obsługuje nagrywania wideo.

Avatar
Cze 11

OpenAI udostępnia model o3-pro – nowy standard w zadaniach wymagających precyzyjnego rozumowania

OpenAI wprowadziła do użytku o3-pro – najbardziej zaawansowany model AI w swojej ofercie. Został on zaprojektowany jako rozszerzona wersja modelu o3, specjalizującego się w rozwiązywaniu problemów wymagających logicznego myślenia. Model o3-pro dostępny jest już dla użytkowników ChatGPT Pro i Team, a także poprzez API.
0
Kwi 24

OpenAI wprowadza GPT‑4.1 — nową rodzinę modeli zoptymalizowanych pod kątem kodowania i zadań z długim kontekstem

OpenAI udostępniła trzy nowe modele językowe w API: GPT‑4.1, GPT‑4.1 mini oraz GPT‑4.1 nano. Wszystkie obsługują kontekst o długości do 1 miliona tokenów i oferują istotne usprawnienia w zakresie pisania kodu, rozumienia długiego kontekstu oraz przestrzegania instrukcji. Modele nie są dostępne w ChatGPT, ale można je wykorzystać w aplikacjach poprzez interfejs API.
0
Sie 30, 2023

Zrezygnowali z menedżerów, zatrudnili coachów: case firmy Time Etc

Firma Time Etc postanowiła zastąpić wszystkich swoich menedżerów coachami.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies