Uncategorized

LocalAI v3.5.0 is out! Now with MLX for Apple Silicon, a new Launcher App, Video Generation, and massive macOS improvements.

LocalAI v3.5.0: A Major Leap Forward for Self-Hosted AI

As someone who’s passionate about AI and privacy, I’m excited to share the latest release of LocalAI, a self-hosted AI platform that’s been gaining traction over the past two years. With version 3.5.0, the creator, mudler, has made significant improvements to hardware support, peer-to-peer features, and overall usability. In this post, I’ll dive into the key changes and what they mean for users.

What’s New in LocalAI v3.5.0?

One of the most notable updates is the introduction of MLX, a new backend that allows for efficient running of LLMs, vision, and audio models on Apple Silicon (M1/M2/M3). This means that Mac users can now harness the power of AI models without sacrificing performance. Additionally, the diffusers backend now supports CPU-only operation, making it possible to generate images without a dedicated GPU.

Massive macOS Support and Video Generation

LocalAI v3.5.0 also brings massive macOS support, with popular models like diffusers, whisper, llama.cpp, and stable-diffusion.cpp now working seamlessly on Macs. This enables users to generate images and transcribe audio natively. Furthermore, the new release includes support for video generation via WAN models, allowing users to create videos from text or images (T2V/I2V).

A new Launcher App (currently in alpha) provides a simple GUI for installing, managing, and updating LocalAI on Linux and macOS. While it’s still a work in progress, this app promises to make it easier for users to get started with LocalAI.

Why Choose LocalAI?

So, why should you choose LocalAI over other AI solutions? For starters, LocalAI is a complete, privacy-focused, open-source AI stack that can be run entirely on your own hardware. This means you have full control over your data and can ensure that your AI models are trained and deployed in a secure environment.

LocalAI also provides a unique set of features that set it apart from other solutions. These include:

  • 100% local inferencing, with no reliance on external providers or proxies
  • OpenAI API compatibility, allowing you to leverage a vast ecosystem of tools and scripts
  • A modular backend and model management system that can be customized and extended
  • A peer-to-peer layer that enables nodes to communicate with each other without third-party involvement

The Bigger Picture

LocalAI is more than just a self-hosted AI platform – it’s part of a larger vision for a fully open-source and self-hostable AI stack. The creator, mudler, is also working on LocalAGI for agent management and LocalRecall for persistent memory, which will further enhance the capabilities of LocalAI.

In conclusion, LocalAI v3.5.0 is a significant release that brings substantial improvements to hardware support, peer-to-peer features, and usability. Whether you’re a developer, researcher, or simply someone interested in AI and privacy, LocalAI is definitely worth exploring.

LocalAI v3.5.0: Duży krok do przodu dla samodzielnie hostowanych rozwiązań AI

Jako osoba zainteresowana AI i prywatnością, jestem podekscytowany, że mogę podzielić się najnowszym wydaniem LocalAI, platformy AI, która zyskała na popularności w ciągu ostatnich dwóch lat. Z wersją 3.5.0, twórca, mudler, wprowadził znaczące udoskonalenia w obsłudze sprzętu, funkcjach peer-to-peer i ogólnej użyteczności. W tym poście, zagłębię się w najważniejsze zmiany i to, co one oznaczają dla użytkowników.

Co nowego w LocalAI v3.5.0?

Jednym z najbardziej godnych uwagi aktualizacji jest wprowadzenie MLX, nowego backendu, który pozwala na wydajne uruchamianie modeli LLM, wizji i audio na Apple Silicon (M1/M2/M3). Oznacza to, że użytkownicy Maców mogą teraz wykorzystywać potęgę modeli AI bez wpływu na wydajność. Dodatkowo, backend diffusers obsługuje teraz operację tylko na CPU, co pozwala na generowanie obrazów bez dedykowanej karty graficznej.

Obsługa macOS i generacja wideo

LocalAI v3.5.0 przynosi również obsługę macOS, z popularnymi modelami takimi jak diffusers, whisper, llama.cpp i stable-diffusion.cpp, które teraz działają płynnie na Macach. Umożliwia to użytkownikom generowanie obrazów i transkrypcję audio w sposób natywny. Ponadto, nowe wydanie zawiera obsługę generacji wideo za pomocą modeli WAN, co pozwala użytkownikom tworzyć filmy z tekstu lub obrazów (T2V/I2V).

Nowa aplikacja Launcher (obecnie w wersji alpha) zapewnia prosty interfejs graficzny do instalowania, zarządzania i aktualizowania LocalAI na Linux i macOS. Chociaż jest to jeszcze wersja robocza, ta aplikacja obiecuje ułatwić użytkownikom rozpoczęcie pracy z LocalAI.

Dlaczego wybrać LocalAI?

Więc, dlaczego powinieneś wybrać LocalAI zamiast innych rozwiązań AI? Po pierwsze, LocalAI jest kompletną, ukierunkowaną na prywatność, otwartoźródłową platformą AI, która może być uruchomiona w całości na Twoim własnym sprzęcie. Oznacza to, że masz pełną kontrolę nad swoimi danymi i możesz zapewnić, że Twoje modele AI są szkolone i wdrożone w bezpiecznym środowisku.

LocalAI zapewnia również unikalny zestaw funkcji, które odróżniają ją od innych rozwiązań. Obejmują one:

  • 100% lokalne inferencing, bez polegania na zewnętrznych dostawcach lub proxy
  • Zgodność z API OpenAI, która pozwala wykorzystywać ogromny ekosystem narzędzi i skryptów
  • Modularny backend i system zarządzania modelami, który może być dostosowany i rozbudowany
  • Warstwa peer-to-peer, która umożliwia węzłom komunikację bez udziału stron trzecich

Szerszy kontekst

LocalAI to więcej niż tylko samodzielnie hostowana platforma AI – jest częścią większej wizji pełnej, otwartej i samodzielnie hostowanej platformy AI. Twórca, mudler, pracuje również nad LocalAGI do zarządzania agentami i LocalRecall do pamięci trwałej, co jeszcze bardziej zwiększy możliwości LocalAI.

Podsumowując, LocalAI v3.5.0 to istotne wydanie, które przynosi znaczące udoskonalenia w obsłudze sprzętu, funkcjach peer-to-peer i użyteczności. Niezależnie od tego, czy jesteś deweloperem, badaczem, czy po prostu osobą zainteresowaną AI i prywatnością, LocalAI jest-definitywnie warta sprawdzenia.

Leave a Reply

Your email address will not be published. Required fields are marked *

WordPress Appliance - Powered by TurnKey Linux