Das KI-Startup Liquid AI hat kürzlich seine neu entwickelten Liquid Foundation Models (LFMs) vorgestellt, die eine vielversprechende Alternative zu herkömmlichen KI-Modellen darstellen.
Die von ehemaligen MIT-Forschern gegründete Firma Liquid AI bringt mit den LFMs eine spannende Neuerung auf den Markt. Anders als viele der bekannten KI-Modelle, die auf der Transformer-Architektur basieren, setzen die LFMs auf eine neuartige Struktur, die speziell für Effizienz optimiert ist. Liquid AI behauptet, dass ihre Modelle, bei vergleichbarer Größe, leistungsstärker sind als Microsofts Phi-3 oder Metas Llama 3. Besonders das kleinste Modell, das LFM 1.3B, soll laut Liquid AI bereits in zahlreichen Benchmarks das neue Llama 3.2-1.2B von Meta übertreffen.
Die LFMs sind in drei verschiedenen Größen erhältlich: 1,3 Milliarden, 3 Milliarden und 40 Milliarden Parameter. Sie zeichnen sich besonders durch ihre hohe Speichereffizienz aus und sollen vielseitig für verschiedene Datentypen wie Audio, Video und Text einsetzbar sein. Diese Vielseitigkeit macht sie zu einer potenziellen Innovation in der KI-Landschaft.
Hinter Liquid AI steht ein Team erfahrener Entwickler, das unter anderem an StripedHyena beteiligt war. Am 23. Oktober 2024 plant Liquid AI am MIT eine große Produkteinführung, bei der die LFMs offiziell vorgestellt werden. Interessenten können über den Playground bereits jetzt einen ersten Eindruck von den Modellen gewinnen. Die LFMs werden allerdings nicht Open-Source verfügbar sein, was in der Community für Diskussionen sorgen könnte.