Manchmal ist man gemeinsam einfach schlauer. Gilt das auch für Künstliche Intelligenz?
Das japanische Start-up Sakana AI hat genau das ausprobiert – und gezeigt, wie sich große Sprachmodelle wie ChatGPT, Gemini und DeepSeek im Team besser schlagen als im Alleingang. Ihre neue Methode kombiniert mehrere Modelle zu einer Art „Brainstorming-Team“, das Probleme effektiver löst.
Im Zentrum steht der Algorithmus AB-MCTS (Adaptive Branching Monte Carlo Tree Search). Er verteilt die Arbeit auf verschiedene KI-Modelle, die sich gegenseitig Vorschläge machen und diese verfeinern – fast wie in einer menschlichen Arbeitsgruppe. Der Clou: Das System entscheidet selbst, wann es bestehende Ansätze vertieft (Tiefensuche) oder ganz neue Wege geht (Breitensuche). In der Multi-LLM-Variante wählt es sogar dynamisch das Modell aus, das in der jeweiligen Situation die besten Ergebnisse liefert.
Besonders beeindruckend: Im anspruchsvollen Benchmark-Test ARC-AGI-2 konnte der Ansatz deutlich mehr Aufgaben lösen als ein einzelnes Modell. Vor allem dann, wenn die Lösung nur im Teamwork zu finden war, spielte die Multi-LLM-Strategie ihre Stärken aus.
Ganz ohne Herausforderungen geht es freilich nicht. Wenn nur eine oder zwei Antworten erlaubt sind – wie im offiziellen Benchmark – sinkt die Erfolgsquote noch. Aber hier tüftelt Sakana AI bereits an neuen Verfahren, um die besten Vorschläge automatisch zu erkennen. Auch ein weiteres KI-Modell, das die Ergebnisse bewertet, ist im Gespräch. Und der Open-Source-Release TreeQuest macht den Algorithmus auch für andere Entwickler nutzbar.
Die Idee passt perfekt zu Sakana AIs Philosophie: Künstliche Intelligenz soll wie ein Ökosystem funktionieren – dynamisch, anpassungsfähig und inspiriert von der Natur. Schon die Vorgängerprojekte, wie die Darwin-Gödel-Maschine oder die Continuous Thought Machine, folgten diesem Ansatz.
Ein spannendes Beispiel dafür, wie die Zukunft der KI immer mehr von Kollaboration statt Konkurrenz geprägt sein könnte.
