Ehemaliges DeepMind-Team Reflection AI erhält 2 Milliarden Dollar Finanzierung – Bewertung steigt auf 8 Milliarden Dollar und fordert die Open-Source-KI-Landschaft heraus
Zusammenfassung
Das erst ein Jahr alte KI-Startup Reflection AI hat eine Finanzierungsrunde in Höhe von 2 Milliarden US-Dollar abgeschlossen, wodurch die Unternehmensbewertung auf 8 Milliarden US-Dollar ansteigt – eine 15-fache Steigerung gegenüber der Bewertung von 545 Millionen US-Dollar vor sieben Monaten. Das von ehemaligen Google DeepMind-Forschern gegründete Unternehmen verlagert seinen strategischen Schwerpunkt von autonomen Code-Agenten auf führende Open-Source-KI-Modelle. Es strebt danach, eine Open-Source-Alternative zu geschlossenen Laboren wie OpenAI und Anthropic sowie ein westlicher Konkurrent zu chinesischen KI-Unternehmen wie DeepSeek zu werden.
Reflection AI wurde im März 2024 von den ehemaligen DeepMind-Forschern Misha Laskin und Ioannis Antonoglou gegründet. Laskin leitete zuvor die Belohnungsmodellierung für DeepMinds Gemini-Projekt, während Antonoglou ein Mitentwickler von AlphaGo war, dem berühmten KI-System, das 2016 den Go-Weltmeister besiegte. Mit ihrer tiefgreifenden Erfahrung in der Entwicklung führender KI-Systeme versuchen die beiden Gründer zu beweisen, dass die richtigen KI-Talente auch außerhalb der Tech-Giganten Spitzenmodelle entwickeln können.
Die aktuelle Finanzierungsrunde wurde von Nvidia angeführt und umfasst eine beeindruckende Liste von Investoren, darunter der ehemalige Google-CEO Eric Schmidt, Citibank, 1789 Capital, Lightspeed, Sequoia Capital, DST Global, B Capital, GIC, CRV sowie Zoom-Gründer Eric Yuan. Laut TechCrunch wurde die Nachricht am 9. Oktober 2025 (US-Ostküstenzeit) bekannt gegeben.
Technologische Durchbrüche und strategische Neuausrichtung
Reflection AI behauptet, eine große Sprachmodell- und Reinforcement-Learning-Plattform entwickelt zu haben, die in der Lage ist, große Mixture-of-Experts-Modelle (MoE) im Spitzenbereich zu trainieren – eine Technologie, die bisher nur den weltweit führenden Laboren zugeschrieben wurde. Das Unternehmen erklärte auf der Plattform X, dass es diese Methoden, nachdem sie erfolgreich auf den kritischen Bereich der autonomen Codierung angewendet wurden, nun auf den Bereich des allgemeinen Agenten-Reasonings ausweitet.
Das Reflection AI-Team besteht derzeit aus etwa 60 Personen, hauptsächlich KI-Forschern und Ingenieuren, die in den Bereichen Infrastruktur, Datentraining und Algorithmenentwicklung tätig sind. Das Unternehmen hat Rechencluster-Ressourcen erhalten und plant, Anfang 2026 sein erstes führendes Sprachmodell zu veröffentlichen, das auf Billionen von Token trainiert werden soll. Das erste Modell wird hauptsächlich textbasiert sein, zukünftige Versionen sollen multimodale Fähigkeiten besitzen.
Open-Source-Strategie und Geschäftsmodell
Reflection AIs Definition von "Open Source" konzentriert sich auf den Zugang und nicht auf den Entwicklungsprozess, ähnlich der Strategie von Metas Llama oder Mistral. CEO Laskin erklärte, dass das Unternehmen Modellgewichte zur öffentlichen Nutzung freigeben wird, die Datensätze und die vollständige Trainingspipeline jedoch weitgehend proprietär bleiben. Er erläuterte, dass die Modellgewichte der einflussreichste Teil sind, den jeder nutzen und anpassen kann, während der Infrastruktur-Stack nur von wenigen Unternehmen tatsächlich genutzt werden kann.
Was das Geschäftsmodell betrifft, können Forscher die Modelle kostenlos nutzen. Einnahmen sollen von großen Unternehmen generiert werden, die Produkte auf Basis der Reflection-Modelle entwickeln, sowie von Regierungskunden, die "souveräne KI"-Systeme aufbauen. Laskin wies darauf hin, dass große Unternehmen Eigentum an Open-Source-Modellen wünschen, um sie auf ihrer eigenen Infrastruktur betreiben, Kosten kontrollieren und für verschiedene Arbeitslasten anpassen zu können.
Wettbewerbslandschaft der Branche
Laskin bezeichnete chinesische Modelle wie DeepSeek und Qwen als "Weckruf" und betonte, dass, wenn keine Maßnahmen ergriffen werden, globale Intelligenzstandards von anderen Ländern und nicht von den USA festgelegt werden. Er fügte hinzu, dass Unternehmen und souveräne Staaten aufgrund potenzieller rechtlicher Konsequenzen in der Regel keine chinesischen Modelle verwenden, was die USA und ihre Verbündeten in einen Wettbewerbsnachteil bringt.
David Sacks, Leiter für KI und Kryptowährungen im Weißen Haus, äußerte auf X seine Unterstützung und sagte, er freue sich über mehr amerikanische Open-Source-KI-Modelle. Ein wichtiger Teil des globalen Marktes werde die Kosten, Anpassbarkeit und Kontrolle bevorzugen, die Open Source bietet, und die USA wollten auch in dieser Kategorie gewinnen.
Clem Delangue, Mitbegründer und CEO von Hugging Face, sagte gegenüber TechCrunch, dies sei wirklich eine gute Nachricht für die amerikanische Open-Source-KI, aber die Herausforderung werde nun darin bestehen, die schnelle Austauschfähigkeit von Open-Source-KI-Modellen und -Datensätzen zu demonstrieren.
Verwendung der Mittel und Entwicklungsplanung
Die Mittel aus dieser Finanzierungsrunde werden hauptsächlich für den Erwerb der Rechenressourcen verwendet, die für das Training neuer Modelle erforderlich sind. Das Unternehmen plant, seine Recheninfrastruktur zu erweitern und die Entwicklung leistungsstarker Open-Source-KI-Modelle zu beschleunigen, um die Wettbewerbsfähigkeit der westlichen Innovation an der globalen Spitze zu erhalten.
Laut PitchBook-Daten hatte Reflection AI Anfang des Jahres 130 Millionen US-Dollar bei einer Bewertung von 545 Millionen US-Dollar erhalten, während diese Finanzierungsrunde die Bewertung innerhalb weniger Monate um fast das 15-fache steigerte. Der Zeitpunkt dieser Finanzierung fällt mit einem globalen Anstieg des Risikokapitals zusammen: Im dritten Quartal 2025 stieg das globale Risikokapital im Vergleich zum Vorjahr um 38 % auf 97 Milliarden US-Dollar, wobei fast die Hälfte dieser Mittel in KI-Startups floss.
Branchenauswirkungen
Der schnelle Aufstieg von Reflection AI spiegelt das wachsende Interesse am Open-Source-KI-Ökosystem wider. Anfang des Jahres erreichte DeepSeeks R1-Modell, das unter der MIT-Lizenz veröffentlicht wurde, eine mit GPT-4 vergleichbare Leistung und bewies, dass Hochleistungsmodelle keine Milliarden-Dollar-Infrastruktur mehr benötigen. Metas Llama-Modelle wurden über 800 Millionen Mal heruntergeladen und befürworten offene Zusammenarbeit als Weg zur Beschleunigung von Innovationen; in Europa hat Mistral AI mit einer Bewertung von fast 14 Milliarden US-Dollar seine Nische in regulierten Bereichen wie Finanzen und Verteidigung erschlossen.
Reflection AIs Ziel ist es, die Effizienz von DeepSeek, die Skalierbarkeit von Meta und die Präzision von Mistral zu kombinieren, indem es sich auf Effizienz, Transparenz und globale Zugänglichkeit konzentriert, um Systeme zu entwickeln, die sowohl leistungsstark genug für Unternehmen als auch offen genug sind, um Forschungskooperationen zu beschleunigen.