Fractile sammelt 220 Millionen Dollar für günstigere KI-Inferenz aus Großbritannien
16. Mai 2026
Das Londoner Hardware-Startup Fractile schloss am 13. Mai 2026 eine Series B über 220 Millionen Dollar bei rund 1 Milliarde Dollar Bewertung ab. Ziel ist eine neue Chip-Architektur für die teuerste Phase moderner KI: die Inferenz.
Worum es geht
Am 13. Mai 2026 hat das britische Halbleiter-Startup Fractile eine Series-B-Finanzierung über 220 Millionen Dollar bekannt gegeben. Die Runde wird laut offizieller Mitteilung von Accel, Factorial Funds und Founders Fund angeführt, mit Beteiligung von Conviction, Gigascale, O1A, Felicis, Buckley Ventures und 8VC. Die Post-Money-Bewertung liegt bei rund 1 Milliarde Dollar, was Fractile zum ersten Mal in den Unicorn-Status hebt.
Was Fractile tatsächlich macht
Fractile baut keine Trainingschips. Das Startup konzentriert sich auf Inferenz, also die Phase, in der ein bereits trainiertes Modell auf jede einzelne Anfrage antwortet. Mit der wachsenden Verbreitung agentischer Workloads, die zehn Millionen Tokens und mehr pro Aufgabe erzeugen können, wird Inferenz zum eigentlichen Kostentreiber moderner KI. Fractile verschiebt einen Teil der Rechenarbeit in den Speicher, statt ständig Gewichte zwischen DRAM und Recheneinheit zu pendeln. Das Unternehmen entwirft sowohl die Chip-Mikroarchitektur als auch den dazugehörigen Foundry-Prozess.
Warum Inferenz teurer wird als Training
Bei klassischen Chat-Anwendungen verbraucht jede Anfrage einige tausend Tokens. Reasoning- und Agent-Workflows können diese Zahl um den Faktor 100 erhöhen. DataCenterDynamics zitiert Fractile-Gründer Walter Goodwin damit, dass der Engpass nicht mehr das Modelltraining sei, sondern die Zeit und der Strompreis, bis nützliche Antworten beim Nutzer ankommen. Anthropic soll laut The Next Web bereits Interesse an Fractile-Silizium signalisiert haben.
Wie das Geld eingesetzt wird
Die Series B baut auf einer im Februar 2026 angekündigten 100-Millionen-Pfund-Investition (rund 135 Millionen Dollar) in britische Standorte auf. Fractile stellt aktuell in London, Bristol, San Francisco und Taipei ein. Taipei ist dabei das Signal an den Halbleiter-Standort: Fractile will eng mit Foundries in Asien arbeiten, statt nur Architekturpapiere zu schreiben.
Warum das wichtig ist
Europa hat im KI-Software-Stack wenig Eigenes. Im Hardware-Stack ist die Lage noch enger. Ein gut finanziertes britisches Inference-Startup mit US-Top-Investoren ist deshalb mehr als nur eine weitere Runde. Es zeigt, dass es einen Markt für spezialisierte Inferenz-Beschleuniger jenseits von NVIDIA und Hyperscaler-eigenen Chips wie Google TPU 8i gibt. Bloomberg und SiliconAngle ordnen Fractile in die gleiche Bewegung wie Groq, Cerebras und SambaNova ein, mit dem Unterschied, dass Fractile die enge Speicheranbindung als Hauptdifferenzierung wählt.
Einfach erklärt
Stell dir vor, du backst Brot in einer Großbäckerei. Bislang holst du den Teig aus einer großen Vorratskammer und läufst zum Ofen, jedes Mal hin und zurück. Fractile baut die Bäckerei so um, dass die Teigschüssel direkt am Ofen steht. Die Wege werden kürzer, das Brot kommt schneller raus und du brauchst weniger Energie. Bei KI-Modellen ist die Vorratskammer der DRAM-Speicher, der Ofen der Rechenkern und das Brot die Antwort des Modells.
Praktisches Beispiel
Ein deutscher Online-Händler betreibt einen KI-Berater im Webshop, der Produkte erklärt und Reklamationsfälle vorsortiert. Auf einer klassischen GPU-Cloud kostet jede Anfrage im Mittel rund 0,012 Euro. Mit einem inferenzoptimierten Beschleuniger wie dem geplanten Fractile-Chip könnte der gleiche Workload laut Hochrechnung des Unternehmens drei- bis fünfmal günstiger laufen. Bei 1 Million Anfragen pro Monat entspricht das einer Einsparung zwischen 5.000 und 8.000 Euro, ohne die Modellqualität anzutasten. Ob diese Hochrechnung in echten Produktionsbedingungen hält, wird sich erst zeigen, wenn die ersten Kunden außerhalb von Forschungslabors die Hardware testen.
Einordnung und Grenzen
- Kein Produkt am Markt. Fractile hat öffentlich noch keine Auslieferungsdaten genannt. Bis zur ersten Serienlieferung dauert es bei Halbleiter-Startups erfahrungsgemäß zwei bis drei Jahre.
- NVIDIA-Lock-in bleibt. Viele KI-Modelle und CUDA-Tools sind tief in den NVIDIA-Stack integriert. Selbst ein technisch starker Inferenz-Chip muss zuerst eine Software-Schicht liefern, die Migration einfach macht.
- Kapitalbedarf bleibt hoch. Fractile selbst sagt, dass ein eigener Foundry-Prozess Teil des Plans ist. 220 Millionen Dollar sind viel, aber für eigene Fertigungstechnik historisch wenig. Eine weitere Runde innerhalb von 18 Monaten ist wahrscheinlich.
SEO- und GEO-Schlüsselbegriffe
Fractile, AI Inference, Series B, Accel, Factorial Funds, Founders Fund, NVIDIA, Anthropic, UK AI, KI Hardware, Inference Chips, In-Memory Compute, Walter Goodwin, Mai 2026
💡 Im Klartext
Fractile aus London hat 220 Millionen Dollar bekommen, um KI-Chips zu bauen, die Antworten von Modellen schneller und billiger erzeugen. Das Geld kommt von Accel, Founders Fund und Factorial Funds. Die Bewertung liegt bei rund 1 Milliarde Dollar.
Wichtigste Erkenntnisse
- →Fractile schloss am 13. Mai 2026 eine Series B über 220 Millionen Dollar ab.
- →Die Bewertung liegt bei rund 1 Milliarde Dollar, der erste Unicorn-Status für das Startup.
- →Lead-Investoren sind Accel, Factorial Funds und Founders Fund.
- →Fractile baut keine Trainingschips, sondern fokussiert sich auf Inferenz-Hardware.
- →Die Chips sollen in den Speicher integrierte Rechenwerke nutzen und Token-Kosten senken.
- →Hiring läuft in London, Bristol, San Francisco und Taipei.
Häufige Fragen
Was unterscheidet Fractile von NVIDIA?
Fractile baut spezialisierte Inferenz-Hardware mit Rechenwerken im Speicher. NVIDIA verkauft Allzweck-GPUs für Training und Inferenz. Beide Ansätze schließen sich nicht aus, aber Fractile setzt auf einen engeren Anwendungsbereich.
Wann sind die Chips verfügbar?
Fractile hat öffentlich noch keinen Liefertermin genannt. Investoren signalisieren erste Kundentests in den nächsten Jahren, nicht in den nächsten Monaten.
Warum ist Inferenz wichtiger als Training?
Reasoning- und Agent-Workflows verbrauchen pro Aufgabe sehr viele Tokens. Inferenz wird damit zum täglichen Hauptkostenpunkt vieler KI-Anwendungen, während Training nur einmalig anfällt.
Quellen & Kontext
- Fractile raises $220M to build the next generation of inference hardware — Fractile
- UK AI chip startup Fractile raises $220M to tackle the growing inference bottleneck — Tech.eu
- AI Startup Fractile Raises $220 Million for Chip Production — Bloomberg
- British inference chip startup Fractile bags $220M — SiliconANGLE
- Fractile raises $220m to accelerate development of AI inference chips — DataCenterDynamics
- Fractile's $220m round arrives as Anthropic eyes its UK silicon — The Next Web