cyberivy
AIMistralMistral Medium 3.5LLMOpen WeightsCodingEuropaKI-Modelle2026

Mistral Medium 3.5: 128-Milliarden-Modell aus Frankreich kombiniert Chat, Reasoning und Coding

3. Mai 2026

Mistral hat am 2. Mai 2026 sein neues Flaggschiff Medium 3.5 vorgestellt: ein dichtes 128-Milliarden-Parameter-Modell mit 256k Kontextfenster und konfigurierbarem Reasoning unter modifizierter MIT-Lizenz.

Mistral Medium 3.5: Dichtes 128-Milliarden-Parameter-Modell mit 256k Kontextfenster

Das französische KI-Unternehmen Mistral hat am 2. Mai 2026 sein neues Flaggschiff Medium 3.5 veröffentlicht. Anders als viele Konkurrenten setzt Mistral nicht auf eine Mixture-of-Experts-Architektur, sondern auf ein dichtes Modell mit 128 Milliarden Parametern. Alle Parameter werden bei jedem Token aktiviert. Das Kontextfenster liegt bei 256.000 Tokens, das Modell ist multimodal und kann variable Bildgrößen verarbeiten.

Token-Preise und modifizierte MIT-Lizenz auf Hugging Face

Mistral verlangt 1,50 US-Dollar pro Million Eingabetokens und 7,50 US-Dollar pro Million Ausgabetokens. Das ist mehr als bei vielen Open-Weight-Konkurrenten, aber günstiger als die Spitzenmodelle von OpenAI und Anthropic. Die Gewichte stehen unter einer modifizierten MIT-Lizenz auf Hugging Face zum Download.

SWE-Bench Verified mit 77,6 Prozent: Benchmarks im Detail

Auf internen Benchmarks erreicht Medium 3.5 nach Angaben von Mistral 77,6 Prozent auf SWE-Bench Verified, einem Test für reale GitHub-Bug-Fixes, und 91,4 Prozent auf τ³-Telecom, einem Test für Werkzeugnutzung in der Telekommunikation. Damit liegt das Modell in der oberen Liga, ohne ganz an die Spitze von GPT-5.5 oder Claude heranzukommen.

Ein Modell ersetzt drei: Medium 3.1, Magistral und Devstral 2 abgelöst

Bemerkenswert ist die Bündelung: Medium 3.5 löst die drei bisherigen Linien Medium 3.1, Magistral und Devstral 2 ab. Entwickler können pro Anfrage entscheiden, wie viel Reasoning das Modell investiert. Das senkt die Kosten bei einfachen Aufgaben und steigert die Qualität bei komplexen.

Warum das wichtig ist

Für europäische Unternehmen ist die Veröffentlichung relevant, weil sie ein leistungsfähiges Open-Weight-Modell bietet, das auch on-premises laufen kann. Mit nur vier GPUs ist Medium 3.5 nach Mistrals Angaben einsatzfähig. Das senkt die Hürde für Eigenbetrieb deutlich, vor allem für regulierte Branchen wie Pharma, Banken und Versicherungen, in denen Daten den Konzern nicht verlassen dürfen. Mistral ist zudem der einzige ernsthafte Kandidat aus der EU im Bereich Spitzen-LLMs.

Praktisches Beispiel

Eine deutsche Krankenkasse möchte eingehende Schadenmeldungen automatisch klassifizieren und Rückfragen an Versicherte formulieren. Mit Medium 3.5 auf vier H100-GPUs im eigenen Rechenzentrum kann das Modell Patientendaten verarbeiten, ohne dass diese in eine US-Cloud fließen. Pro Monat fallen damit beim Eigenbetrieb hauptsächlich Strom- und Hardwarekosten an, statt API-Gebühren. Bei großem Volumen rechnet sich das schnell, zusätzlich entfällt ein Großteil der DSGVO- und EU-AI-Act-Diskussion über Datenexport.

💡 Im Klartext

Stell dir ein neues Wörter-Werkzeug aus Frankreich vor, das Texte schreibt, knifflige Aufgaben löst und Code repariert. Es ist groß genug, um klug zu sein, klein genug, um auf wenigen Computern zu laufen, und Firmen dürfen es selbst zu Hause aufstellen.

Wichtigste Erkenntnisse

  • Mistral Medium 3.5 ist seit 2. Mai 2026 verfügbar und hat 128 Milliarden Parameter.
  • Das Modell ist dicht, multimodal und hat ein Kontextfenster von 256k Tokens.
  • Preis: 1,50 USD je Million Eingabe- und 7,50 USD je Million Ausgabetokens.
  • SWE-Bench Verified: 77,6 Prozent.
  • Open-Weight unter modifizierter MIT-Lizenz, Eigenbetrieb auf vier GPUs möglich.

Quellen & Kontext