Mistral Small - Das beste Modell seiner Gewichtsklasse. Mit verbesserter Textleistung, multimodalem Verständnis und einem erweiterten Kontextfenster von bis zu 128k Token. Übertrifft vergleichbare Modelle und liefert gleichzeitig Inferenzgeschwindigkeiten von 150 Token pro Sekunde.
Läuft auf einer einzelnen RTX 4090 oder einem Mac mit 32 GB RAM. Perfekt für On-Device-Anwendungen.
Inferenzgeschwindigkeit von 150 Token pro Sekunde mit Low-Latency-Funktionsaufruffähigkeiten.
Ausgezeichnete Grundlage für die Entwicklung spezialisierter Modelle in den Bereichen Recht, Medizin und Technik.
Unterstützt Bildanalyse, Dokumentenprüfung und visuelle Inspektionsaufgaben.
24B-Parameter-Modell, das GPT-4-Leistung mit schnelleren Reaktionszeiten liefert.
Ihre Daten bleiben mit unserer sicheren Infrastruktur und strengen Datenschutzrichtlinien privat.
Einfache Integration mit umfassender API-Dokumentation und Codebeispielen.
Kostenlose Stufe verfügbar mit wettbewerbsfähigen Preisen für den Unternehmenseinsatz.