Mistral Small - El mejor modelo en su categoría de peso. Con un rendimiento de texto mejorado, comprensión multimodal y una ventana de contexto ampliada de hasta 128k tokens. Supera a modelos comparables al tiempo que ofrece velocidades de inferencia de 150 tokens por segundo.
Se ejecuta en una sola RTX 4090 o Mac con 32GB de RAM. Perfecto para aplicaciones en el dispositivo.
Velocidad de inferencia de 150 tokens por segundo con capacidades de llamada a función de baja latencia.
Excelente base para construir modelos especializados en dominios legal, médico y técnico.
Admite tareas de análisis de imágenes, verificación de documentos e inspección visual.
Modelo de 24B parámetros que ofrece un rendimiento de nivel GPT-4 con tiempos de respuesta más rápidos.
Tus datos permanecen privados con nuestra infraestructura segura y políticas de privacidad estrictas.
Fácil integración con documentación API completa y ejemplos de código.
Nivel gratuito disponible con precios competitivos para uso empresarial.