Mistral Small - O melhor modelo da sua categoria de peso. Com desempenho de texto aprimorado, compreensão multimodal e uma janela de contexto expandida de até 128 mil tokens. Supera modelos comparáveis, oferecendo velocidades de inferência de 150 tokens por segundo.
Executa em uma única RTX 4090 ou Mac com 32 GB de RAM. Perfeito para aplicações no dispositivo.
Velocidade de inferência de 150 tokens por segundo com capacidades de chamada de função de baixa latência.
Excelente base para construir modelos especializados em domínios jurídico, médico e técnico.
Suporta análise de imagens, verificação de documentos e tarefas de inspeção visual.
Modelo de 24 bilhões de parâmetros oferecendo desempenho de nível GPT-4 com tempos de resposta mais rápidos.
Seus dados permanecem privados com nossa infraestrutura segura e políticas de privacidade rigorosas.
Fácil integração com documentação abrangente da API e exemplos de código.
Nível gratuito disponível com preços competitivos para uso empresarial.