Mistral Small - Model terbaik di kelas beratnya. Dengan peningkatan kinerja teks, pemahaman multimodal, dan jendela konteks yang diperluas hingga 128 ribu token. Mengungguli model sebanding sambil memberikan kecepatan inferensi 150 token per detik.
Berjalan pada satu RTX 4090 atau Mac dengan RAM 32GB. Sempurna untuk aplikasi di perangkat.
Kecepatan inferensi 150 token per detik dengan kemampuan panggilan fungsi latensi rendah.
Fondasi yang sangat baik untuk membangun model khusus di bidang hukum, medis, dan teknis.
Mendukung analisis gambar, verifikasi dokumen, dan tugas inspeksi visual.
Model 24B parameter yang memberikan kinerja setara GPT-4 dengan waktu respons yang lebih cepat.
Data Anda tetap pribadi dengan infrastruktur aman dan kebijakan privasi kami yang ketat.
Integrasi mudah dengan dokumentasi API yang komprehensif dan contoh kode.
Tingkat gratis tersedia dengan harga bersaing untuk penggunaan perusahaan.