| GPT-4.1 |
OpenAI |
Lukket |
Generell resonnering og koding |
Premiumkostnad |
API-tilgang
|
| GPT-4o |
OpenAI |
Lukket multimodal |
Rask assistentopplevelse og multimodale oppgaver |
Kostnad ved høy skala |
API-tilgang
|
| GPT-4o mini |
OpenAI |
Lukket liten |
Kostnadssensitiv høyvolum-automatisering |
Lavere tak på krevende resonnering |
API-tilgang
|
| o1 |
OpenAI |
Resonnering-først |
Kompleks flertrinnslogikk |
Latenstid og kostnad per krevende forespørsel |
API-tilgang
|
| o3-mini |
OpenAI |
Resonnering-effektiv |
Teknisk spørsmål/svar og kodearbeidsflyter |
Kan kreve prompt-justering |
API-tilgang
|
| Claude 3.7 Sonnet |
Anthropic |
Lukket |
Skriving og analyse med lang kontekst |
Konservativ tone i noen flyter |
API-tilgang
|
| Claude 3.5 Sonnet |
Anthropic |
Lukket |
Balansert kvalitet og stabilitet |
Kostnad ved svært store trafikk-topper |
API-tilgang
|
| Claude 3.5 Haiku |
Anthropic |
Lukket liten |
Raske svar og triagering |
Mindre robust på de mest krevende oppgavene |
API-tilgang
|
| Claude 3 Opus |
Anthropic |
Lukket flaggskip |
Syntese i høy-risiko scenarioer |
Gjennomstrømmingsøkonomi |
API-tilgang
|
| Gemini 2.0 Pro |
Google |
Lukket |
Resonnering og multimodale bedriftsapper |
Oppgavevariasjon på tvers av prompt-stiler |
API-tilgang
|
| Gemini 2.0 Flash |
Google |
Lukket rask |
Lav-latens assistent-endepunkter |
Lavere kvalitet enn premiumnivå |
API-tilgang
|
| Gemini 1.5 Pro |
Google |
Lukket lang-kontekst |
Arbeidsflyter med svært lange dokumenter |
Pris/ytelse avhenger av belastning |
API-tilgang
|
| Gemini 1.5 Flash |
Google |
Lukket rask |
Effektiv oppsummering og ekstraksjon |
Resonneringsdybde kan være begrenset |
API-tilgang
|
| Llama 3.1 405B Instruct |
Meta |
Åpen vekt |
Toppnivå kvalitet i åpen utrulling |
Krever tung infrastruktur |
Download
·
70B
·
8B
|
| Llama 3.1 70B Instruct |
Meta |
Åpen vekt |
Sterk balanse mellom kvalitet og kost ved egenhosting |
Krever god inferensstack |
Download
·
405B
·
8B
|
| Llama 3.1 8B Instruct |
Meta |
Åpen vekt liten |
Edge- og lavkost-utrullinger |
Lavere ytelse på komplekse oppgaver |
Download
·
70B
·
405B
|
| Llama 3.2 11B Vision |
Meta |
Åpen multimodal |
Private syn-tekst-pipelines |
Krever evalueringer for OCR-tunge tilfeller |
Download
·
90B
|
| Llama 3.2 90B Vision |
Meta |
Åpen multimodal |
Høykapasitets multimodal inferens |
Infrastrukturkompleksitet |
Download
·
11B
|
| Mistral Large |
Mistral AI |
Lukket |
Høykvalitets bedriftsassistenter |
Mindre økosystem enn hyperskalere |
API-tilgang
|
| Mistral Medium |
Mistral AI |
Lukket |
Balansert produksjonsbruk |
Benchmark nøye mot alternativer |
API-tilgang
|
| Mistral Small |
Mistral AI |
Lukket liten |
Rask og kostnadseffektiv chat |
Begrenset dybde i avansert resonnering |
API-tilgang
|
| Mixtral 8x22B |
Mistral AI |
Åpen MoE |
Sterk genereringskvalitet med åpne vekter |
Operasjonell kompleksitet |
Download
·
8x7B
|
| Mixtral 8x7B |
Mistral AI |
Åpen MoE |
Effektiv egenhosting |
Kan ligge bak de nyeste lukkede modellene |
Download
·
8x22B
|
| Codestral |
Mistral AI |
Kode-spesialisert |
Kodegenerering og fullføring |
Smalere generell språkstyrke |
Download
|
| Gemma 4 27B |
Google |
Åpen vekt |
Høykvalitets åpen modell med svær ytelse |
Krever god inferensinfrastruktur |
Download
·
9B
|
| Gemma 4 9B |
Google |
Åpen vekt liten |
Effektiv åpen modell for edge og offline |
Lavere resonneringsdybde |
Download
·
27B
|
| Gemma 2 27B |
Google |
Åpen vekt |
Solid ytelse for åpen utrulling |
Eldre enn Gemma 4 |
Download
·
9B
·
2B
|
| Gemma 2 9B |
Google |
Åpen vekt liten |
Testet og stabil for egenhosting |
Apache 2.0 lisensert - viktig for åpen bruk |
Download
·
27B
|
| Qwen2.5 72B Instruct |
Alibaba |
Åpen vekt |
Resonnering og flerspråklige oppgaver |
Etterlevelsessjekker for enkelte regioner |
Download
·
32B
·
14B
·
7B
|
| Qwen2.5 32B Instruct |
Alibaba |
Åpen vekt |
Sterk kvalitet med lavere infrastrukturkost |
Prompt-justering er ofte nødvendig |
Download
·
72B
·
14B
·
7B
|
| Qwen2.5 14B Instruct |
Alibaba |
Åpen vekt |
Balansert privat utrulling |
Less robust on hardest tasks |
Download
·
72B
·
32B
·
7B
|
| Qwen2.5 7B Instruct |
Alibaba |
Åpen vekt liten |
Høy gjennomstrømming med lav kost i inferens |
Lavere resonneringsdybde |
Download
·
14B
·
32B
·
72B
|
| Qwen3.6-35B-A3B |
Alibaba |
Åpen vekt MoE multimodal |
MoE (35B totalt, 3B aktive); hybrid tenk-modus; 262K tokens
native kontekst (opptil ~1M med YaRN); multimodal (tekst,
bilde, video); agentisk koding på repo-nivå. AIME 2026:
92,7 — SWE-bench: 73,4
|
Etterlevelsesvurdering kreves; tenk-modus øker latens for
enkle oppgaver
|
Download
·
FP8
|
| QwQ-32B |
Alibaba |
Åpen resonnering |
Privat bruk med resonneringsfokus |
Evalueringer kreves for stabilitet |
Download
|
| DeepSeek V3 |
DeepSeek |
Åpen/tilgjengelig |
God verdi for generell resonnering og koding |
Styringsgjennomgang i bedrift |
Download
|
| DeepSeek R1 |
DeepSeek |
Resonneringsfokusert |
Krevende flertrinns resonneringsoppgaver |
Latenstid på komplekse svar |
Download
|
| DeepSeek Coder V2 |
DeepSeek |
Kode-spesialisert |
Utviklerassistenter og kodegjennomgang |
Generell skriving er mindre sterk |
Download
|
| Command R+ |
Cohere |
Lukket bedrift |
RAG og bruk av bedriftskunnskap |
Sammenlign mot ledende generelle modeller |
API-tilgang
|
| Command R |
Cohere |
Lukket |
Raske svar forankret i gjenfinning |
Ikke alltid best for dyp koding |
API-tilgang
|
| DBRX Instruct |
Databricks |
Åpen vekt |
Arbeidslaster integrert med dataplattform |
Krever moden plattform |
Download
|
| Phi-3 Medium |
Microsoft |
Liten modell |
Kompakte utrullinger og edge-bruk |
Begrenset på svært komplekse oppgaver |
Download
·
Mini
|
| Phi-3 Mini |
Microsoft |
Liten modell |
Inference på enhet og i begrensede miljøer |
Lavere nøyaktighetstak |
Download
·
Medium
|
| Yi-34B Chat |
01.AI |
Åpen vekt |
Flerspråklig eksperimentering |
Krever grundig evaluering før produksjon |
Download
|