I denne uge
Velkommen til denne uges udgave af Synapsen. Der er fart pĂĽ udviklingen, bĂĽde fra nye modeller til spĂŚndende funktioner i ChatGPT. Her er, hvad du kan lĂŚse om i dag:
Google har udgivet Gemini Pro 2.5, og den topper benchmarks
DeepSeek V3 er opdateret og forbedret pĂĽ flere punkter
ChatGPT har opgraderet deres billede muligheder
OpenAI vil nu understøtte MCP standarden
Google Gemini Pro 2.5 Experimental
Vi starter med Google. De har frigivet Gemini Pro 2.5 Experimental i deres AI Studio, og den ser ud til at føre benchmarks pü mange punkter. Modellen sprang pü førstepladsen pü lmarena, og ligger nr. 1 i alle kategorierne. Den opnür ogsü en top score pü 18,8% pü Humanity's Last Exam (som er en benchmark pü ekspert-niveau).
Den har et kontekstvindue pĂĽ 1 million tokens (det vil sige, hvor meget tekst modellen kan holde styr pĂĽ ad gangen), og Google lover at det snart bliver 2 millioner. Indtil videre er den gratis at bruge. SĂĽ bliver det spĂŚndende at se, om OpenAI snart har et modsvar klar.

DeepSeek V3
DeepSeek har heller ikke ligget pü den lade side. Snart er DeepSeek R2 pü vej (inden maj), men de har for nyligt i stilhed opdateret DeepSeek V3, sü den nu klarer blandt andet kodning endnu bedre end tidligere. Og sü er den jo open source med MIT licens. DeepSeek skriver selv, at det er en forbedring indenfor rÌsonneringsevner og frontend-udvikling, samt at den har füet smartere vÌrktøjsbrugsevner.
Kontekstvinduet er 128k, og prisen er 0,27 USD pr. million tokens (input) og 1,1 USD pr. million tokens (output). Til sammenligning koster GPT-4o hhv. 2,5 USD (input) og 10 USD (output).

ChatGPT opdatering
OpenAIâs ChatGPT har fĂĽet en overhaling pĂĽ billedesiden. Nu kan GPT-4o selv generere billeder og behøver derfor ikke bruge DALL-E, som ellers har vĂŚret standard. Det fungerer meget bedre end tidligere, isĂŚr hvad angĂĽr tekst i billedet, som det kan ses i eksemplet.
Indtil videre er det kun tilgÌngeligt for betalende brugere hos OpenAI. Som alternativ kan Gemini Flash 2.0 Experimental benyttes gratis i AI Studio, og ellers kan man prøve den nye Reve Image 1.0.

OpenAIâs GPT-4o eksempel
OpenAI vil nu understøtte MCP standarden
Sam Altman fra OpenAI siger pü X, at de vil understøtte MCP standarden (som Anthropic udviklede og som blandt andet bruges i Claude). I første omgang er det gennem deres Agents SDK, men senere kommer det ogsü til deres desktop app og via API.
MCP stĂĽr for Model Context Protocol, og er en universel protokol for tovejskommunikation mellem AI-systemer og eksterne vĂŚrktøjer som f.eks. databaser, filsystemer mv. Kort sagt betyder det at en AI model kan tale sammen med (og gøre brug af) forskellige apps og vĂŚrktøjer. F.eks. vil en AI kunne se fejl direkte i din browserâs konsol, og dermed gøre det nemmere at rette fejl automatisk.