Anthropics treghet i kundeservice har dukket opp igjen da en bruker endelig fikk svar etter mer enn en måned med stillhet om en omstridt belastning. Klageren, som hadde blitt lovet en oppfølging av en faktureringsfeil knyttet til et nylig Claude‑abonnement, hørte først fra selskapet tidlig i 2025 da de ba om bankopplysninger for å behandle en refusjon. Forsinkelsen, som brukeren beskriver som «å bli ignorert i flere måneder», understreker økende frustrasjon blant utviklere og bedrifter som er avhengige av Anthropics API for alt fra semantisk søk (se vår artikkel 8. april om ChromaDB + Ollama) til interne verktøy.
Hendelsen er viktig fordi den skjer i en turbulent periode for AI‑oppstarten. Anthropic har nylig blitt rammet av et høyt profilert brudd på sin kontrakt med Department of Defense, en omfattende revurdering av sin Responsible Scaling‑rammeverk, og offentlig gransking av sikkerhetsimplikasjonene ved sin Claude Mythos‑modell. Gjentatte svikt i servicenivået risikerer å svekke tilliten til et selskap som posisjonerer seg som et sikkerhets‑først alternativ til andre frontier‑AI‑leverandører. For virksomheter som har integrert Claude i produksjons‑pipelines, kan forsinkede refusjoner eller lite respons fra support oversettes til operasjonell risiko og budsjettoverskridelser.
Det neste å holde øye med er om Anthropic vil komme med en formell unnskyldning eller justere sin support‑SLA for å håndtere kritikken. Analytikere forventer at den oppdaterte Responsible Scaling‑politikken, kunngjort denne uken, vil inneholde tydeligere forpliktelser til kundes
Et nytt åpen‑kilde‑prosjekt som ble lagt ut på GitHub i dag, introduserer en lettvekt Message Control Protocol (MCP)‑server som gjør det mulig for Anthropics Claude Code å samhandle direkte med Mastodon. Serveren, kalt «mastodon‑mcp», er skrevet i Python og bygger på Mastodon.py‑biblioteket, og den eksponerer en enkel stdio‑basert transport som Claude Code kan kalle for å opprette, redigere eller slette tooter, laste opp media med alt‑tekst, samt hente tidslinjer, varsler og søkeresultater. Autentisering håndteres via miljøvariabler, noe som holder legitimasjon utenfor koden og forenkler utrulling på personlige servere eller i CI‑pipelines.
Lanseringen er viktig fordi den utvider Claude Codes rekkevidde fra tradisjonelle utviklingsmiljøer til sosiale medier. Tidligere denne uken rapporterte vi om Claude Code‑utvidelser for stack‑baserte arbeidsflyter og håndtering av flere repositorier; denne MCP‑broen er den første som gir AI‑assistenten innebygd kontroll over en federert mikro‑bloggplattform. Utviklere kan nå skripte innholdsgenerering, automatisere fellesskapsstyring eller prototype AI‑drevne roboter uten å måtte skrive skreddersydde API‑innpakninger. Siden serveren er bevisst minimal – ingen grafisk brukerflate, ingen tunge avhengigheter – kan den kjøres på beskjeden maskinvare, noe som samsvarer med den nordiske teknologisamfunns vekt på effektive, personvern‑respekterende verktøy.
Det som nå er verdt å følge med på, er hvor raskt fellesskapet tar i bruk verktøyet og om Anthropic vil integrere lignende MCP‑endepunkter for andre tjenester. Potensielle bekymringer inkluderer misbruk til spam eller koordinert desinformasjon, noe som gjør behovet for hastighetsbegrensning og moderasjonsmekanismer tydelig. Repoet inneholder allerede en veikart som omfatter håndtering av OAuth‑token‑fornyelse og støtte for Mastodons nyere API‑utvidelser. Hvis prosjektet får fart, kan vi se en bølge av AI‑forsterkede sosiale‑medie‑verktøy som visker ut skillet mellom kodeassistent og innholdsskaper – en trend som er verdt å holde øye med etter hvert som både AI og desentraliserte plattformer modnes.
En koalisjon av forbruker‑rettighetsgrupper i Sverige, Norge og Danmark har lansert en offentlig kampanje med tittelen «Din AI er ikke verdt mitt personvern», og oppfordrer brukere til å slutte å mate generativ‑AI‑tjenester med personlige data. Initiativet, som ble kunngjort på tirsdag, viser til en ny intern revisjon av populære chatbot‑plattformer som avdekket at prompt‑historikk, enhetsidentifikatorer og til og med avledede sentiment‑score‑er rutinemessig logges og deles med tredjepartsannonsører. I henhold til EUs personvernforordning (GDPR) og den kommende AI‑loven, kan slike praksiser utgjøre ulovlig behandling med mindre brukerne gir eksplisitt, informert samtykke.
Kampanjens arrangører har sendt inn en petisjon til Europakommisjonen som krever strengere håndheving av regler om dataminimering og obligatoriske opt‑out‑mekanismer for alle AI‑drevne produkter som selges på det nordiske markedet. De etterlyser også en «personvern‑by‑design»-sertifisering som skal gjøre det mulig for brukere å verifisere om en tjeneste lagrer eller sletter deres innspill. Tiltaket følger en bølge av bekymring vi rapporterte 8. april, da en seniorredaktør innrømmet at «jeg nå er bekymret for AI» etter et personlig eksperiment med ChatGPT som avdekket uventet datalagring. Det gjenspeiler også bekymringer fra nyere analyser som viser at opptil 40 % av europeiske AI‑oppstartsbedrifter kan overdrive bruken av ekte maskinlæringsmodeller, og dermed gjør grensen mellom ekte AI og enkle skriptbaserte verktøy uklar.
Hvorfor dette er viktig er todelt: For det første har den nordiske regionen lenge vært forkjemper for sterke personvernstandarder, og et tillitsbrudd kan bremse adopsjonen av AI innen helse, finans og offentlige tjenester. For det andre truer motstanden de datadrevne forretningsmodellene som ligger til grunn for mange AI‑oppstarter, og kan omforme investeringsstrømmer mot personvern‑bevarende arkitekturer som inferens på enheten og federert læring.
Hold øye med Europakommisjonens svar, som forventes i løpet av de kommende ukene, samt eventuelle endringer i AI‑loven som kan pålegge strengere revisjonskrav. Teknologiselskaper ruller allerede ut «no‑log»-moduser og transparente dashbord for databruk, men om disse tiltakene vil tilfredsstille regulatorer og skeptiske brukere gjenstår å se.
En utvikler har lansert et åpen‑kilde‑kommandolinjeverktøy som «X‑stråler» AI‑assistert koding, og gir hver prompt en poengsum på under fem millisekunder uten å bruke en stor språkmodell. Verktøyet, kalt **rtk**, avlytter teksten du skriver inn i enhver støttet AI‑kodingsagent — Claude Code, Cursor, Gemini CLI, Aider, Codex, Windsurf, Cline og flere — komprimerer utsagnet før det når modellens kontekstvindu og tildeler en numerisk kvalitetspoeng. I løpet av ti uker logget forfatteren 3 140 prompts og rapporterte en gjennomsnittlig poengsum på 38, et mål som skaperen hevder korrelerer med etterfølgende suksessrater som færre kompileringsfeil og redusert token‑forbruk.
Hvorfor dette er viktig, er tosidig. For det første har prompt‑engineering blitt en skjult flaskehals i utvikleres arbeidsflyter som nå er sterkt avhengige av generativ AI. Tilbakemelding i sanntid lar programmerere finjustere spørringene sine før modellen behandler dem, noe som kutter bortkastede sykluser og sky‑kostnader. For det andre, siden rtk kjører helt lokalt, omgår det personvernutfordringene som har plaget kommersielle AI‑tjenester — et tema vi utforsket i vår artikkel 9. april om avveiningen mellom bekvemmelighet og datalekkasjer. Ved å krympe prompten før den når modellen, utvider rtk også det effektive kontekstvinduet, slik at lengre og mer sammenhengende kodingsøkter blir mulig uten de token‑budsjettstraffene som vanligvis tvinger utviklere til å forkorte historikken.
Utgivelsen bygger på en rekke fellesskapsdrevne verktøy som behandler AI‑forsterket utvikling som en første‑klasses artefakt. Tidligere denne måneden dekket vi en «tidsmaskin»-CLI som tar øyeblikksbilder av økter for senere gjennomgang, samt en tmux‑basert IDE som bevarer terminaltilstanden på tvers av omstarter. rtk‑s poenggivningsmotor legger til et kvantitativt lag til disse retrospektivene, og gjør anekdotiske notater om til handlingsbare måledata.
Hva du bør holde øye med videre: GitHub‑repoet for prosjektet lister allerede opp integrasjons‑hooks for nye agenter, og forfatteren antyder et dashbord som visualiserer poengtrendene over tid. Hvis fellesskapet tar i bruk rtk i stor skala, kan vi få en ny målestokk for prompt‑kvalitet, og kanskje vil kommersielle IDE‑er integrere lignende analyser for å markedsføre «smartere» AI‑kodingsopplevelser. Følg med på repo‑ens issues‑tracker for utvidelser som knytter poeng til automatisert refaktorering eller CI‑pipelines.
Claude Mythos, Anthropics AI‑drevne kodegjennomgangssystem, har avdekket en 27 år gammel sårbarhet i operativsystemet OpenBSD. Feilen, som ligger dypt nede i et nettverks‑undersystem, overlevde mer enn to tiår med manuelle kodegjennomganger, sikkerhetsrevisjoner og automatiserte skanninger før AI‑en flagget den som et potensielt utnyttelsesobjekt. OpenBSD‑vedlikeholdere bekreftet problemet torsdag og forbereder en oppdatering som vil bli rullet ut i neste utgivelsessyklus.
Oppdagelsen understreker den økende kraften til generativ‑AI‑verktøy innen programvaresikkerhet. Som vi rapporterte 8. april, hadde Claude Mythos allerede overgått tradisjonelle sikkerhetsteam ved å avdekke tusenvis av zero‑day‑feil i løpet av noen få uker. Den siste suksessen viser at modellen kan lokalisere defekter som har unnsluppet selv de mest grundige menneskelige prosessene, og hever standarden for hva som kan forventes av automatisert kodeanalyse.
For OpenBSD, et prosjekt som er høyt verdsatt for sin vekt på korrekthet og minimal angrepsflate, er feilen en påminnelse om at selv de mest disiplinerte kodebasene ikke er immune mot skjulte mangler. Oppdateringen vil sannsynligvis lukke en fjern‑eksekveringsvektor som kunne ha blitt utnyttet i eldre systemer som fortsatt kjører eldre OpenBSD‑versjoner. På et bredere plan gir hendelsen næring til debatten om hvor mye tillit man skal ha til AI‑genererte funn, og om slike verktøy bør bli en standarddel av programvareutviklingslivssyklusen.
Fremover planlegger Anthropic å utvide Mythos sin integrasjon med åpne kildekode‑repoer og tilby en kommersiell “preview‑tjeneste” for bedriftskodebaser. Sikkerhetsforskere vil følge med på hvor raskt OpenBSD‑fellesskapet kan utbedre sårbarheten, og om andre langvarige prosjekter – som Linux‑kjernen eller FFmpeg, som også ble flagget av Mythos – vil få lignende AI‑drevne revisjoner. De neste månedene kan bringe en bølge av AI‑assistert avdekking av sårbarheter, og omforme balansen mellom menneskelig ekspertise og maskinell kodegjennomgang.
Et nytt veiledningsdokument som ble publisert denne uken viser utviklere hvordan de kan sette sammen Monocle, Okahus MCP‑telemetri‑plattform og den åpne OpenCode‑agentsuiten for å lage AI‑drevne kodeassistenter som kan feilsøke seg selv. Guiden fører leserne gjennom oppsett av et sandkasse‑miljø, oppstart av en OpenCode‑primæragent, instrumentering av agentens handlinger med Monocle‑spor, og innlasting av den resulterende telemetrien i Okahu MCP. Når koden som agenten genererer kaster et unntak, fanger systemet opp hele feilstakken, kontekst‑sensitiv tilstand og nylige filendringer, og utløser deretter en «heal»-rutine som omskriver den problematiske kodesnutten og prøver oppgaven på nytt – med opptil to automatiske forsøk per feil.
Gjennombruddet er viktig fordi de fleste AI‑kodeassistenter i dag fortsatt er avhengige av menneskelige ingeniører for å tolke logger og reparere ødelagt kode. Ved å bygge inn observabilitet og tilbakemeldingssløyfer direkte i agentens kjøretid, tar arbeidsflyten et skritt nærmere fullt autonome programvareutviklings‑pipelines. Redusert manuell feilsøking kan fremskynde prototyping, senke driftskostnader og forbedre påliteligheten i kontinuerlige integrasjons‑miljøer som allerede benytter AI for kodegenerering. Videre demonstrerer tilnærmingen en praktisk implementering av «selv‑helbredende» mønsteret som har blitt diskutert i forskningskretser, men sjelden vist i en ende‑til‑ende‑løsning.
Veiledningen bygger på vår tidligere dekning av Okahus lettvektige MCP‑server for Mastodon, publisert 9. april, som introduserte telemetrisk stack som nå er omgjort for overvåkning av AI‑agenter. Blicket fremover vil fellesskapet følge med på bredere adopsjon av Monocle‑MCP‑OpenCode‑stabelen i produksjonsprosjekter, integrasjon med Claudes API‑baserte supervisor‑mønstre, og fremveksten av standarder for sikker selv‑reparasjon i autonome agenter. Oppfølgingsutgivelser fra OpenCode‑vedlikeholderne og oppdateringer av Monocles sporingsfunksjoner vil indikere hvor raskt den selv‑helbredende modellen kan skaleres utover eksperimentelle demonstrasjoner.
AI‑generert kode flommer inn i åpne kildekode‑repoer, og vedlikeholdere vender stadig mer bort blikket. Utløseren er en nylig avgjørelse fra USAs Copyright Office som behandler utdata fra store språkmodeller som ikke‑opphavsrettslig beskyttet, og dermed åpner slusene for utviklere til å kopiere‑og‑lime AI‑produserte utdrag uten juridisk risiko. Som følge av dette ser prosjekter fra lavnivå‑biblioteker til web‑rammeverk en økning i pull‑requests som i stor grad består av standardkode satt sammen av chat‑baserte assistenter.
Flommen omformer allerede økosystemet. Daniel Stenberg, som leder cURL, avsluttet prosjektets seks år lange bug‑bounty‑program i januar, med henvisning til en uholdbar strøm av lavkvalitetsinnsendelser. Mitchell Hashimoto, grunnlegger av Ghostty, kunngjorde et forbud mot AI‑genererte bidrag etter en bølge av feilaktige oppdateringer som truet utgivelsesplanene. På tvers av GitHub rapporterer vedlikeholdere at de bruker opptil 30 minutter per pull‑request bare for å verifisere at en kodebit ikke er et feil‑generert artefakt, en oppgave som multipliseres over tusenvis av daglige innsendelser. Nettoeffekten er utbrenthet, langsommere innovasjon og en økende oppfatning av at menneskelige bidragsytere blir usynlige mellommenn i en prosess dominert av AI‑agenter.
Hvorfor dette er viktig går utover utvikler‑tretthet. Åpen kildekode er grunnlaget for mesteparten av moderne programvare, fra sky‑infrastruktur til mobilapper. Hvis vedlikeholdere trekker seg tilbake, kan sikkerhetsoppdateringer, ytelsesforbedringer og fellesskapsdrevne funksjoner som holder stakken sunn, sette bremsen på, og tvinge virksomheter til å stole på ugj
AutoBe, den åpne kildekode‑AI‑koding‑agenten, har nådd en milepæl med den siste kjøringen av Alibabas Qwen 3.5‑27B. I en kontrollert test ga teamet modellen fire ulike backend‑spesifikasjoner – alt fra et enkelt e‑handels‑API til en multi‑tenant SaaS‑tjeneste – og så på mens den produserte alt fra kravanalyse og databaseskjema til NestJS‑implementasjon, ende‑til‑ende‑tester og Docker‑filer. Alle fire prosjektene kompilerte på første forsøk, og den totale inferenskostnaden var omtrent 25 ganger lavere enn samme arbeidsbelastning kjørt på kommersielle modeller som GPT‑4.1.
Gjennombruddet skyldes Qwen 3.5‑27B‑s 27 milliarder parametere og evnen til å kjøre lokalt med vllm‑s tensor‑parallel‑tjeneste. Ved å holde modellen on‑premise eliminerer AutoBe per‑token‑avgiftene som har gjort storskala kodegenerering uoverkommelig dyrt for mange utviklere. Den 100 % kompilasjonsraten løser også et lenge eksisterende smertepunkt: tidligere AI‑genererte back‑ends krevde ofte manuelle justeringer for å rette syntaks‑ eller avhengighetsfeil, noe som undergravde tidsbesparelsesløftet fra AI‑koding‑assistenter.
Implikasjonene strekker seg utover hobbyprosjekter. Hvis lokale LLM‑er pålitelig kan levere produksjonsklare back‑ends, kan oppstartsbedrifter og mellomstore selskaper prototype og levere funksjoner uten de løpende sky‑kostnadene som i dag driver AI‑tjenestemarkedet. Det skyver også industrien mot et mer åpent økosystem der fellesskaps‑vedlikeholdte modeller konkurrerer direkte med proprietære tilbud.
Det neste å holde øye med er om AutoBe kan opprettholde suksessen på større, mer komplekse systemer og integrere pipelinen i CI/CD‑arbeidsflyter. Prosjektets veikart nevner støtte for den kommende Qwen 3‑next‑80B og tettere kobling til populære dev‑ops‑verktøy. Samtidig vil skyleverandører sannsynligvis svare med prisjusteringer eller nye utvikler‑fokuserte lag, noe som gjør de kommende månedene til en litmus‑test for den kommersielle levedyktigheten til lokalt hostede, full‑stack AI‑kodegeneratorer.
Et nytt teknisk veiledningsdokument med tittelen «Forstå Transformers del 3: Hvordan Transformers Kombinerer Betydning og Posisjon» ble publisert i dag, og utvider serien som har gått i dybden på de indre mekanismene i moderne store språkmodeller. Artikkelen fortsetter der forrige del slapp, og beskriver hvordan sinusoidale posisjonskodinger slås sammen med token‑innbygginger for å gi en transformer en forståelse av ordrekkefølge. Ved matematisk å sammenveve de to vektorene kan modellen skille «katten jaget musen» fra «musen jaget katten», selv om det leksikalske innholdet er identisk.
Stykket kommer i kjølvannet av vår rapport fra 8. april, «Hvordan Transformer‑modeller Virkelig Fungerer», som introduserte oppmerksomhetsmekanismen og den grunnleggende arkitekturen. Denne tredje delen fyller et kritisk gap ved å forklare hvorfor posisjonsinformasjon er uunnværlig for oppgaver som krever sekvens‑transduksjon – maskinoversettelse, tale‑til‑tekst og kodegenerering, blant annet. Uten den ville selv‑oppmerksomhetslagene behandle innganger som en uordnet pose med ord, og fjerne de syntaktiske ledetrådene som driver frem sammenhengende output.
Bransjeobservatører ser på veiledningen som et tidsriktig verktøy for utviklere som haster med å finjustere grunnmodeller for nisjeapplikasjoner i Norden, hvor flerspråklig støtte og domene‑spesifikke vokabularer er etterspurt. Den klare fremstillingen av sinus‑cosinus‑koding demystifiserer også nyere forskning som erstatter statiske kodinger med lærte eller roterende innbygginger, en trend som kan omforme modellens effektivitet og ytelse.
Fremover lover serien en fjerde del som fokuserer på hvordan oppmerksomhetshoder samler de kombinerte innbyggingene for å fange langsiktige avhengigheter. Leserne bør også holde øye med kommende benchmark‑tester som sammenligner klassiske posisjonskodinger med nyere alternativer, ettersom disse resultatene sannsynligvis vil påvirke neste bølge av transformer‑baserte produkter som dukker opp i regionen.
Anthropic lanserte Claude Managed Agents på sin Claude‑plattform, og tilbyr en ferdig‑bygd “harness” samt fullstendig administrert infrastruktur for autonome AI‑agenter. Tjenesten lar utviklere beskrive en agent i naturlig språk eller i en kort YAML‑fil, sette opp sikkerhetsrammer og starte langvarige eller asynkrone oppgaver uten å måtte provisionere servere, containere eller egen orkestrering. Ifølge API‑dokumentasjonen som ble publisert for to timer siden, kjører den forhåndsbygde “harnessen” på Anthropics egen sky, håndterer skalering, overvåking og feiltoleranse, samtidig som den eksponerer de samme Claude‑modell‑endepunktene utviklerne allerede bruker.
Lanseringen tar tak i den mest smertefulle delen av agent‑engineering – driftsoperasjoner. Mens Anthropic lenge har levert kraftige språkmodeller, måtte brukerne tidligere sette sammen Claude Code, Cowork eller tredjepartsverktøy som Monocle, Okahu MCP og OpenCode for å holde agentene i live og selv‑helbredende. Som vi rapporterte 9. april, ga disse komponentene prototypisk robusthet, men krevde betydelig DevOps‑innsats. Claude Managed Agents abstrakterer dette laget, og gjør en agentdefinisjon om til en produksjonsklar tjeneste med kun ett API‑kall.
Bransjeobservatører ser på trekket som et signal om at AI‑første plattformer modnes fra å være modellleverandører til å bli full‑stack‑kjøre‑miljøer. Ved å senke terskelen for å distribuere autonome arbeidsflyter – for eksempel automatisert saks‑triage, orkestrering av datapipelines eller personlig innholdsgenerering – posisjonerer Anthropic seg mot konkurrenter som OpenAIs Functions og Googles Gemini Agents, som fortsatt forutsetter at kundene hoster kjøretidsmiljøene.
Hva vi bør holde øye med: Anthropic har antydet kommende analyse‑dashboards og mer detaljert fakturering per agent‑bruk, noe som kan forme kostnadsoptimaliseringsstrategier for bedrifter. Integrasjon med eksisterende Claude Code‑repoer og den nylig kunngjorte under‑agent‑hierarkien tyder på en veikart mot hierarkiske, sammensatte agenter. Fellesskapet vil teste tjenestens pålitelighet i stor skala, og tidlige adopters ytelsesdata vil sannsynligvis påvirke om administrerte agent‑plattformer blir standard distribusjonsmodell for AI‑drevet automatisering.
OpenAI‑administrerende direktør Sam Altman har blitt gjenstand for en ny intern kritikk etter at en seniorleder i Microsoft fortalte The New Yorker at Altman «knapt kan kode» og «misforstår grunnleggende maskinlæringskonsepter». Uttalelsen, videreformidlet av Futurism, ble ledsaget av en skarp advarsel: «Det er en liten, men reell sjanse for at han en dag blir husket som en svindler på nivå med Bernie Madoff eller Sam Bankman‑Fried». Kommentaren gjenspeiler en økende uro blant Altman sine egne samarbeidspartnere, som lenge har rost hans visjon, men nå stiller spørsmål ved hans tekniske forståelse.
Påstanden kommer i en turbulent periode for OpenAI. De siste ukene har styrekonflikter, en bølge av senioravgang og offentlige debatter om selskapets sikkerhetsprotokoller forsterket granskingen av ledelsen. Som vi rapporterte 8. april, har bekymringer om Altman sin innflytelse på AI‑politikk og produktretning allerede utløst en bredere diskusjon om hans pålitelighet. Den nye kritikken utdyper dette narrativet ved å antyde at strategiske beslutninger kan drives mer av karisma enn av en solid forståelse av teknologien de styrer.
Hvis påstandene har substans, kan de få ringvirkninger gjennom hele OpenAI‑økosystemet. Investorer kan kreve strengere styring, mens partnere som Microsoft kan revurdere vilkårene i deres milliardallianse. Reguleringsmyndigheter, som allerede utarbeider AI‑risikolovgivning i EU og USA, kan trekke frem ledelseskompetanse som en faktor i fremtidig tilsyn. Internt kan presset utløse en styre‑gjennomgang, en mulig lederovergang, eller i det minste en omorganisering av teknisk myndighet i selskapet.
Hold øye med en offisiell respons fra OpenAI‑styret i de kommende dagene, samt eventuelle uttalelser fra Microsofts seniorledelse. Den kommende OpenAI DevDay, planlagt til juni, blir den første offentlige arenaen der selskapet må demonstrere at veikartet fortsatt er troverdig til tross for kontroversen. Påfølgende innleveringer til SEC eller aksjonærmøter kan også avdekke om kritikken vil omsettes i konkrete styringsendringer.
AMD s AI‑direktør har offentlig advart om at Anthropic s Claude Code har blitt «dummere og latere» siden modellens oppdatering i februar. Stella Laurenzo, leder for AI‑gruppen i chipprodusenten, åpnet et GitHub‑issue på fredag (se issue # …) og la ut et LinkedIn‑innlegg som beskriver nedgangen. Ifølge henne sliter den CLI‑innpakkede versjonen av Claude som teamet hennes bruker til kodegenerering nå med komplekse ingeniør‑prompt, og produserer ofte overfladiske eller direkte feilaktige kodebiter. Klagen gjenspeiler en bredere korus av utviklere som har merket en nedgang i Claudes evne til problemløsning etter den siste utrullingen.
Kritikken er viktig fordi Claude Code er posisjonert som et flaggskipverktøy for utviklere som søker LLM‑assistert koding, og AMD s godkjennelse har vært en stiltiende tillitserklæring til Anthropic s veikart. Når en høyt profilert chipprodusent påpeker regresjon, kan det svekke tilliten blant bedriftsbrukere og fremskynde migrasjon til alternativer som OpenAI s GPT‑4o eller Googles Gemini. Det reiser også spørsmål om hvordan Anthropic balanserer sikkerhetsoppdateringer av modellen med rå ytelse – en spenning som ble fremhevet i vår tidligere dekning av Claude Managed Agents og Claude Mythos 9. april, hvor vi undersøkte modellens agent‑egenskaper og feil‑finnings‑quirks.
Hva du bør følge med på videre: Anthropic s respons, sannsynligvis i form av en patch eller et detaljert teknisk blogginnlegg, vil være den første indikatoren på om problemet er en regresjonsfeil eller en bevisst avveining. AMD kan også komme med informasjon om de eventuelt flytter intern verktøybruk til andre leverandører eller akselererer egen modellutvikling. I mellomtiden vil utviklerfellesskapet følge med på trafikken i GitHub‑issue‑tråden og Reddit‑diskusjoner for konkrete eksempler på forverringen, og bedriftskjøpere vil revurdere Claudes egnethet for kritisk kodegenerering. Episoden understreker den skjøre balansen mellom rask modelliterasjon og pålitelighetsforventningene til profesjonelle brukere.
Anthropic kunngjorde at deres årlige inntektsløp har krysset 30 milliarder dollar, og dermed for første gang har overgått rivalen OpenAI. Tallet, som ble avslørt i en kort uttalelse til investorer, reflekterer en kraftig økning i bedriftskontrakter for selskapets Claude‑modeller og et multi‑gigawatt TPU‑partnerskap med Google som utvider oppstartsbedriftens sky‑datakapasitet.
Milepælen er viktig fordi den omformer den finansielle hierarkiet i generativ‑AI‑sektoren akkurat nå som begge selskapene forbereder seg på børsnoteringer. Anthropics vekst drives i stor grad av tilbakevendende, flerårige avtaler med store selskaper som integrerer Claude i interne arbeidsflyter, fra kundeservice‑chatboter til kodegenereringsverktøy som ClaudeCode. OpenAI, derimot, er fortsatt sterkt avhengig av bruksbasert inntekt fra sitt API og forbruker‑rettede produkter som ChatGPT Plus. De ulike regnskapsmetodene gjør at de to løpende inntektsratene ikke er direkte sammenlignbare, men analytikere ser gapet som et signal om at bedriftsfokusert AI kan generere kontantstrøm i en skala som tidligere kun var reservert for aktører som Microsoft og Google.
Det neste å holde øye med er hvordan OpenAI vil svare. Selskapet forventes å søke om børsnotering senere i år og kan akselerere sin satsing på bedriftslisensiering eller justere prisene for å beskytte markedsandelen. Reguleringsmyndigheter begynner også å granske den raske konsentrasjonen av AI‑talent og beregningsressurser, så en eventuell antitrust‑gjennomgang kan påvirke vilkårene i Anthropics Google‑TPU‑avtale. Til slutt vil det bredere økosystemet følge med på nye kodeassistent‑verktøy – for eksempel rapporterte Cursor nylig en inntektsløp på 2 milliarder dollar – fordi de viser hvordan nisje‑AI‑verktøy raskt kan bli inntektsmotorer. De kommende månedene vil avdekke om Anthropics bedriftsmomentum kan opprettholde ledelsen, eller om OpenAIs bredere brukerbase vil lukke gapet før de to gigantene går på børs.
En bølge av automatiserte «skraper‑boter» bygget rundt store språkmodeller (LLM‑er) har begynt å hamre på HTTPS‑endepunktet til acme.com, et beskjedent nettsted som hoster et nisje‑nettleser‑spill og vanligvis kun får omtrent 120 unike besøkende per uke. Ifølge nettstedets operatør sender botene tusenvis av raske, parallelle forespørsler som metter serverens båndbredde og CPU, noe som fører til tidsavbrudd for legitime brukere og tvinger frem en midlertidig nedstengning av tjenesten.
Hendelsen er et symptom på en bredere endring i hvordan AI‑utviklere samler inn treningsdata. LLM‑leverandører som OpenAI, Anthropic og Googles Gemini har i økende grad tatt i bruk autonome crawlere som parser offentlige websider for å høste tekst, kode‑snutter og UI‑elementer. Selv om praksisen driver den raske forbedringen av samtale‑agenter, påfører den også uventet belastning på småskala‑nettoperatører som mangler infrastrukturen til å absorbere slik trafikk. For acme.com truer overbelastningen ikke bare brukeropplevelsen, men også inntektene fra beskjedne annonseplasseringer som opprettholder prosjektet.
Overbelastningen reiser presserende spørsmål om balansen mellom åpen datainnsamling og rettighetene til nettstedseiere. Eksisterende web‑standardverktøy—robots.txt‑direktiver, rate‑limiting‑midlertidig programvare, CAPTCHA‑er—sliter med å holde tritt med botter som kan etterligne menneskelige nettlesermønstre og omgå enkle forsvarsmekanismer. Juridiske eksperter debatterer allerede om uautorisert masse‑skraping for AI‑trening utgjør et brudd på opphavsrett eller en overtredelse av Computer Fraud and Abuse Act.
Hva du bør holde øye med: bransjeorganer forventes å utarbeide klarere retningslinjer for ansvarlig crawling, og store sky‑ og kant‑leverandører kan rulle ut automatiserte avbøtningstjenester. Følg med på uttalelser fra Anthropic, som nylig rapporterte en årlig inntekt som overgår OpenAI’s, ettersom selskapet kan justere sine data‑inntaks‑politikker under press. Til slutt, hold øye med potensielle regulatoriske tiltak i EU og USA som kan pålegge AI‑selskaper forpliktelser om å respektere nettstedseieres opt‑out‑valg.
Anthropic har avduket Claude Mythos Preview, selskapets mest kapable “frontier‑modell” hittil, men har valgt å ikke gjøre systemet tilgjengelig for allmennheten. Kunngjøringen, publisert på red.anthropic.com, understreker modellens enestående ferdigheter i oppgaver knyttet til datasikkerhet, og hevder at den autonomt kan lokalisere kritiske sårbarheter i alle større operativsystemer samt et bredt spekter av bedriftsprogramvare. I interne tester skal modellen ha avdekket tusenvis av zero‑day‑feil som tradisjonelle statiske analyseverktøy har oversett.
Avsløringen bygger på historien vi fulgte den 9. april, da Claude Mythos først ble rost for å «finne feil som en senior‑utvikler finner unnskyldninger for å hoppe over stand‑up» (se vår artikkel Claude Mythus Finds Bugs). Anthropic posisjonerer nå forhåndsvisningen som et sprang ikke bare i rå kodeevne, men også i samsvar: Et eget papir, “Alignment Risk Update”, beskriver Mythos Preview som den best tilpassede modellen selskapet har sluppet, men påpeker de samme restrisikoene som ble observert i Claude Opus 4.6, nemlig muligheten for at systemet kan misbrukes til utvikling av våpeniserte utnyttelser.
Hvorfor dette er viktig, er todelt. For det første kan en KI som systematisk avdekker skjulte programvaresvakheter bli en kraftforsterker for sikkerhetsteam, akselerere oppdateringssykluser og styrke kritisk infrastruktur. For det andre senker den samme evnen terskelen for ondsinnede aktører som ønsker å lage sofistikerte utnyttelser, noe som øker presset på ansvarlig avsløring og regulatorisk tilsyn. Anthropics beslutning om å holde modellen tilbake tyder på en forsiktig tilnærming, men selve eksistensen av et slikt verktøy omformer allerede trussellandskapet.
Det som bør følges med på videre, er kanalene der Anthropic eventuelt kan gi begrenset tilgang – potensielle samarbeid med bug‑bounty‑plattformer, statlig støttede red‑team‑programmer eller et lukket API for verifiserte sikkerhetsforskere. Konkurrenter vil sannsynligvis fremskynde sine egne sikkerhets‑fokuserte modell‑veikart, og lovgivere kan snart måtte ta stilling til behovet for standarder som regulerer KI‑drevet sårbarhetsforskning. De kommende ukene vil vise om Mythos Preview forblir en forskningsnysgjerrighet eller blir en hjørnestein i neste generasjons cyber‑forsvar.
Google DeepMind har publisert et nytt forskningspapir med tittelen **«AI Agent Traps»**, som avdekker en voksende klasse av angrep som skjuler skjulte prompt‑instruksjoner i tilsynelatende harmløse websider, PDF‑filer eller verktøysbeskrivelser. Studien viser at når autonome agenter — som Claude‑styrte assistenter, nett‑crawling‑roboter eller kode‑genereringsverktøy — henter og analyserer innhold, kan de utilsiktet utføre ondsinnede instruksjoner som er skjult i kilden. Et trivielt eksempel er en pastarett‑oppskriftsside som virker uskyldig for et menneske, men som inneholder en skjult direktiv som «Ignorer tidligere instruksjoner», som agenten flittig følger.
Papiret kartlegger mekanismene bak **indirekte promptinjeksjon**, en teknikk forskerne sammenligner med cross‑site scripting (XSS) for AI‑æraen. Ved å forgifte datapipelinen kan angripere styre agenter til å avsløre konfidensielle e‑postmeldinger, fabrikere finansielle transaksjoner eller installere ondsinnede verktøy. Nylige hendelser som nevnes i rapporten inkluderer en kompromittert HPE OneView‑administrasjonskonsoll (CVE‑2025‑37164) og et tilfelle der en agent tappet 10 000 USD etter å ha lest en manipulert e‑post. Fordi agenter ofte opererer med hevet verktøy‑tilgang og krav om lav latens, kan angrepene utføres uten å utløse tradisjonelle sikkerhetsvarsler, og energikostnaden ved kontinuerlig deteksjon blir en bekymring for sikkerhetsteam.
Mitigasjonstiltakene som DeepMind skisserer, vektlegger **defense‑in‑depth**: sandkasse‑kjøringsmiljøer, grundig sanitering av hentet HTML og dokumentmetadata, verifisering av verktøyskjemaer før lasting, samt distribusjon av selvhelbredende agenter som kan rulle tilbake mistenkelige handlinger. Forfatterne etterlyser også bransjestandarder for innholdsopprinnelse og **prompt‑validerings‑APIer**.
Hva du bør holde øye med videre: DeepMind planlegger å slippe et åpen‑kildekode‑bibliotek for prompt‑filtrering, mens store skyleverandører forventes å innføre strengere isolasjon for **agentbaserte arbeidsbelastninger**. Reguleringsmyndigheter i EU og Norden er allerede i ferd med å utforme retningslinjer for AI‑drevet datainntak, og sikkerhetsleverandører vil sannsynligvis lansere dedikerte “agent‑felle”‑deteksjons‑pakker i løpet av de kommende månedene. Kappløpet om å sikre autonome agenter har akkurat begynt, og den neste bølgen av verktøy vil avgjøre om virksomheter trygt kan utnytte deres produktivitetsgevinster.
Et nytt åpen‑kilde‑verktøy kalt **git‑semantic** er på vei til å revolusjonere hvordan utviklingsteam leverer kode til Anthropics Claude Code‑CLI. Ved å analysere hver sporet fil med Tree‑sitter, dele opp kildekoden i biter, generere vektor‑innbygginger og lagre dem i en dedikert orfan‑gren, lager git‑semantic et delt, oppdatert semantisk indeks som enhver teammedlem kan spørre uten å måtte indeksere på nytt. Resultatet er en dramatisk reduksjon i antall API‑kall som trengs for å gi Claude Code kontekst, og omgår dermed “kontekst‑stablingen” som lenge har plaget verktøyet.
Vi påpekte først Claude Codes arkitektoniske særtrekk 9. april, da et lekket kildekode‑dump avdekket at CLI‑en var avhengig av gjentatte ganger å fylle samtalen med filinnhold for å holde seg innenfor takhastigheten. Denne praksisen fylte raskt repositorier med ekstra “kontekst‑filer” og tvang utviklere til å nå Claudes bruksgrense langt tidligere enn forventet. Git‑semantic adresserer dette problemet direkte: indeksen lever i Git, sprer seg automatisk med hver push, og kan spørres av Claude Code eller hvilken som helst annen LLM‑drevet assistent som støtter vektorsøk.
Implikasjonene strekker seg utover én enkelt arbeidsflyt‑justering. Reduksjon av overflødig API‑trafikk senker driftskostnadene for selskaper som har integrert Claude Code i CI‑pipelines, mens den teamomfattende indeksen demokratiserer tilgangen til en konsistent visning av kodebasen, på lik linje med de semantiske søkefunksjonene som er innebygd i GitHub Copilot og andre IDE‑assistenter. Dersom fellesskapet tar i bruk git‑semantic i stor skala, kan Anthropic føle press for å integrere innfødt semantisk søk eller slappe av på takhastighetene, noe som vil endre konkurranselandskapet for AI‑forsterkede utviklingsverktøy.
Hold øye med tidlige adoptører som publiserer benchmark‑resultater, med Anthropic‑responsen—muligens en offisiell plugin eller en revidert Claude Code‑arkitektur—og med nedstrømsprosjekter som utvider git‑semantic til andre LLM‑leverandører. De neste ukene vil vise om denne Git‑sentrerte tilnærmingen blir den nye standarden for teamomfattende kodeforståelse.
Anthropics interne Claude‑kodebase – en 512 kilolinje «masterclass» i arkitektur for store språkmodeller – ble utilsiktet eksponert på offentlige fora tidlig i 2025. Lekkasjen, som først ble flagget på utvikler‑fokuserte Discord‑kanaler og senere speilet på sikkerhets‑mailinglister, inneholder hele kildekoden til Claude 2‑s inferensmotor, implementeringer av sikkerhetslag og de proprietære «Claude Code»-utvidelsene som muliggjør verktøybruk og selv‑debugging. Anthropic bekreftet bruddet på tirsdag, tilskrev det en feilkonfigurert sky‑lagringsbøtte, og lovet en nød‑oppdatering samt en tredjepartsrevisjon.
Hendelsen er viktig fordi Claude Code er det mest avanserte eksempelet på en tett integrert «agentisk» LLM‑stabel, et design Anthropic har markedsført som en differensieringsfaktor mot konkurrenter som OpenAIs GPT‑4o og Googles Gemini. Nå som koden er offentlig, kan motstandere studere sikkerhetsbarrierene, identifisere svakheter i minnehåndtering og lage målrettede angrep som omgår throttling‑ eller prompt‑injeksjonsforsvar. Samtidig senker lekkasjen terskelen for mindre laboratorier til å replikere Anthropics arkitektur, noe som potensielt kan erodere deres konkurransefordel og akselerere en bølge av «Claude‑kloner» som kan mangle den opprinnelige sikkerhetstesten.
Bruddet gjenoppliver også bekymringene som ble reist i vår dekning av Claude Code den 9. april, hvor vi bemerket at de samme interne modulene nå ser ut til å være sårbare for utnyttelse. Bransjeobservatører forventer at Anthropic vil skjerpe sin forsyningskjede‑sikkerhet, muligens ved å flytte kritiske komponenter til isolerte bygge‑miljøer og vedta null‑tillit‑lagringspolicyer.
Hva du bør holde øye med videre: Anthropics kommende revisjonsrapport, eventuelle rettslige skritt mot den ansvarlige for feilkonfigurasjonen, og hvordan rivaliserende laboratorier tilpasser sine egne kode‑sikkerhetspraksiser. Reguleringsmyndigheter kan også gripe anledningen til å presse på for obligatoriske kildekode‑beskyttelsesstandarder for grunnleggende modeller, en utvikling som kan omforme AI‑sikkerhetslandskapet i Norden og utover.
En omfattende undersøkelse publisert av The New Yorker denne uken hevder at OpenAIs administrerende direktør Sam Altman gjentatte ganger har villedet investorer, styremedlemmer og regulatorer om selskapets økonomiske helse, strategiske retning og den faktiske omfanget av partnerskapet med Microsoft. Rapporten, basert på interne e‑poster, vitneforklaringer fra varsler og lekkede styremøtereferater, påstår at Altman skjulte kostnadsoverskridelser i GPT‑5‑utviklingsløpet, overdrevet den kommersielle klarheten til flere modeller og bagatelliserte innflytelsen fra Microsofts investering på 10 milliarder dollar på OpenAIs styring.
Avsløringene er viktige fordi OpenAI befinner seg i sentrum av den globale AI‑kappløpet, og modellene deres driver alt fra bedrifts‑chatboter til autonome forskningsverktøy. Dersom administrerende direktør faktisk har skjult vesentlige risikoer, kan troverdigheten til selskapets offentlige forpliktelser – som løftet om å «demokratisere AI» og å publisere sikkerhetsforskning – bli alvorlig svekket. Investorer kan kreve strengere tilsyn, mens regulatorer i EU og USA, som allerede utarbeider AI‑spesifikk lovgivning, kan se funnene som bevis på at dagens selvregulering er utilstrekkelig.
Historien gjenoppliver også spørsmålene som ble reist i vår artikkel fra 8. april om Altmans
Superset, en terminal‑integrert AI‑editor som samler flere store språkmodeller og designverktøy, ble satt på prøve i en praktisk gjennomgang publisert av den japanske teknologikilden TKHUNT torsdag. Videoen viser hvordan Superset lar utviklere påkalle ChatGPT, Claude, DeepSeek eller en lokalt hostet modell med kun én kommando, og deretter sømløst bytte til UI‑fokuserte assistenter for Canva, Figma eller CSS‑generering. Et innebygd “CursorComposer”-panel gir live‑forhåndsvisning av kode, mens et prompt‑bibliotek leverer ferdige kodebiter for vanlige oppgaver som API‑skjelett, opprettelse av enhetstester og front‑end‑styling.
Lanseringen er viktig fordi den driver den fremvoksende trenden med “AI‑first” utviklingsmiljøer utover sky‑baserte tilbud som GitHub Copilot og Microsofts Cursor. Ved å forankre AI‑laget i terminalen reduserer Superset behovet for kontekstbytter og holder utviklerens arbeidsflyt innen kjente skall, en funksjon som resonnerer med nordiske team som foretrekker lette, skriptbare verktøykjeder. Muligheten til å orkestrere flere modeller gjør det også mulig for brukerne å balansere kostnad, latens og kreativitet – en fleksibilitet som kan akselerere adopsjon både i oppstartsbedrifter og større foretak.
Som vi rapporterte 8. april om Claude Code‑terminalagenten, diversifiseres markedet for AI‑forsterkede kodeassistenter raskt. Supersets bredere modellpalett og integrasjon av design‑orientert AI skiller den ut, men den vil møte hard konkurranse fra åpen‑kilde‑prosjekter som Cursors “Composer” og nye plugins for VS Code som innlemmer lignende funksjonalitet.
Hva som er verdt å følge med på videre: Supersets utviklere har kunngjort en offentlig beta planlagt til tidlig i mai, med planer om å legge til CI/CD‑hooks og en markedsplass for fellesskaps‑byggde utvidelser. Bransjeobservatører vil følge med på prisindikasjoner, ytelsesbenchmarker mot Copilot X, og om nordiske selskaper tar Superset i bruk som en standarddel av sine DevOps‑pipelines. De kommende ukene vil vise om editoren kan omsette sitt tekniske løfte til målbare produktivitetsgevinster.