AI News

449

Tell HN: Anthropic tillater ikke lenger Claude Code‑abonnementer å bruke OpenClaw

Tell HN: Anthropic tillater ikke lenger Claude Code‑abonnementer å bruke OpenClaw
HN +8 kilder hn
anthropicclaudereasoning
Anthropic har sendt en kortfattet melding til alle Claude Code‑abonnenter: fra og med 4. april kl. 12 p.m. PT (20:00 BST) vil selskapet blokkere bruken av abonnementstokenene i enhver tredjeparts‑harness, inkludert den populære OpenClaw‑IDE‑en. E‑posten, som ble lagt ut på Hacker News av brukeren «firloop», gjør det klart at restriksjonen gjelder for alle Claude Code‑planer, og kutter dermed integrasjonen som mange utviklere har vært avhengige av for å bygge inn Anthropics kode‑genereringsmodell i sine egne verktøy. Dette er den siste opptrappingen i en rekke låsinger som startet i januar, da Anthropic først forbød OAuth‑token for Claude Pro‑ og Max‑planer fra eksterne applikasjoner, og som ble fulgt i februar av et bredere forbud mot tredjeparts‑IDE‑er. Som vi rapporterte 11. jan 2026, begrunnet selskapet tiltaket med «sikkerhet og etterlevelse», men den plutselige fristen i april har vekket nye bekymringer om leverandørlåsing og økte kostnader for team som nå må migrere til Anthropics egen grensesnitt eller finne alternative løsninger. For utviklere er virkningen umiddelbar. OpenClaw, en fellesskaps‑vedlikeholdt wrapper som lar brukere kalle Claude Code fra VS Code, JetBrains og andre editorer, vil slutte å fungere, og tvinger team til å omskrive byggepipeliner eller betale for Anthropics egen nett‑baserte miljø. Restriksjonen reiser også spørsmål om fremtiden for åpen kildekode‑AI‑verktøy, spesielt etter «Safety Layer»-lekkasjen vi dekket 3. apr, som viste hvor mye av Claudes funksjonalitet som er skjult bak proprietære kontroller. Hva du bør følge med på: Anthropics respons på kritikken i forum og på sosiale medier, eventuelle juridiske utfordringer eller regulatorisk gransking av konkurransebegrensende praksis, samt fremveksten av rivaliserende kode‑assistenter – både fra OpenAI og den voksende åpne LLM‑økosystemet – som lover ubegrenset IDE‑integrasjon. De neste ukene vil vise om dette politiske skiftet omformer balansen mellom proprietære AI‑tjenester og utviklerfellesskapets krav om åpne, fleksible verktøy.
170

Claude Code Unpacked

Claude Code Unpacked
Mastodon +6 kilder mastodon
agentsanthropicclaude
En ny åpen‑kilde‑prosjekt kalt **Claude Code Unpacked** (ccunpacked.dev) har publisert en detaljert visuell guide som kartlegger hver komponent i Anthropics Claude Code‑agent, basert på kildekoden som lekket fra selskapets NPM‑pakke 31. mars 2026. Nettstedet fører leserne gjennom agent‑løkken, mer enn 50 innebygde verktøy, lag‑for‑lag‑orchestreringen for flere agenter og flere uoffentlige funksjoner som aldri nådde det offentlige produktet. Analysen bygger på lekkasjen vi dekket 3. april, da kildefilene for «Safety Layer» avdekket hull i Claude Codes beskyttelser for kodegenerering. Ved å reversere den komplette kodebasen har Unpacked‑teamet identifisert «falske verktøy» som bevisst ble gjort uklare, regex‑filtre som gir irriterende falske positiver, og en «undercover‑modus» som lar agenten operere uten å logge visse handlinger. Guiden avslører også et skjult «self‑debug»-undersystem som kan omskrive verktøydedefinisjoner i sanntid – en evne som kan utnyttes dersom en angriper får kjøretids‑tilgang. Hvorfor dette er viktig er tosidig. For det første tvinger åpenheten Anthropic til å konfrontere omfanget av sin agent‑funksjonalitet, noe som allerede har vekket røde‑team‑bekymringer etter at Claude Code ble vist å oppdage zero‑day‑utnyttelser i Vim og Emacs. For det andre skjerper de avdekkede mekanismene debatten om sikkerhets‑ og etiske implikasjoner av storskala kode‑agenter som autonomt kan påkalle dusinvis av verktøy og endre sin egen oppførsel. Reguleringsmyndigheter og bedriftskunder har nå konkret bevis på kapasiteter som tidligere var spekulative. Det neste å holde øye med er Anthropics offisielle svar. Selskapet har merket lekkasjen som et «release‑packaging‑problem» og lovet en oppdatering, men har ikke adressert de skjulte undersystemene som Unpacked har fremhevet. Man kan forvente juridiske varsler til prosjektets vedlikeholdere, mulige endringer i abonnementmodellen, og økt gransking fra EU‑AI‑regulatorer som utarbeider regler for høy‑risiko autonome systemer. Den pågående historien vil forme hvordan bransjen balanserer åpenhet, sikkerhet og den raske utrullingen av agent‑baserte AI‑verktøy.
119

Ekstra bruks­kreditt for Claude for å feire lanseringen av bruks­pakker (Pro, Max, Team)

Ekstra bruks­kreditt for Claude for å feire lanseringen av bruks­pakker (Pro, Max, Team)
HN +7 kilder hn
claude
Anthropic har rullet ut en ekstra bruks­kreditt på $50 for alle som har de nyinnførte Claude‑abonnements­pakkene – Pro, Max og Team – som en lanserings­insentiv. Kreditt­en låses opp via nettgrensesnittet under **Innstillinger → Bruk**, hvor brukerne bare trenger å slå på «Aktiver ekstra bruk». Når den er aktivert, trekkes den gratis kvoten fra den månedlige tillatelsen før planens vanlige grenser trer i kraft, og dermed forlenger mengden Opus 4.6‑spørringer en abonnent kan kjøre uten ekstra kostnad. Dette markerer Anthropics første forsøk på lagdelte bruks­pakker, et skifte fra den tidligere pay‑as‑you‑go‑modellen som var basert på per‑token‑avgifter. Ved å samle høyere grenser i Pro‑, Max‑ og Team‑planene og gjøre lanseringen søtere med en kreditt, ønsker selskapet å binde kraftige brukere, redusere frafall og gjøre sin flaggskip‑modell mer konkurransedyktig mot OpenAI sin ChatGPT‑4 og Google Gemini‑tilbudene. Kampanjen speiler også en $50‑kreditt fra februar 2026 knyttet til lanseringen av Opus 4.6, noe som tyder på at Anthropic bruker kortsiktige insentiver for å akselerere adopsjonen av sin nyeste modellgenerasjon. Analytikere vil følge med på om den ekstra kreditt­en omsetter seg i vedvarende høyere bruk eller bare en midlertidig spiss. Viktige signaler inkluderer opptaksraten på tvers av de tre pakkene, eventuelle påfølgende justeringer av pris eller token‑tak, og hvor raskt kreditt­en blir brukt opp av typiske arbeidsbelastninger som kodegenerering, innholdsutkast eller bedriftsstøtte. En bredere utrulling av lignende kampanjer kan indikere Anthropics tillit til sin kostnadsstruktur, mens en tilbaketrekning kan signalisere prispress fra konkurrenter. Den neste oppdateringen å holde øye med blir Anthropics Q2‑resultatpresentasjon, hvor selskapet forventes å avdekke virkningen av pakkene på inntektene og gi hint om fremtidige plan‑forbedringer eller ytterligere AI‑modellutgivelser.
67

Will Googles TurboQuant AI‑komprimering endelig rive ned AI‑minvegg?

Will Googles TurboQuant AI‑komprimering endelig rive ned AI‑minvegg?
Mastodon +7 kilder mastodon
google
Google Research avduket TurboQuant, en to‑trinns komprimeringsstabel som lover å kutte minneavtrykket ved inferens av store språkmodeller (LLM) med opptil seks ganger. Systemet kombinerer en ny vekt‑nivå‑teknikk kalt PolarQuant med en matrise‑nivå‑tilnærming kalt QJL, og komprimerer sammen nøkkel‑verdi‑bufferen (KV‑cache) som dominerer GPU‑minnebruken under generering. I interne tester beholdt den kombinerte pipelinen token‑nivå‑kvaliteten samtidig som KV‑lagringen ble redusert fra 30 GB til omtrent 5 GB for en modell med 70 milliarder parametere. Som vi rapporterte 2. april, skapte TurboQuant‑s 6×‑reduksjon optimisme om at den kroniske «AI‑minvegg» – drevet av økende etterspørsel etter høy‑båndbredde‑minne (HBM) og GPU‑er med tredobbel pris – endelig kan gi etter. De nye detaljene bekrefter at gevinsten kommer fra algoritmisk innovasjon snarere enn maskinvare‑triks, noe som betyr at teknikken kan tas i bruk på eksisterende silisium. Det kan senke kostnadsbarrieren for å betjene modeller med flere milliarder parametere i skyen og lokalt, og det kan gjenopplive interessen for inferens på enheter der minnet er en knapp ressurs. Likevel advarer eksperter om at effektivitetsøkningen kan utløse en Jevons‑paradoks: billigere minne per token kan oppmuntre utviklere til å bruke større kontekster eller flere samtidige forespørsler, og dermed opprettholde eller til og med øke total minneetterspørsel. Tidlige brukere som SharpAI‑s SwiftLM‑server tester allerede TurboQuant sammen med SSD‑strømmende MoE‑modeller, mens vLLM‑samfunnet undersøker hvordan komprimeringen påvirker deres nylige rettelser for minnelekkasjer. Det neste å holde øye med er rapporter fra virkelige driftsmiljøer hos store skyleverandører, integrasjonstidslinjer for populære inferens‑rammeverk, samt eventuelle oppfølgingspatenter som avslører om PolarQuant eller QJL kan kombineres med kvantisering eller sparsitetsskjemaer. Hvis TurboQuant skalerer utover laboratoriet, kan det omforme GPU‑allokeringsstrategier og dempe HBM‑knappheten som har drevet maskinvarepriser oppover i flere måneder.
66

Den første batchen med AI‑innebygde data for min private server er nesten ferdig med en 3050, jeg har prosessert

Mastodon +7 kilder mastodon
En hobbyutvikler har nettopp fullført den første store innsamlingen for en privat stor‑språkmodell (LLM), der 3 425 batcher med 50 Wikipedia‑artikler hver ble behandlet på én Nvidia RTX 3050. Arbeidet, som ble kunngjort på X med hashtagene #AI #linux #Cybersecurity #Technology, genererte omtrent 170 000 artikkel‑embedding‑vektorer som skal fungere som en søkbar kunnskapsbase for brukerens selv‑hostede LLM. Neste fase vil hente inn standarder og veiledninger fra NIST, CISA og andre cybersikkerhetskilder, og gjøre modellen til en domene‑spesifikk assistent for trusselanalyse og samsvarskontroller. Arbeidet er viktig fordi det viser at terskelen for å bygge en brukbar, privat‑hostet LLM senker seg fra enterprise‑klustre til forbruker‑klassisk maskinvare. Ved å utnytte åpne embed‑pipelines og vektorlager som Milvus eller den Rust‑baserte Ditto‑peer‑to‑peer‑databasen, kan enkeltpersoner kuratere data som både er oppdatert og isolert fra sky‑leverandørers personvernproblemer. I et landskap hvor myndigheter og selskaper strammer inn regelverk for databehandling, kan en privat kunnskapsgraf som inkluderer verifiserte cybersikkerhetsretningslinjer bli et verdifullt verktøy for beredskapsteam som ikke kan stole på offentlige API‑er. Det som nå er å holde øye med, er om utvikleren kan opprettholde innsamling‑pipelines når datavolumet vokser fra Wikipedia til de tette, hyppig oppdaterte NIST‑ og CISA‑korpora. Ytelsen på RTX 3050 vil bli en prøtestens for skaleringsstrategier, inkludert kvantisering, KV‑cache‑komprimering og streaming fra SSD‑er — teknikker som er fremhevet i nylige åpne prosjekter som SwiftLM. En suksess kan sette i gang en bølge av lignende private‑LLM‑utrullinger i nordiske sikkerhetsfirmaer, og føre til både forbedringer i verktøy og en dialog om standarder for lokalt‑hostet AI i kritisk infrastruktur.
66

Hvordan hele kildekoden til Claude Code lekket, og det var ikke et hack

Hvordan hele kildekoden til Claude Code lekket, og det var ikke et hack
Dev.to +6 kilder dev.to
anthropicclaude
Anthropics flaggskip‑kodingassistent, Claude Code, ble eksponert 31. mars da en feilkonfigurert npm‑pakke utilsiktet sendte med en 59,8 MB kildekart‑fil som rekonstruerte hele kodebasen. Filen, som var bundlet med versjon 2.1.88 av CLI‑verktøyet, avslørte interne moduler, proprietære prompt‑tekster og arkitekturen til den Rust‑baserte agenten som driver produktet. Sikkerhetsforsker Chaofan Shou oppdaget avviket, hentet kildekoden fra Anthropics R2‑bøtte og la ut en nedlastingslenke på X, noe som utløste en rask bølge av analyser i AI‑samfunnet. Lekkasje er viktig fordi Claude Code er Anthropics svar på GitHub Copilot og Microsofts Gemini for utviklere, og kildekoden inneholder proprietære teknikker for prompt‑engineering, sandboxing og modell‑kalling som konkurrenter har brukt måneder på å replikere. Selv om bruddet ikke var et hack – det handlet kun om en manglende oppføring i .npmignore‑filen – gir det rivaler et sjeldent innblikk i Anthropics interne verktøy, noe som potensielt kan akselerere reverse‑engineering‑arbeidet og svekke selskapets konkurransemargin. I tillegg reiser hendelsen bredere bekymringer om forsyningskjede‑hygiene i AI‑sentrert programvare, hvor ett enkelt kildekart kan eksponere forretningshemmeligheter og skape etterlevelses‑spørsmål for virksomheter som allerede har integrert Claude Code i CI‑pipelines. Anthropic har reagert ved å trekke tilbake pakken, utgi en nød‑oppdatering og love en full revisjon av publiseringsprosessen. Selskapet advarte også kundene om at ingen brukerdata ble kompromittert, men har ikke oppgitt om noen proprietære modell‑vektorer ble inkludert. Observatører vil følge med på en formell post‑mortem, mulige juridiske krav fra partnere, og om Anthropic strammer inn sin open‑source‑politikk etter hendelsen. Som vi rapporterte 4. april i «Claude Code Unpacked», var verktøyets indre virkemåte allerede under gransking; lekkasjen tvinger nå selskapet til å forsvare både sine sikkerhetsrutiner og sin strategiske fordel i det raskt utviklende AI‑kodingsmarkedet.
63

Jeg synes det er vanskelig å holde oversikt over hvilke nyhetsorganisasjoner, forlag*, osv. nå offentlig anerkjenner

Mastodon +6 kilder mastodon
Et koalisjon av åpen‑kilde‑forskere og medie‑vaktorganer kunngjorde mandag lanseringen av AI Disclosure Tracker, en offentlig søkbar database som logger hver uttalelse en nyhetskanal, bokforlag eller lignende innholdsprodusent har gjort om publisering av materiale generert av kunstig intelligens. Registeret, som er vert på Fediverse og koblet til en Mastodon‑bot, henter pressemeldinger, nettside‑varsler og innlegg på sosiale medier, og merker dem etter organisasjon, dato og hvilken type AI‑verktøy som refereres til. Initiativet kommer etter en rekke høyprofilerte avsløringer og skandaler tidligere i år, mest bemerkelsesverdig New York Times’ beslutning om å kutte båndene med en frilansskribent som brukte AI til å utforme en bokanmeldelse – en historie vi dekket 3. april 2026. Samtidig har akademisk arbeid på heuristiske detektorer versus LLM‑dommere vist at automatiserte verktøy kan flagge AI‑generert tekst, men kun når kilden er kjent. Ved å samle selv‑rapporterte avsløringer, har Tracker som mål å gi faktasjekkere, regulatorer og lesere ett samlet referansepunkt, og dermed redusere den «AI slop» kritikerne sier forurenser informasjonsøkosystemet. Hvorfor dette er viktig er todelt. For det første strammer EU‑s AI‑lov og lignende lovgivning inn kravene til åpenhet, og mange forlag kjemper for å overholde dem. For det andre er tilliten til media i befolkningen i ferd med å erodere; et søkbart register over hvem som innrømmer å bruke AI kan bli en målestokk for troverdighet, på samme måte som faktasjekksider har gjort for politiske påstander. Hva man bør holde øye med videre: adopsjon av store aktører som Reuters, Bloomberg og de store handelsforlagene vil teste Trackers skalerbarhet. Teamet planlegger å legge til et API som nyhetsredaksjoner kan integrere i sine innholdsstyringssystemer, og gjøre avsløringer fra en manuell ettertanke til et automatisert steg. Hvis registeret får fart, kan det bli de‑facto‑standarden for AI‑innholds‑åpenhet i det nordiske medielandskapet og videre.
57

AI‑agenter vet ikke når de tar feil. Slik sikrer du at systemet ditt gjør det.

Dev.to +5 kilder dev.to
agents
En ny analyse publisert denne uken viser at høyt‑scorende AI‑agenter fortsatt kan snuble over grunnleggende fakta, og avdekker et «verifiseringsgap» som truer påliteligheten til automatiserte tjenester. Forfatterne sammenlignet en benchmark‑pakke som plasserte en kundeservice‑bot i 91‑percentilen for svarkvalitet med levende produksjonslogger som registrerte at den samme boten selvsikkert ga feil informasjon til tre kunder om en returpolicy på en enkelt tirsdag. Begge målene kan eksistere side om side, argumenterer rapporten, fordi nåværende evalueringsmetoder belønner flyt og relevans mens de overser selvbevissthet om feil. Studien, skrevet av forskere ved Swarm Signal‑lab i samarbeid med flere nordiske AI‑oppstartsbedrifter, kartlegger syv tilbakevendende feilmoduser – fra feilaktig intensjon til ukontrollerte hallusinasjoner – og foreslår en tre‑trinns mitigasjonsstrategi. For det første må utviklere gå fra et «kommandør»-tankesett, der promptene dikterer oppførselen, til en «leder»-rolle som leverer dyp kontekst og eksplisitte ærlighetsbegrensninger. For det andre bør agenter utstyres med kalibrerte selvtillits‑score og en innebygd «innrøm‑når‑usikker»-protokoll som utløser en fallback til menneskelig gjennomgang. For det tredje oppfordres organisasjoner til å institusjonalisere kontinuerlige menneske‑i‑sløyfen‑revisjoner av sluttresultatene, spesielt i høy‑risiko‑områder som finans, helsevesen og netthandel. Hvorfor dette er viktig nå, er tydelig: bedrifter skalerer AI‑assistenter for front‑linjeinteraksjoner, og uoppdagede feil kan erodere kundetillit, tiltrekke regulatorisk granskning og øke driftskostnadene. Funnene gjenspeiler tidligere bekymringer vi har reist om lært optimaliseringsrisiko i avanserte modeller og utfordringene med å kjøre lokale AI‑agenter på en sikker måte. Det som bør følges med på videre, er de fremvoksende standardorganene – ISO/IEC og den europeiske AI‑loven – som forbereder retningslinjer for agent‑verifisering, samt kommende verktøykasser fra store skyleverandører som lover innebygde selvrefleksjonsmoduler. De neste månedene vil sannsynligvis bringe pilotprosjekter som integrerer disse sikkerhetstiltakene, og gir en litmus‑test på om bransjen kan lukke gapet mellom imponerende testresultater og pålitelig ytelse i den virkelige verden.
52

OpenAIs Fidji Simo går ut i sykemelding midt i en lederomveltning https:// fed.brid.gy/r

Mastodon +9 kilder mastodon
openai
OpenAI kunngjorde tirsdag at deres chief product officer, Fidji Simo, vil gå ut i sykemelding med umiddelbar virkning, et trekk som sammenfaller med en bredere omorganisering av selskapets seniorledelse. Simo, som kom til OpenAI fra Instagram i 2023 for å lede den forbrukerrettede delen av ChatGPT og den nye pakken med bedriftsverktøy, vil være fraværende mens hun kommer seg etter en ikke oppgitt helsetilstand. Selskapet opplyser at sykemeldingen er midlertidig, og at interim‑ansvar vil bli dekket av de eksisterende produktlederne. Tidspunktet er bemerkelsesverdig fordi OpenAI befinner seg i en aggressiv ekspansjonsfase, har ansatt hundrevis av ingeniører og ruller ut kostbare beregningsklynger for å møte den økende etterspørselen etter GPT‑4‑turbo og multimodale modeller. En uke tidligere avdekket firmaet en “compute ceiling”-strategi, der ressurser omfordeles for å prioritere flaggskipprodukter og dempe overspending. Simos fravær fra dag‑til‑dag‑oppgavene tilfører et lag av usikkerhet til denne strategien, ettersom hun har vært det offentlige ansiktet for produktlanseringer og arkitekten bak den nylige utrullingen av ChatGPT Enterprise. Analytikere ser tre umiddelbare implikasjoner. For det første kan lederskapsgapet bremse tempoet for nye forbrukerfunksjoner, et område hvor konkurrenter som Google DeepMind og Anthropic akselererer. For det andre kan intern moral bli satt på prøve; omveltningen følger avgangen til flere senioringeniører som pekte på “ressursbegrensninger”. For det tredje vil investorer følge med på hvor raskt OpenAI kan stabilisere sin produktplan uten sin chief product officer. Fremover er de viktigste signalene å følge: utnevnelsen av en permanent etterfølger, eventuelle revisjoner av produktplanen som kunngjøres på den kommende utviklerkonferansen, og om OpenAIs styre vil justere sin styringsmodell for å dempe fremtidige forstyrrelser. Selskapets evne til å opprettholde momentet mens det navigerer denne interne turbulensen vil bli en litmus test for dets langsiktige dominans i markedet for generativ AI.
51

OpenAI kjøper live teknologitalkshowet TBPN

Mastodon +7 kilder mastodon
openai
OpenAI kunngjorde torsdag at de har kjøpt Technology Business Programming Network (TBPN), en daglig, tre timer lang live‑podcast som har blitt et foretrukket forum for gründere, investorer og ingeniører i Silicon Valley. Avtalen, hvis vilkår ikke ble offentliggjort, plasserer programmet under tilsyn av OpenAIs hovedpolitisk operativ, Chris Lehane, og signaliserer selskapets første forsøk på å eie en medieeiendom. Kjøpet kommer på et tidspunkt da OpenAI kjemper for å stabilisere sitt offentlige image. I de siste ukene har selskapet gjennomgått en lederomveltning – Fidji Simos sykemelding ble rapportert 4. april – og et høyt profilert tilbakeslag da deres tekst‑til‑video‑modell Sora ble trukket tilbake, noe som har ført til spekulasjoner om selskapets strategiske retning. Som vi rapporterte 3. april, var OpenAI fortsatt i forhandlinger med Disney for å redde partnerskapet, noe som understreker ønsket om å forme fortellingen rundt generativ AI. Å eie TBPN gir OpenAI en direkte kanal til teknologisamfunnet som allerede har tillit til programmets ærlige, gründer‑ledede samtaler, og gjør det mulig for selskapet å forsterke sitt eget budskap samtidig som programmet beholder sin redaksjonelle uavhengighet, ifølge vertene. Bransjeobservatører ser trekket som en del av en bredere trend der AI‑selskaper kjøper medieplattformer for å kontrollere diskursen og forhindre krit
51

Vox: Hva skjedde da de installerte ChatGPT på en nukleær superdatamaskin

Mastodon +6 kilder mastodon
anthropic
Los Alamos National Laboratory har koblet OpenAIs ChatGPT til sin flaggskip‑superdatamaskin, et trekk som plasserer en konversasjonsbasert stor‑språkmodell i hjertet av USAs forskning på atomvåpen. Integrasjonen, kunngjort i en Vox‑rapport 2. april, lar forskere stille maskinlæringssystemet spørsmål om kodebiter, råd om dataanalyse og forklaringer på komplekse simuleringsresultater, alt mens modellen kjører på samme høyytelsesmaskinvare som driver nasjonens program for vedlikehold av atomvåpenlageret. Utrullingen kommer midt i en bølge av kontroverser rundt forsvars‑AI. En nylig konflikt mellom Pentagon og Anthropic om etterlevelse av eksportkontroll og lekket bevis for at AI‑verktøy ble brukt til å bistå målretting i Iran‑konflikten har skjerpet gransking av ethvert militært AI‑samarbeid. Ved å integrere ChatGPT i et nukleært fokusert miljø tester Los Alamos om hastigheten og tilgjengeligheten til generativ AI kan akselerere den flere tiår gamle arbeidsflyten for våpenfysikk‑modellering, material‑aldersstudier og sikkerhetsdokumentasjon. Hvorfor dette er viktig er todelt. På den positive siden sier forskerne at modellen kan kutte ned uker med rutinemessig skripting og hjelpe yngre ansatte med å navigere i eldre kodebaser, noe som potensielt frigjør senioringeniører til å fokusere på høy‑risiko designbeslutninger. På den negative siden understreker den samme studien som belyste AI‑agenters blindsoner – vårt stykke 4. april om «AI‑agenter vet ikke når de tar feil» – faren ved hallusinerte resultater i et felt hvor én eneste feil kan feilinformere sikkerhetsvurderinger eller utløse utilsiktet opptrapping. Sikkerhetsansvarlige er også bekymret for datalekkasjer, manipulering av modellen og det bredere precedenset med å koble generativ AI til våpen‑klassifisert databehandling. Det som bør følges med på videre inkluderer en sannsynlig kongresshøring om AI‑drevet atomforskning, Energidepartementets utrulling av en herdet, «trusted‑AI»‑versjon av modellen, og om andre laboratorier – Sandia, Lawrence Livermore – følger etter. Episoden vil også teste den fremvoksende rammen for AI‑risikostyring som Pentagon utarbeider, mens politikere sliter med paradokset mellom hastighet og sikkerhet i generativ AI‑alder.
48

Score 98/100 på Claude Code — Topp 0,1 % globalt blant økter

Dev.to +5 kilder dev.to
claude
En utvikler på Claude Code‑fellesskapsplattformen publiserte en ny benchmark 3. april, med en poengsum på 98 av 100 som plasserer økten blant de øverste 0,1 % av alle globale kjøringer. Prestasjonen, kunngjort av den fransktalende programmereren Franck Hlb, overgår hans tidligere beste på 95/100 og slår den tidligere Gemini CLI‑rekorden som lå i 1‑percentilen. Poengsummen ble generert med Anthropics nyeste Claude Opus 4.6‑modell, som ble rullet ut forrige uke og allerede har en BigLaw Benchscore på 90,2 % – den høyeste for noen Claude‑variant. Resultatet er viktig fordi Claude Code er Anthropics flaggskipverktøy for å omforme naturlige språk‑prompt til produksjonsklar kode, og virkelige benchmark‑tester er det tydeligste beviset på at den er klar for bedriftsadopsjon. En vurdering på 98/100 antyder at modellen kan løse komplekse programmeringsoppgaver med minimale feil, et poeng som ble fremhevet i vår dekning 4. april av AI‑agenters blindsoner. Rekorden signaliserer også at Claude Code nå er konkurransedyktig med, og kanskje overgår, rivaliserende kode‑genereringssystemer som Googles Gemini CLI, som har vært et referansepunkt for utviklere som evaluerer AI‑assistert koding. Det neste
45

#bakgrunnsbilde #TelefonKunst #landskap #MissKittyArt #kunstinstallasjoner #GenerativAI #genAI

Mastodon +10 kilder mastodon
MissKittyArt, det København‑baserte generative‑AI‑studioet som har gjort seg bemerket med sine 8K‑telefonbakgrunnseksperimenter, lanserte en ny samling med landskapsfokusert telefonkunst mandag. Serien, merket #BlueSkyArt og #unwrappedXMAS, består av 18 ultra‑høytoppløselige bilder generert med studioets proprietære gLUMPaRT‑motor og den åpne kildekode‑modellen GGTart. Hvert verk blander abstrakte moderne‑kunstmotiver med fotorealistiske fjell‑, skog‑ og strandvyer, og leverer 8K‑detaljering som kan måle seg med profesjonell fotografi. Lanseringen bygger på studioets utrulling av “Zoom Effect”-bakgrunnslinjen 2. april, som først demonstrerte hvordan generativ AI kan produsere sømløse 8K‑bakgrunner for mobilskjermer. Ved å utvide til full‑bleed landskapskomposisjoner, skyver MissKittyArt teknologien fra en nyhet til et levedyktig alternativ til tradisjonell stock‑fotografi for både forbrukere og kommersielle kunstoppdrag. Samlingen er allerede tilgjengelig for gratis nedlasting på kunstnerens portal, med mulighet for skreddersydde bestillinger som lover personlig, AI‑skapt kunst for smarttelefoner, nettbrett og til og med store installasjoner. Bransjeobservatører mener at dette markerer et vendepunkt for AI‑drevet visuelt innhold. Høytoppløselige, AI‑genererte bakgrunner kan endre mobilmarkedet, få OEM‑produsenter til å inkludere eksklusiv AI‑kunst i pakkene sine, og oppmuntre app‑utviklere til å integrere verktøy for generering på enheten. Samtidig reiser den raske spredningen av AI‑skapt bildevirksomhet nye spørsmål om opphavsrett, attribusjon og den fremtidige rollen til menneskelige kunstnere i den digitale kunstforsyningskjeden. Hold øye med MissKittyArts kommende “Skyline”-utstilling i Stockholm, planlagt til juni, hvor bakgrunnene vil bli projisert på en 640 kvadratmeter stor fasade. Arrangementet vil også teste en ny lisensieringsmodell som lar brukere kjøpe evige bruksrettigheter direkte gjennom en blokk‑kjede‑basert smart‑kontrakt – et eksperiment som kan sette presedens for kommersialisering av AI‑generert kunst i den nordiske teknologiscenen.
45

OpenAI også lobbyer for aldersverifisering globalt https:// peq42.com/blog/openai-also-lob bying

Mastodon +6 kilder mastodon
amazonopenaiprivacy
OpenAI har kunngjort at de aktivt lobbyer regjeringer over hele verden for å innføre obligatoriske aldersverifiseringsmekanismer for tilgang til deres generative‑AI‑tjenester. Selskapets team for offentlige saker møtte regulatorer i EU, USA og flere asiatiske markeder i løpet av forrige uke, og presenterte et utkast til rammeverk som vil kreve at brukere beviser at de er over en lovbestemt alder før de kan samhandle med modeller som ChatGPT eller DALL‑E. OpenAI sier at tiltaket er ment å beskytte mindreårige mot potensielt skadelig innhold, samtidig som det gir selskapet en klar etterlevelsesvei i møte med skjerpende lovgivning om digital sikkerhet. Initiativet kommer i en tid hvor lovgivere prøver å utvide eksisterende barnvernregler – som EUs Digital Services Act og USAs Children’s Online Privacy Protection Act – til AI‑drevne plattformer som ikke var tenkt da disse lovene ble skrevet. Ved å fremme en standardisert verifiseringsprotokoll håper OpenAI å forme det regulatoriske narrativet, unngå fragmenterte nasjonale forbud, og forsikre investorer om at de kan skalere produktene sine uten kostbare juridiske avbrudd. Initiativet signaliserer også et skifte fra OpenAIs tidligere fokus på åpenhet mot en mer beskyttet brukeropplevelsesmodell, i tråd med selskapets nylige strategiske partnerskap med Amazon og en bredere innsats for å innlemme ansvarlige AI‑sikringer. Det som nå vil være viktig å følge, er reaksjonene fra personvernforkjempere, som advarer om at obligatorisk verifisering kan skape nye datainnsamlingsrisikoer, samt fra konkurrerende AI‑selskaper som enten kan adoptere OpenAIs mal eller motsette seg med alternative løsninger. Lovgivende organer forventes å gjennomgå forslaget i løpet av de kommende månedene, og OpenAI har antydet en pilotutrulling av alderskontroll‑API‑er senere i år, muligens med integrasjon av tredjeparts identitetstjenester som Persona. Utfallet vil sannsynligvis bli et referansepunkt for hvordan generative AI‑produkter reguleres globalt.
45

Ny Apple TV venter på Siri: Dette er hva som kommer når den lanseres

Mastodon +6 kilder mastodon
apple
Apple gjør seg klar til å lansere en oppgradert Apple TV som endelig kobler set‑top‑boksen til en fullverdig Siri drevet av en stor språkmodell på enheten. Lekkasjer sporet tilbake til et innlegg på MacRumors 3. april beskriver en «ny Apple TV som venter på Siri» som skal sendes ut våren 2026, så snart Apples forsinkede Siri‑oppgradering er klar. Enheten forventes å kjøre på A17 Pro‑silisiumet som finnes i den nyeste iPhone 15 Pro‑serien, ha et «Liquid Glass»-grensesnitt som blander glass‑lignende gjennomsiktighet med flytende animasjoner, og leveres med tvOS 18 samt en utvidet App Store for TV‑første opplevelser. Oppgraderingen er viktig fordi Siri lenge har ligget bak konkurrenter som Google Assistant og Amazon Alexa når det gjelder samtaledypde og kontekstuell bevissthet. Ved å integrere en generativ‑AI‑motor direkte i TV‑en, kan Apple tilby sanntids‑interaksjoner med personvern i fokus – søk etter programmer, generering av spillelister eller svar på ad‑hoc‑spørsmål uten å sende data til skyen. Trekket signaliserer også Apples bredere satsing på å ta igjen i generativ‑AI‑kappløpet etter en rekke høyprofilerte feilgrep, og kan gi nytt liv til Apple TV‑hardwaren, som har slitt mot billigere streaming‑pinner og smart‑TV‑plattformer. Hva du bør holde øye med: Apples utviklerarrangement våren 2026, sannsynligvis en WWDC‑lignende presentasjon, bør avsløre det endelige maskinvaredesignet, fjernkontoroppgraderinger (inkludert en berøringsflate og innebygd mikrofonarray), og den første bølgen av Siri‑aktiverte apper. Analytikere vil være ivrige etter ytelses‑benchmarker som viser at A17 Pro kan kjøre LLM‑inferens på TV‑skala uten overoppheting. En påfølgende programvare‑beta for tvOS 18 vil teste hvordan utviklere tilpasser seg samtale‑grensesnitt, og utrullingen vil bli en litmus‑test for Apples evne til å integrere AI på enheten på tvers av økosystemet.
39

Jeg tror moroa med OpenClaw er over. Anthropic kutter tilgangen og jeg treffer grenser på

Mastodon +6 kilder mastodon
agentsanthropicllamaopenai
Anthropic har trukket støpselet på Claude‑baserte back‑enden som mange brukere stolte på for å kjøre OpenClaw, den åpne, personlige AI‑assistenten som har fått økende oppmerksomhet på Slack, Telegram og WhatsApp. Et innlegg fra fellesskapet på X den 4. april advarte om at «moroa med OpenClaw kan være over», ettersom leverandøren ikke bare har kuttet tilgangen til Claude, men også innført strengere takster på OpenAI‑nøkler, noe som tvinger noen utviklere til å vurdere lokale kjøremiljøer som Ollama. Dette trekket markerer den siste opptrappingen i Anthropics skjerpende API‑politikk. Tidligere denne uken rapporterte vi at Anthropic sluttet å tillate at Claude‑Code‑abonnementer ble brukt med OpenClaw, og at selskapet avfeide klager på bruksgrenser som «hallusinasjoner». Ved å kutte båndet til sin flaggskip‑modell tvinger Anthropic i praksis OpenClaw‑brukere til å gi opp en høy‑ytelses, sky‑basert løsning eller til å bære kostnadene ved premium‑nivåer som mange anser som uoverkommelige. Hvorfor dette er viktig, er tosidig. For det første ligger OpenClaws appell i kombinasjonen av kraftige språkfunksjoner og autonom verktøybruk; tapet av Claude medfører en merkbar nedgang i ytelse for mange arbeidsflyter. For det andre understreker hendelsen den skjøre naturen til åpen‑kilde‑prosjekter som er avhengige av proprietære AI‑tjenester, en risiko som regulatorer og investorer følger nøye med på når de vurderer bærekraften i AI‑økosystemet i Norden og utover. Det som nå er å holde øye med, er om OpenClaw‑fellesskapet kan samle seg rundt fullt lokale alternativer. Tidlige tester tyder på at Ollamas Llama‑3 og andre open‑router‑modeller kan holde assistenten funksjonell, om enn med høyere maskinvarekrav. Følg med på Anthropics neste policy‑bulletin, fremveksten av fellesskaps‑vedlikeholdte OpenClaw‑forker, og eventuelle partnerskapskunngjøringer med maskinvareleverandører som kan gjøre selv‑hostede agenter til et levedyktig, mainstream‑alternativ.
33

iFixit AirPods Max 2‑nedbrytning: Samme design, samme reparasjonsproblemer

Mastodon +6 kilder mastodon
apple
Apple sine nyeste over‑øre‑hodetelefoner, AirPods Max 2, har blitt demontert av iFixit, og nedbrytningen bekrefter at den «nye» modellen i hovedsak bare er en kosmetisk oppfriskning med en oppgradert prosessor, men med uendret intern arkitektur. Det svenske reparasjonsnettstedet rapporterer at chassiset, det magnetiske ørekopp‑systemet og de beryktede silikon‑skumputeene er identiske med 2020‑versjonen av AirPods Max, og at de samme svake punktene – kondensoppbygging i fuktige omgivelser og et ikke‑utbyttbart batterimodul – forblir uendret. Funnene er viktige fordi AirPods Max 2 ble lansert tidlig i april til en premiumpris på omtrent 550 USD, og posisjonerer dem som et flaggskip‑lydprodukt i Apples økosystem. Forbrukere og forkjempere for rett til reparasjon hadde håpet at den nye generasjonen ville ta tak i reparasjonskritikken som plaget den opprinnelige modellen. iFixits vurdering antyder at Apple fortsatt prioriterer et elegant design fremfor servicevennlighet, noe som forsterker bekymringene om at høykvalitets‑enheter vil fortsette å generere elektronisk avfall og tvinge brukerne til kostbare, kun‑Apple‑reparasjonskanaler. Som vi rapporterte 1. april, var hod
33

Hvordan Apple Watch definerte moderne helseteknologi

Mastodon +6 kilder mastodon
apple
Apple sin siste dyptgående analyse i *The Verge* hevder at Apple Watch har blitt referansepunktet for moderne helseteknologi, en påstand som styrkes av lanseringen av Series 11‑smartklokken i forrige måned. Den nye modellen legger til tre FDA‑godkjente diagnostiske apper – et elektrokardiogram på håndleddet, en blod‑oksygen‑skanner og en søvnapné‑detektor – mens den oppgraderte sensorpakken kan måle hudtemperatur, respirasjonsfrekvens og, for første gang, estimere blodsukkertrender ved hjelp av fotonisk spektroskopi. Apple kombinerer disse maskinvareforbedringene med en generativ‑AI‑helsecoach som analyserer brukerens langsiktige data og foreslår livsstilsjusteringer eller utløser en medisinsk‑gradert alarm. Betydningen strekker seg utover forbrukerelektronikk. Siden den første Apple Watch i 2015 har kontinuerlig pulsmåling og ECG‑funksjonen fra 2018 endret hvordan klinikere samler inn sanntidsdata, noe som har fått sykehus til å integrere klokke‑avledede målinger i elektroniske pasientjournaler. Forsikringsselskaper gir nå premie­rabatter til brukere som oppfyller aktivitetsmål, og farmasøytiske studier benytter i økende grad enhetens passive datastrømmer for å følge opp deltakere i kliniske studier. Ved å gjøre et motetilbehør til en medisinsk‑gradert sensorhub har Apple akselerert wearables‑markedet, presset konkurrenter til strengere nøyaktighetsstandarder og satt i gang regulatorisk dialog om forbruker‑grad diagnostikk. Fremover vil analytikere følge med på Apples neste maskinvareiterasjon – som ryktes skal inkludere en virkelig ikke‑invasiv glukosesensor og flere FDA‑godkjente screeningsverktøy. Like viktig er utrullingen av AI‑helsecoachen i iOS 18, som kan etablere en presedens for LLM‑drevet personlig medisin. Til slutt kan Apples voksende partnerskap med helsesystemer i Skandinavia og USA teste hvor langt et forbrukermerke kan påvirke kliniske behandlingsveier, en utvikling som potensielt kan redefinere balansen mellom personlig velvære og profesjonell omsorg.
33

Gratulerer med dagen, iPad: Apples nettbrett fyller 16 år

Mastodon +6 kilder mastodon
apple
Apple markerte iPadens 16‑års jubileum på tirsdag, og feiret enheten som forvandlet et nisjekonsept til en mainstream‑dataplattform. Den originale 9,7‑tommers nettbrettet, som ble avduket av Steve Jobs 27. januar 2010 og lansert 3. april, solgte 300 millioner enheter i sitt første tiår og har nå passert 670 millioner totale leveranser, ifølge de nyeste tallene fra selskapets leverandøranalytikere. Milepælen understreker hvordan iPad omformet både maskinvaredesign og programvarestrategi i hele bransjen. Den store, berørings‑første formfaktoren tvang konkurrenter til å akselerere utviklingen av nettbrett, mens utviklere skiftet fokus til iPad‑optimaliserte apper som senere ble overført til iPhone og Apple Silicon‑Mac‑er. Nettbrettet så også fremveksten av Apples nåværende økosystem av M‑serien‑brikker, da iPad Pro i 2021 ble den første forbrukerenheten som kjørte en M‑serien‑prosessor – et trekk som sløret grensene mellom laptop‑ og nettbrett‑ytelse. Apple har ikke kunngjort en spesiell jubileumsutgave, men feiringen faller sammen med selskapets vårprodukt‑syklus og den kommende Worldwide Developers Conference i juni. Analytikere forventer at Apple vil bruke anledningen til å tease neste generasjon av iPad Pro, som ryktes skal ha M4‑brikken, en mini‑LED‑skjerm med 120 Hz oppdateringsfrekvens, og dypere integrasjon av generativ AI på enheten – verktøy som har blitt rullet ut på iOS og macOS i år. Hold øye med en mulig programvareoppdatering som legger til AI‑drevne multitasking‑snarveier og en oppdatert “iPad OS 18”‑preview på WWDC. Hvis Apple følger sitt nylige mønster med tidsbegrensede kampanjer, kan en pakke med tilbehør eller en innbyttebonus dukke opp i ukene etter bursdagsfeiringen, og gi både langvarige fans og nye brukere en grunn til å oppgradere.
29

Apple lanserer første iOS 26.5, iPadOS 26.5 og macOS Tahoe 26.5 offentlige betaversjoner

Mastodon +6 kilder mastodon
apple
Apple har åpnet sine første offentlige betaversjoner av iOS 26.5, iPadOS 26.5 og macOS Tahoe 26.5, og utvider utrullingen som startet tidligere denne uken med watchOS 26.5 og tvOS 26.5. Byggene kommer fire dager etter at Apple leverte de samme versjonene til sine interne testere, og gir utviklere og entusiaster en mulighet til å undersøke de nyeste forbedringene før den planlagte lanseringen i september. 26.5‑oppdateringene er ikke bare feilrettinger; de utdyper “Liquid Glass”-designspråket som ble introdusert med iOS 26 og gir tettere integrasjon av store språkmodeller (LLM) på enheten. iOS 26.5 legger til en kontekstuell AI‑assistent som kan utforme meldinger, oppsummere e‑post og foreslå snarveier i det nye “Smart Widgets”-panelet, mens iPadOS 26.5 utvider funksjonen til å støtte fler‑vindu‑spatiale scener som krever en A14‑klassisk chip eller nyere. macOS Tahoe 26.5, den siste macOS‑versjonen som støtter Intel‑maskinvare, erstatter Launchpad med et “Apps”-rutenett, oppgraderer Spotlight med AI‑drevet spørringsforståelse, og fjerner eldre støtte for FireWire og tilpassbare mappe‑oppsett. Betaversjonene er viktige fordi de signaliserer Apples akselererende satsing på å integrere generativ AI i hele økosystemet uten å være avhengig av sky‑tjenester. Ved å eksponere funksjonene nå kan Apple samle inn ytelsesdata fra et bredt maskinvare‑grunnlag – spesielt de avtagende Intel‑Mac‑ene – og finjustere strøm‑effektiviteten på Apple‑silicon‑enheter. Den offentlige testingen gir også et innblikk i hvordan Apple planlegger å differensiere sine AI‑verktøy fra konkurrenter som i stor grad benytter eksterne API‑er. Det som bør følges med på videre, er stabiliteten til AI‑assisterte funksjoner på eldre iPhone‑12‑serier og Intel‑baserte Mac‑er, utrullingen av personvern‑sikringer rundt LLM‑er på enheten, samt om Apple vil avduke en dedikert AI‑fokusert maskinvare‑akselerator i neste maskinvare‑oppdatering. De endelige offentlige utgivelsene forventes til høsten, og utviklere vil sannsynligvis begynne å integrere de nye API‑ene i apper så snart betatesting‑syklusen er avsluttet.

Alle datoer