AI News

1090

OpenAI introduserer en Codex‑plugin for Claude Code

OpenAI introduserer en Codex‑plugin for Claude Code
HN +8 kilder hn
claudeopenai
OpenAI har lansert en Codex‑plugin som kobles direkte inn i Anthropic sin Claude Code‑miljø, og lar utviklere påkalle den første sin kodegenereringsmotor fra den andre sitt arbeidsflyt. Det åpne kildekode‑tillegget, publisert på GitHub under openai/codex‑plugin‑cc, legger til en “Use Codex”-kommando i sidepanelet til Claude Code, som gjør det mulig med ett‑klikk‑kodegjennomganger, refaktoreringforslag og oppgavedeling uten å forlate IDE‑en. Dette trekket markerer OpenAIs første forsøk på plugin‑økosystemet som Claude Code introduserte tidligere i år, en funksjon som raskt ble en nødvendighet for team som ønsker å sette sammen AI‑drevne verktøy. Ved å tilby en ferdigbygd bro håper OpenAI å utvide Codex sin rekkevidde utover sine egne lekeplasser og nå den voksende fellesskapet som har tatt i bruk Claude Code for sine agentbaserte kodeevner. Integrasjonen understreker også en skjerpende rivalisering med Anthropic, som har posisjonert Claude Code som et knutepunkt for AI‑forsterket utvikling gjennom sin egen mark
898

Claude Code‑kildekoden er lekket via en map‑fil i deres NPM‑register

Claude Code‑kildekoden er lekket via en map‑fil i deres NPM‑register
HN +17 kilder hn
anthropicclaude
Anthropic sin AI‑kodingsassistent Claude Code ble eksponert 31. mars da en sourcemap‑fil publisert i prosjektets npm‑pakke avslørte hele TypeScript‑kildetreet – mer enn 1 900 filer og en halv million kodelinjer. Sikkerhetsforsker Chaofan Shou, en praktikant hos det web3‑fokuserte firmaet FuzzLand, flagget problemet på X og påpekte at kartet refererte til en ukryptert bucket i Anthropic sin R2‑lagring, noe som gjorde det mulig for hvem som helst å laste ned hele kodebasen. Det komprimerte arkivet ble raskt speilet på GitHub, hvor et øyeblikksbilde ble lagt ut for «security research». Lekkasje er viktig av tre grunner. For det første er kildekoden Anthropic sin immaterielle eiendom; en offentliggjøring undergraver det konkurransefordelen selskapet har bygget rundt Claude Codes proprietære prompt‑ og eksekusjonsmotor. For det andre inneholder det eksponerte repositoriet interne API‑er, byggeskript og konfigurasjonsfiler som kan hjelpe angripere med å lage målrettede utnyttelser mot brukere av verktøyet. For det tredje understreker hendelsen en tilbakevendende operasjonell feil: sourcemaps, som er ment for feilsøking, blir vanligvis fjernet fra produksjonspakker, men Anthropic opplevde tidligere en lignende eksponering i februar 2025 som tvang frem en hastig fjerning av en eldre versjon fra npm. Å gjenta feilen reiser spørsmål om selskapets forsyningskjede‑hygiene og evne til å sikre utviklerverktøy som i økende grad er integrert i CI/CD‑pipelines. Anthropic har foreløpig ikke gitt en formell uttalelse, men npm‑pakken ble tatt ned innen noen timer og den problematiske sourcemap‑filen fjernet. Selskapet forventes å publisere en post‑mortem som beskriver hvordan kartet kom inn i utgivelsen og hvilke avbøtende tiltak som iverksettes. Hold øye med en oppfølging fra Anthropic om potensielle oppdateringer, eventuell rettslig handling mot forskeren som publiserte koden, og bredere bransjereaksjoner som kan skjerpe npm‑publiseringsstandarder for AI‑relaterte pakker. Episoden gjenoppliver også debatten om åpen kilde versus proprietære modeller i det raskt utviklende nordiske AI‑økosystemet.
344

Googles TurboQuant hevder store AI‑minnekutt uten å skade modellkvaliteten

Morning Overview on MSN +7 kilder 2026-03-15 news
googlevector-db
Google‑forskerne har presentert TurboQuant, en to‑trinns kvantisering‑pipeline som reduserer arbeidsminnet som kreves av store språkmodeller (LLM‑er) med opptil seks ganger, samtidig som de bevarer utdataenes kvalitet. Metoden, beskrevet i en ny arXiv‑pre‑print, bruker først PolarQuant – en tilfeldig rotasjon av datavektorer etterfulgt av høy‑presisjons‑komprimering – og finjusterer deretter resultatet med en kvantisert Johnson‑Lindenstrauss‑transformasjon. Forfatterne demonstrerer at den resulterende forvrengningen holder seg innen en faktor på 2,7 av det informasjon‑teoretiske optimum, noe som betyr at enhver ytterligere reduksjon ville overskride fundamentale grenser. Gjennombruddet er viktig fordi minne har blitt flaskehalsen for utrulling av stadig større modeller i stor skala. Selv med fremskritt som den 200‑million‑parameter‑tidsserie‑grunnmodellen med 16 k kontekst som Google lanserte tidligere i år, krever inferens fortsatt flere gigabyte RAM per forekomst. TurboQuant‑komprimeringen kan få den samme modellen til å passe inn i en brøkdel av dette rommet, noe som kutter maskinvarekostnader, senker energiforbruket og muliggjør implementering på enheter eller i kant‑miljøer som tidligere var upraktiske. For skyleverandører betyr teknikken direkte høyere modell‑tetthet per server‑rack og en målbar reduksjon i driftskostnader – et tema som ble fremhevet i vår nylige dekning av token‑effektivitet som reduserte AI‑kostnadene med 63 % i 2026. Det neste å følge med på er overgangen fra pre‑print til produksjon. Google har allerede integrert TurboQuant i sin interne inferens‑stack, men eksterne rammeverk som PyTorch og TensorFlow vil trenge kompatible kjerner før det bredere økosystemet kan ta i bruk teknikken. Selskapet har antydet at PolarQuant‑ og Johnson‑Lindenstrauss‑komponentene vil bli gjort åpen kildekode senere i år, noe som kan sette i gang en bølge av tredjepartsverktøy for minne‑første AI‑arkitekturer. Hold øye med benchmark‑utgivelser som sammenligner TurboQuant‑komprimerte modeller med basis‑LLM‑er på oppgaver fra kodegenerering til multimodal resonnering – resultatene vil vise om metoden virkelig omformer økonomien i storskala AI.
324

Universal Claude.md – kutter Claude‑utdatatoken

Universal Claude.md – kutter Claude‑utdatatoken
HN +6 kilder hn
agentsclaudestartup
Universal Claude.md – en fellesskapt konfigurasjonsfil som reduserer Claude‑utdatatoken – har blitt gjort tilgjengelig på GitHub, og lover å dempe den raske forbrukingen av bruks­kvoter som mange utviklere har klaget over. Den enkeltfilen «Claude.md»-malen, nå kalt «Universal Claude.md», injiserer konsise prompt, token‑budsjettgrenser og strengere stopp‑sekvenser i hver Claude Code‑forespørsel, og kutter dermed opptil 30 % av gjennomsnittlig svarlengde uten å gå på bekostning av modellens problemløsnings‑evne. Tiltaket er viktig fordi Claudes sjenerøse token‑tillatelse har blitt et tveegget sverd: den muliggjør rik, flerstegs‑resonnement, men den akselererer også uttømmingen av betalte kreditter, spesielt for team som kjører flere autonome agenter. Tidligere denne måneden fremhevet vi hvordan Claude Code‑agenter kan spre token‑bruk gjennom test‑, gjennomgangs‑ og refaktorings‑sløyfer. Ved å standardisere et slankere utdataformat, adresserer Universal Claude.md direkte disse kostnads‑inflasjons‑smertene og kan gjøre Claude mer attraktivt for oppstartsbedrifter og store foretak som nøye overvåker sky‑AI‑forbruket. Anthropic har ikke offisielt godkjent filen, men selskapets nylige lansering av Claude Cowork – en mac
300

💰Jeg bygde et token‑faktureringssystem for min AI‑agent – slik fungerer det

💰Jeg bygde et token‑faktureringssystem for min AI‑agent – slik fungerer det
Dev.to +6 kilder dev.to
agentsanthropicopenai
En utvikler har lansert en fullt funksjonell token‑faktureringsmotor som sporer og belaster for hver forespørsel en AI‑agent gjør til store språkmodell‑leverandører (LLM) som OpenAI og Anthropic. Agenten velger dynamisk den mest egnede modellen for hver oppgave, men den heterogene prisstrukturen – ulike satser for input versus output, modellspesifikke kostnader og varierende bruks­mønstre – gjorde faste abonnementer uholdbare. Det nye systemet registrerer det eksakte token‑antallet per kall, mapper det til hver leverandørs prisliste, samler bruk per bruker og genererer fakturaer i sanntid eller trekker fra forhåndsbetalte saldoer. Gjennombruddet er viktig fordi prisfastsettelse basert på forbruk blir den eneste levedyktige modellen for tjenester med flere LLM‑er. Når virksomheter setter sammen «agentisk AI»-pipelines som spenner over oppsummering, kodegenerering og datauttrekk, kan skjulte token‑kostnader eksplodere, erodere marginer og dempe adopsjon. Ved å eksponere detaljerte kostnadsdata gir faktureringsmotoren produkteamene den innsikten som trengs for å optimalisere modellvalg, håndheve budsjettgrenser og tilby gjennomsiktig prisfastsettelse til sluttbrukere. Den komplementerer også nylig arbeid med token‑effektivitet – som kontekst‑motoren som sparte Claude Code 73 % av token‑bruken – ved å omgjøre besparelser til målbare økonomiske fordeler. Vi kan forvente rask adopsjon av tredjepartsplattformer som integrerer lignende hovedbøker, som AgentBill.io og Blnks utviklerverktøysett, som lover ferdigpakke‑fakturering og abonnementshåndtering. Standarder for token‑regnskap vil sannsynligvis samles, muligens drevet av sky‑markedsplasser eller åpne‑kilde‑konsortier. Reguleringsmyndigheter kan snart begynne å granske AI‑relatert fakturering for rettferdighet, spesielt i EUs kommende AI‑lov. For nordiske oppstartsbedrifter kan evnen til å fakturere presist bli et konkurransefortrinn når AI‑drevne produkter skaleres på tvers av grenser.
300

Anthropic fortsatt i trøbbel til tross for rettsseier, sier advokater og lobbyister

Anthropic fortsatt i trøbbel til tross for rettsseier, sier advokater og lobbyister
HN +6 kilder hn
anthropic
Anthropics juridiske triumf forrige måned – en føderal dommer som avviste Pentagon sitt forsøk på å hindre selskapets AI fra forsvars‑kontrakter – ble hyllet som en seier for oppstartsbedriften og for bredere frihet i AI‑industrien. Som vi rapporterte 30. mars, tvang dommen Department of Defense til å trekke seg fra et generelt forbud som ville ha ekskludert Anthropics Claude‑modeller fra fremtidige anskaffelser. Like viste seg imidlertid at lettelsen var kortvarig. Advokater for selskapet og lobbyister i Washington advarer om at rettsavgjørelsen ikke fjerner en rekke andre pressmidler. En pågående forlik med Department of Justice, knyttet til påstander om at Anthropics tidligere lisensieringspraksis krenket tredjeparts patenter, er fortsatt i limbo; eksperter sier at avtalen kan bli en mal for teknologiselskaper til å løse IP‑tvister gjennom domstols‑pålagte betalinger i stedet for private avtaler. Samtidig forbereder Kongresskomiteer høringer om «AI‑sikkerhet og anskaffelsesintegritet», hvor flere medlemmer allerede peker på Pentagon‑episoden som bevis på at myndighetene trenger strengere tilsyn med private AI‑leverandører. Innsatsen er høy fordi utfallet vil avgjøre hvor raskt Anthropic kan rulle ut sin neste generasjonsmodell, Mythos, som lover ytelsesforbedringer som kan gjøre den til en kandidat for høy‑risiko forsvars‑applikasjoner. Hvis regulatorer
294

Kode rød hos OpenAI ettersom de «heller penger ned i et sort hull»

Kode rød hos OpenAI ettersom de «heller penger ned i et sort hull»
HN +6 kilder hn
openai
OpenAI har gått inn i det ledere kaller en «kode‑rød» finansiell nødsituasjon, og varsler forventede tap på 14 milliarder dollar i 2026 som kan vokse til 115 milliarder dollar innen 2029. Selskapet skal etter opplysninger lete etter en ny kapitalinjeksjon som kan overstige 100 milliarder dollar – et tall som vil overgå den siste finansieringsrunden på 13 milliarder dollar og sette markedets allerede forsiktige appetitt på AI‑utgifter på prøve. Alarmen skyldes et økende gap mellom OpenAIs inntektsstrømmer og kontorbruken. Månedlige ChatGPT‑abonnementer dekker kun en brøkdel av brukerne, mens selskapets ambisiøse, beregningsintensive prosjekter – stor‑skala modelltrening, skreddersydde bedrifts‑implementeringer og utrullingen av nye plugins som Codex‑Claude‑broen kunngjort 31. mars – fortsetter å tappe ressursene. Risikokapitalist Windsor, sitert i et nylig intervju, advarte: «forbruker‑AI‑økosystemet er et must‑win hvis det noen gang skal rettferdiggjøre den verdsettelsen. Hvis folk blir lei av å helle penger ned i et sort hull, kan du veldig raskt se hvordan selskapet havner i trøbbel.» For å dempe utstrømningen tester OpenAI alternative inntektsmodeller, inkludert en kontroversiell annonse‑støttet tier for ChatGPT og tettere integrering av tredjepartstjenester via sitt stadig voksende plugin‑økosystem. Tiltakene speiler en ukes gammel CTech‑rapport som beskrev selskapets skifte fra rene abonnement‑modeller til «nye forretningsmodeller utover månedlige abonnementer.» Hva du bør holde øye med videre: et formelt finansieringsforslag som skal presenteres i løpet av de kommende ukene, potensielle partnerskapskunngjøringer som kan diversifisere inntektene, og regulatorisk gransking av AI‑grensesnitt lastet med annonser. Konkurrenter som Anthropic og Google DeepMind vil sannsynligvis utnytte enhver oppfattet svakhet, mens investorer vil søke konkrete veier som gjør OpenAIs massive kontorbruk om til bærekraftig fortjeneste. Resultatet vil forme ikke bare OpenAIs overlevelse, men også den bredere økonomien i det forbruker‑rettede AI‑markedet.
283

Google s 200‑million‑parameter tidsserie‑grunnmodell med 16 k kontekst

Google s 200‑million‑parameter tidsserie‑grunnmodell med 16 k kontekst
HN +7 kilder hn
google
Google Research har avduket TimesFM‑2.5, en grunnmodell med 200 millioner parametere for tidsserie‑prognoser som kan behandle opptil 16 k datapunkter i ett enkelt kontekstvindu. Modellen, en kun‑dekoder‑arkitektur trent på mer enn 100 milliarder virkelige observasjoner — inkludert detaljhandelsalg, energiforbruk og finansielle indikatorer — halverer antall parametere sammenlignet med den opprinnelige TimesFM‑2.0, samtidig som den leverer høyere nøyaktighet på GIFT‑Eval zero‑shot‑benchmarken. Et 30‑million‑parameter kvantil‑hode legger til innebygd støtte for kontinuerlige kvantil‑prognoser over horisonter på opptil 1 000 trinn, og fjerner behovet for en separat frekvensindikator. Oppgraderingen er viktig fordi langtidsprognoser tradisjonelt har krevd enten massive modeller eller tungvint funksjons‑engineering for å fange fjerne tidsavhengigheter. Ved å utvide kontekstlengden fra 2 048 til 16 384 punkter, kan TimesFM‑2.5 direkte modellere sesongmønstre som strekker seg over måneder eller år uten avkortning, noe som forbedrer stabiliteten for langtids‑spådommer. Den reduserte størrelsen gir også lavere minnebruk og raskere inferens, i tråd med Googles tidligere TurboQuant‑påstand om seks‑doblet minnebesparelse for store modeller. Bedrifter som er avhengige av nøyaktig etterspørselsplanlegging, nettbalansering av strøm eller makroøkonomiske utsikter, kan dra nytte av en mer rimelig, plug‑and‑play‑prognosemotor. Det som nå er å følge med på, er hvordan modellen integreres i Google Clouds AI‑tjenester og om tredjepartsplattformer vil ta den i bruk for domene‑spesifikk finjustering. Tidlige brukere vil sannsynligvis benchmarke TimesFM‑2.5 mot proprietære løsninger innen finans og energi, mens forskningsmiljøet vil teste dens zero‑shot‑evner på nye datasett som klimasoner‑sensorstrømmer. Oppfølgingskunngjøringer om API‑tilgjengelighet og prisfastsettelse vil avgjøre om modellen endrer økonomien i bedrifts‑tidsserie‑analyse.
245

Pentagons kulturkrigstaktikk mot Anthropic har slått tilbake

Pentagons kulturkrigstaktikk mot Anthropic har slått tilbake
HN +6 kilder hn
anthropic
En føderal dommer i California avsa torsdag en midlertidig pålegg som stanser Pentagons forsøk på å merke Anthropics AI‑pakke som en «forsyningskjederisiko» og forby dens bruk i alle forsvarsbyråer. Pålegget, som ble innvilget etter en kort høring, hindrer Forsvarsdepartementet i å utstede den direktivet som ville ha tvunget byråene til å erstatte Anthropic‑verktøy med alternativer fra Google, OpenAI og xAI. Tiltaket stammer fra en Pentagon‑initiativert «kulturkrig»-kampanje som fremstilt Anthropics teknologi som en sikkerhetsrisiko, til tross for interne vurderinger som ikke fant noen konkret trussel. Juridiske analytikere beskriver departementets begrunnelse som «tvilsom juridisk tenkning» som er mer ideologisk enn evidensbasert, og advarer om at pålegget kan utløse en bølge av søksmål fra Anthropic og deres bransjepartnere. Selskapets advokater har allerede signalisert intensjon om å saksøke Pentagon, Justisdepartementet og Kontoret for forvaltning og budsjett for det de kaller en ulovlig «straff» av en kommersiell leverandør. Pålegget er viktig fordi det understreker den økende spenningen mellom amerikansk forsvarsanskaffelsespolitikk og den raskt utviklende AI‑sektoren. Ved å forsøke å utpeke én enkelt leverandør, risikerte Pentagon å sette en presedens for politisk innblanding i teknologivalg, noe som potensielt kan dempe innovasjon og komplisere integreringen av avanserte AI‑verktøy som militæret i økende grad er avhengig av for logistikk, etterretningsanalyse og autonome systemer. Følg med på Pentagons respons på rettsavgjørelsen og om de vil anke eller revidere sin anskaffelsesstrategi. Departementet forventes å utstede et revidert risikovurderingsrammeverk innen noen uker, og Kongressen kan snart holde høringer om de bredere implikasjonene av å politisere AI‑forsyningskjede‑beslutninger. Som vi rapporterte 30. mars, kan Anthropics juridiske kamp mot Pentagon forme fremtidig AI‑regulering; dette rettslige tilbakeslaget legger til et nytt lag i den pågående historien.
236

Nevro‑symbolsk læring for prediktiv prosessovervåkning via to‑trinns logiske tensor‑nettverk med regelbeskjæring

ArXiv +6 kilder arxiv
healthcare
Et team av forskere fra Universitetet i Trento og Norges teknisk‑naturvitenskapelige universitet (NTNU) har publisert en ny arXiv‑preprint, «Neuro‑Symbolic Learning for Predictive Process Monitoring via Two‑Stage Logic Tensor Networks with Rule Pruning». Artikkelen foreslår en hybridarkitektur som kombinerer dype sekvensmodeller med symbolsk logikk for å forutsi neste steg i forretningsprosesser – en evne som er sentral for svindeldeteksjon, overvåking av helserelaterte arbeidsflyter og risikostyring i forsyningskjeder. Kjernen i metoden er en to‑trinns pipeline. Først fanger en nevralkoder – typisk en transformer eller LSTM – opp tidsmessige mønstre i hendelsesloggene. I andre trinn mates den kodede representasjonen inn i et logisk tensor‑nettverk som håndhever domenespesifikke begrensninger, for eksempel «en betaling må følge en faktura» eller «en medikamentdosering kan ikke overstige en foreskrevet grense». En ny regelbeskjærings‑algoritme forkaster redundante eller lav‑påvirknings‑logiske klausuler, slik at modellen forblir både kompakt og tolkningsbar. Benchmark‑tester på offentlig tilgjengelige hendelseslogg‑datasett (f.eks. BPI Challenge 2019 og et korpus av sykehusinnleggelser) viser en 5‑7 % løft i prediksjonsnøyaktighet sammenlignet med rene nevrale baselines, samtidig som de gir klare forklaringer for hver prognose. Hvorfor dette er viktig, er to‑fold. Nøyaktighetsgevinster omsettes direkte til tidligere svindelvarsler eller rettidige kliniske inngrep, noe som reduserer både økonomisk tap og pasientskade. Enda viktigere er at det symbolske laget oppfyller regulatoriske krav til sporbarhet: revisorer kan inspisere hvilke forretningsregler som lå til grunn for en prediksjon, en funksjon som rene svart‑boks‑modeller mangler. Tilnærmingen peker også på en bredere overgang mot nevro‑symbolsk KI i operative miljøer, hvor etterlevelse og forklarbarhet er ufravikelige. Neste steg å følge med på inkluderer en kommende evaluering på International Conference on Business Process Management, hvor forfatterne vil sammenligne systemet sitt med de mest avanserte diffusjons‑baserte prediktorene som ble diskutert i vår artikkel om A‑SelecT fra 31. mars. Industrielle pilotprosjekter med skandinaviske banker og en regional helsemyndighet er planlagt for Q3, og fagmiljøet vil være ivrig etter å se om regelbeskjærings‑teknikken skalerer til de massive, støyende loggene som er typiske for virkelige implementeringer.
217

Ollama er nå drevet av MLX på Apple Silicon i en forhåndsvisning

Ollama er nå drevet av MLX på Apple Silicon i en forhåndsvisning
HN +7 kilder hn
applellama
Ollama, den åpne kildekode‑plattformen som lar utviklere kjøre store språkmodeller lokalt, kunngjorde en forhåndsvisningsversjon som utnytter Apples MLX‑rammeverk for å hente ut full kraft fra Apple Silicon. Oppdateringen erstatter den generiske kun‑CPU‑bakenden med en MLX‑drevet kjører som kjøres som en egen underprosess og kommuniserer med Ollamas hovedserver over HTTP. Tidlige tester viser en «stor hastighetsøkning» på macOS, og reduserer inferens‑latensen for personlige assistent‑boter som OpenClaw og for kode‑agenter som Claude Code, OpenCode og Codex. Dette trekket er viktig fordi det viser hvordan Apples lavnivå maskinlærings‑stack kan utnyttes av tredjepartsverktøy for å levere AI på enheten som kan måle seg med skybaserte tjenester når det gjelder respons, samtidig som personvernet bevares. Ved å utnytte den samlede minnearkitekturen og Neural Engine i M‑seriens brikker, reduserer MLX behovet for eksterne GPU‑er og senker strømforbruket – sentrale faktorer for utviklere som retter seg mot bærbare og stasjonære maskiner som kjører AI‑arbeidsbel
204

Jeg bygde en kontekstmotor som sparer Claude Code 73 % av tokenene sine på store kodebaser

Jeg bygde en kontekstmotor som sparer Claude Code 73 % av tokenene sine på store kodebaser
Dev.to +5 kilder dev.to
agentsclaude
En utvikler‑som‑ble‑åpen‑kilde‑bidragsyter har avduket en «kontekstmotor» som kutter token‑budsjettet Claude Code trenger for å jobbe med omfattende repositorier. Rocco Castoro la ut det Python‑baserte verktøyet 31. mars, og viste at i et prosjekt med 829 filer brukte Claude Code omtrent 45 000 token bare for å finne riktig kodebit. Ved å forhånds‑indeksere kodebasen og kun mate modellen de mest relevante fragmentene, reduserte motoren dette tallet med 73 %, og senket token‑antallet til rundt 12 000 ved den tredje runden i en samtale. Gjennombruddet er viktig fordi Claude Codes token‑forbruk har blitt en flaskehals for team som er avhengige av modellen for automatisert kodehjelp. Som vi rapporterte 31. mars, ble Anthropics bruksgrenser nådd raskere enn forventet, noe som vekket bekymring for kostnader og skalerbarhet. Færre token betyr lavere API‑regninger, raskere responstider og en mindre angrepsflate for utilsiktet kodelekkasje – et hett tema etter den nylige lekkasjen av Claude‑kildekoden via NPM‑registeret. I tillegg er motoren i tråd med Anthropics egen satsing på modeller med lengre kontekst, som den nylig kunngjorte Claude Opus 4.6, ved å utnytte det utvidede vinduet uten å øke rå token‑antall. Det neste å holde øye med er om Anthropic vil innlemme teknikken
195

# OpenAI    # ChatGPT   Chat‑høydepunkter

Mastodon +7 kilder mastodon
dall-egooglegpt-4openai
OpenAI har utvidet rekkevidden til sin flaggskip‑chatbot ved å lansere en offisiell Telegram‑bot og skyve en oppdatert Android‑app til Google Play. Den nye boten, @OpenAI_chat_GPTbot, lar brukere starte en samtale med ChatGPT, generere bilder med DALL‑E 3 og påkalle den stemmeaktiverte assistenten “Lucy” uten å forlate meldingsplattformen. Lanseringen kommer sammen med en Android‑oppdatering som annonserer tilgang til GPT‑4o – selskapets nyeste og mest kapable modell – og har en vurdering på 4,7 stjerner til tross for en beskjeden banner for kjøp i appen. Dette markerer OpenAIs første forsøk på å gå inn i mainstream‑meldingsapper, et område som lenge har vært dominert av tredjeparts‑integrasjoner som ofte mangler offisiell støtte eller gjennomsiktig databehandling. Ved å tilby et eget Telegram‑grensesnitt kan OpenAI håndheve sine bruksretningslinjer, samle klarere bruksstatistikk og potensielt selge ChatGPT Plus‑abonnementet til et bredere, mobil‑først publikum. Android‑utgivelsen konsoliderer selskapets satsning på å gjøre sine modeller til standard AI‑assistent på smarttelefoner, og utfordrer konkurrenter som Google Gemini og Metas Llama‑2. Bransjeobservatører bemerker at timingen sammenfaller med økende spekulasjoner om en kommende GPT‑5, hvor flere russisktalende nettsteder allerede reklamerer for “ChatGPT‑5”-versjoner som hevder ubegrenset tilgang. Selv om OpenAI ikke har bekreftet en neste‑generasjonsmodell, understreker oppstyret etterspørselen etter stadig kraftigere samtaleagenter og presset for raskt å kommersialisere dem. Hva man bør følge med på videre: OpenAIs bruker‑veksttall på Telegram og i Android‑butikken vil vise om strategien utvider økosystemet eller fragmenterer det. Reguleringsmyndigheter kan også sette søkelyset på botens personvern‑sikringer, spesielt med tanke på nylige bekymringer om token‑tyveri‑sårbarheter i OpenAIs kode‑relaterte tjenester. Til slutt vil enhver formell kunngjøring av GPT‑5 – og om den vil rulles ut gjennom de samme kanalene – være en viktig indikator på hvor aggressivt OpenAI har tenkt å holde seg i front i den raskt utviklende generative‑AI‑kappløpet.
192

📰 Universal Claude‑token‑effektivitet kutter AI‑kostnader med 63 % i 2026 – Et banebrytende åpen‑kilde‑verktøy

📰 Universal Claude‑token‑effektivitet kutter AI‑kostnader med 63 % i 2026 – Et banebrytende åpen‑kilde‑verktøy
Mastodon +7 kilder mastodon
claudeopen-source
Universal Claude.md, et åpen‑kilde‑«drop‑in»‑fil som ble publisert på GitHub, reduserer antallet utgående token for Anthropics Claude‑modeller med omtrent 63 %. Repositoriet, lagt ut under navnet *claude-token‑efficient*, fungerer uten noen kodeendringer: utviklere legger bare markdown‑filen til et prosjekt, og Claudes svar blir merkbart mindre ordtunge, uten smiskende formuleringer, overflødig formatering og fylltekst. Reduksjonen er viktig fordi Claudes prisfastsettelse er token‑basert, og selv om inngangstokenene dominerer regningen, utgjør utgangstokenene fortsatt en betydelig del for langformede oppgaver som kodeskriving, dokumentasjon eller analytiske sammendrag. Ved å korte ned gjennomsnittslengden på svarene kan Universal Claude.md kutte de månedlige driftskostnadene for tunge brukere med opptil to tredjedeler, ifølge fellesskapets måledata. Effektivitetsgevinsten gir også raskere behandlingstid, ettersom færre token betyr redusert latens i inferens og lavere minnepress på den underliggende maskinvaren. Som vi rapporterte 31. mars, dukket verktøyet først opp som en kuriositet i artikkelen «Universal Claude.md – cut Claude output tokens» (id 853). Siden da har antallet GitHub‑stjerner steget til over 1 200, og flere åpne‑kilde‑AI‑verktøykasser har begynt å pakke filen som standardkonfigurasjon. Anthropic har ikke kommentert offentlig, men selskapets nylige fokus på prisnivåene for «Claude 3 Opus» antyder at de kan følge med på fellesskapsdrevet optimalisering. Hva du bør holde øye med videre: om Anthropic integrerer en innebygd token‑effektivitets‑flagg i API‑et, noe som potensielt kan gjøre tredjeparts‑hacks overflødige; fremveksten av lignende «universelle agenter» for andre modeller som GPT‑4o eller Gemini; og hvordan bedriftsbrukere integrerer filen i CI‑pipelines for å håndheve kostnads
190

Populær Twitter‑bruker «forklarer» hvordan Sam Altmans OpenAI kan ha forårsaket den verste forbruker‑maskinvarekrisen med kjøpsordrer som aldri var reelle – The Times of India

Mastodon +7 kilder mastodon
openai
En populær Twitter‑tråd har tent ny debatt om OpenAIs rolle i den pågående forbruker‑maskinvarekrisen. Innlegget, skrevet av en velkjent teknologikommentator, hevder at selskapets «letters of intent» fra oktober 2025 med Samsung og SK Hynix – som lovet opptil 900 000 DRAM‑wafere per måned, omtrent 40 % av verdens totale produksjon – ved en feil ble tolket som faste kjøpsordrer. Ifølge tråden førte denne feiltolkningen til spekulasjon i markedet, noe som fikk distributører og OEM‑er til å låse ned lagerbeholdning og drive RAM‑prisene til rekordnivåer, en oppgang som har mer enn firedoblet kostnadene for spillere, datasenteroperatører og vanlige PC‑brukere. Påstanden er viktig fordi den viser hvordan AI‑hype kan spre seg gjennom helt andre forsyningskjeder. Trening av dagens fremste modeller, som OpenAIs GPT‑5.4, krever enestående minnebåndbredde, noe som får selskaper til å signalisere store innkjøp lenge før kontrakter er undertegnet. Når slike signaler forsterkes av media og investorer, kan de skape kunstig knapphet, inflasjonere priser og belaste produsenter som allerede sliter med chipskorten etter pandemien. For forbrukerne er konsekvensene håndgripelige: lengre ventetid på bærbare PC‑er, høyere oppgraderingskostnader og strammere marginer for skyleverandører som viderefører prisøkningene til sluttbrukerne. Det som nå er viktig å følge med på, er om OpenAI vil gi en formell avklaring om statusen til avtalene med Samsung og Hynix, og hvordan de to chipprodusentene responderer. Reguleringsmyndigheter kan også undersøke om slike fremtidsrettede uttalelser utgjør markedsmanipulasjon, særlig ettersom EU og USA skjerper tilsynet med AI‑relaterte forsyningskjede‑opplysninger. Til slutt vil bransjeobservatører holde øye med om andre AI‑laboratorier demper sine innkjøpskunngjøringer, noe som potensielt kan endre etterspørselskurven for høy‑båndbredde‑minne og hindre en gjentakelse av den nåværende maskinvare‑boblen.
185

OpenAI Codex‑sårbarhet gjorde det mulig for angripere å stjele GitHub‑token

Mastodon +7 kilder mastodon
openai
OpenAI sin Codex‑motor for kodegenerering inneholdt en skjult Unicode‑kommando‑injeksjonsfeil som kunne utløses via ondsinnede Git‑grennavn, og som tillot angripere å kapre GitHub‑personlige tilgangstoken. Sikkerhetsforskere har avdekket at sårbarheten stammer fra Codex sin automatiske parsing av gren‑identifikatorer når den foreslår kodeendringer. Ved å sette inn en spesiallaget Unicode‑sekvens kan en motstander injisere en skall‑kommando som kjøres på utviklerens maskin eller CI‑runner, leser det lagrede tokenet og eksfiltrerer det til en ekstern server. Feilen var aktiv i standard‑Codex‑konfigurasjonen som brukes av mange IDE‑plugins og av OpenAI sin egen Codex‑drevne GitHub‑integrasjon. Bruddet er kritisk fordi et stjålet token gir full lese‑ og skrivetilgang til brukerens repositorier, hemmeligheter og arbeidsflytfiler, og åpner døren for leverandørkjede‑angrep som kan kompromittere nedstrøms prosjekter. Hendelsen kommer etter en bølge av AI‑relaterte prompt‑injeksjonsutnyttelser – som “PromptPwnd”‑angrepene mot GitHub Actions og Shai‑Hulud 2.0‑leverandørkjede‑kampanjen – og understreker hvordan AI‑assistenter kan bli en uventet angrepsflate i DevOps‑pipelines. OpenAI har sluppet en nød‑oppdatering som sanitiserer gren‑navn og deaktiverer den sårbare kodeveien, og oppfordrer utviklere til å oppdatere til den nyeste Codex‑versjonen, rotere alle eksponerte token og revidere nylige commits for uautoriserte endringer. Selskapet har også lovet en formell sikkerhetsadvisory og en CVE‑identifikator i løpet av de kommende dagene. Hva man bør følge med på videre: om OpenAI vil utvide fiksen til andre modeller som deler samme parsing‑logikk, hvor raskt konkurrerende verktøy som GitHub Copilot og Google Gemini adresserer lignende risikoer, og om regulatorer vil kreve strengere sikkerhetsstandarder for AI‑kodeassistenter. Episoden vil sannsynligvis akselerere gransking av AI‑drevne utviklingsverktøy og presse leverandører mot mer robust input‑validering og styrking av leverandørkjeden.
180

📰 LLM Buyout Game Benchmark 2026: Hvordan GPT‑5.4 overlistet GLM‑5 i AI‑strategiduell

📰 LLM Buyout Game Benchmark 2026: Hvordan GPT‑5.4 overlistet GLM‑5 i AI‑strategiduell
Mastodon +7 kilder mastodon
benchmarksgpt-5
OpenAI sin nyeste flaggskip‑modell, GPT‑5.4, har tatt førsteplassen i LLM Buyout Game Benchmark 2026, og overlistet den Kina‑opprinnelige GLM‑5 i en fler‑runders simulering av koalisjonspolitikk, høyrisiko‑finansforhandlinger og sluttspill‑overlevelse. Benchmark‑testen setter åtte store språkmodeller opp mot hverandre i en spill‑teoretisk arena hvor hver modell starter med en ulik kapitalbeholdning, en felles premie­pott og frihet til å inngå skjulte overføringer eller «back‑door»-avtaler. Over en serie på ti runder klarte GPT‑5.4 konsekvent å sikre den høyeste netto‑avkastningen, ved å utnytte sitt utvidede kontekstvindu på én million token og et nyinnført, innebygd datamaskin‑bruk‑lag som lar den forespørre og manipulere enhetsressurser i sanntid. Resultatet er viktig fordi Buyout‑Game‑testen går utover tradisjonelle måleparametere som kodegenerering eller faktuell gjenkalling, og undersøker modellens evne til å planlegge, forhandle og forutse motstandernes trekk – ferdigheter som ligger til grunn for bedrifts‑M&A‑rådgivning, suverene formuesfond‑strategi og til og med diplomatisk scenario‑planlegging. GPT‑5.4‑seieren signaliserer at OpenAI sin nyeste arkitektur ikke bare er større, men også mer dyktig i strategisk aritmetikk, et område der tidligere modeller, inkludert GLM‑5, kun har vist beskjedne forbedringer. Prestasjonsgapet reiser også spørsmål om konkurranselandskapet: selv om GLM‑5.1 nylig har redusert kode‑gapet i forhold til Claude Opus 4.6, henger den fortsatt etter i komplekse forhandlingsdynamikker. Fremover vil AI‑samfunnet følge den neste iterasjonen av benchmark‑testen, som lover å legge til flere ulike deltakere som Anthropic sin Claude Opus 5 og Google Gemini 1.5, samt introdusere stokastiske markedssjokk som tester robusthet under usikkerhet. OpenAI har antydet en lansering av GPT‑5.5 senere i år, sannsynligvis med en utvidelse av OS‑world‑interaksjonspoengsummen utover dagens 75 prosent. Reguleringsmyndigheter og finansinstitusjoner begynner samtidig å utforme retningslinjer for AI‑drevet avtale­making, noe som gjør de strategiske evnene som demonstreres i dag til en potensiell katalysator for både kommersielle produkter og politiske rammeverk.
169

God morgen! Jeg ønsker deg en fantastisk dag! Det originale bildet og prompten kan finnes her:

Mastodon +7 kilder mastodon
En digital kunstner har satt i gang en ny bølge av oppmerksomhet på plattformen PromptHero ved å legge ut en AI‑generert illustrasjon med tittelen «God morgen! Jeg ønsker deg en fantastisk dag!». Verkets motiv er en stilisert tegneserie‑jente som holder en kaffekopp foran en bakgrunn fylt av soloppgang, og den er laget med den åpne kildekode‑modellen Flux AI. Sammen med bildet ble en offentlig delt prompt‑lenke publisert (https://prompthero.com/prompt/2383825d754). Innen noen timer hadde bildet samlet tusenvis av likes og en rekke reposts på Twitter, Instagram og nisje‑AI‑kunst‑forum, hvor brukerne merket innlegget med #fluxai, #AIart, #generativeAI og andre relevante fellesskapshashtagger. Episoden viser hvordan generative‑bildeverktøy beveger seg fra eksperimentelle laboratorier til daglig visuell kommunikasjon. Flux, en diffusjonsmodell som ble lansert tidligere i år, får ros for sin høyoppløselige output og relativt lave beregningskostnad, noe som gjør den tilgjengelig for hobbyister og små studioer. Ved å publisere den eksakte prompten inviterer skaperen til replikasjon og remiks, og gjør verket til en de‑facto‑mal for «god‑morgen»-hilsener som kan tilpasses med ulike motiver eller stiler. Denne åpne‑prompt‑kulturen akselererer kunnskapsdeling, men reiser også spørsmål om originalitet, attribusjon og potensiell metning av liknende innhold i sosiale strømmer. Bransjeobservatører vil følge med på om plattformer som PromptHero innfører proveniens‑metadata eller lisensieringsalternativer for å beskytte kunstneres bidrag. Samtidig kan den økende mengden AI‑genererte gratulasjonskort få tradisjonelle grafisk‑design‑tjenester til å ta i bruk hybride arbeidsflyter som kombinerer menneskelig retning med modell‑drevet rendering. De kommende ukene kan også bringe merker som eksperimenterer med on‑demand AI‑kunst for markedsføringskampanjer, for å teste om nyheten med umiddelbart genererte, personaliserte visuelle elementer omsetter til målbar engasjement. Etter hvert som fellesskapet finpusser prompt‑engineering og modell‑fin‑tuning, vil skillet mellom skreddersydd illustrasjon og algoritmisk output fortsette å bli uklart.
160

Nytt IAEA‑forskningsprosjekt bruker maskinlæring for bedre å forutsi polymerendringer under stråling

Nytt IAEA‑forskningsprosjekt bruker maskinlæring for bedre å forutsi polymerendringer under stråling
International Atomic Energy Agency +7 kilder 2026-03-23 news
Det internasjonale atomenergibyrået (IAEA) har lansert et koordinert forskningsprosjekt som skal anvende maskinlæringsteknikker på den langvarige utfordringen med å forutsi hvordan ioniserende stråling endrer polymerstrukturer. Byråets utlysning av forslag, som ble publisert denne uken, inviterer universiteter, nasjonale laboratorier og industripartnere til å utvikle datadrevne modeller som kan forutsi kjedeavskjæring, kryssbinding og sprøhet i det brede spekteret av polymerer som brukes i kjernekraftverk, medisinsk utstyr, romfartshardware og beholdere for radioaktivt avfall. Strålingsindusert nedbrytning er et kritisk pålitelighetsproblem: polymerforseglinger, kabelkåper og skjermingsfolie kan svikte uventet, noe som kan føre til kostbare nedstengninger eller sikkerhetshendelser. Tradisjonelle tilnærminger baserer seg på tidkrevende eksperimenter og fysikkbaserte simuleringer som har vanskeligheter med å fange den komplekse kjemien i høyenergi‑partikkelinteraksjoner. Ved å trene algoritmer på eksisterende nedbrytningsdatasett og på nye målinger som genereres i prosjektet, har forskerne som mål å lage prediktive verktøy som
158

RE: https:// mastodon.social/@wearenew_publ ic/116324535438933195 🖋️ Vi er stolte av å ha tod

RE:   https://  mastodon.social/@wearenew_publ  ic/116324535438933195    🖋️ Vi er stolte av å ha tod
Mastodon +6 kilder mastodon
Et nordisk aktivistkollektiv kjent som WeAreNew Public kunngjorde på Mastodon at de formelt har støttet den nylig publiserte Pro‑Human AI Declaration. Gruppen, som ble etablert i 2018 for å motvirke det grunnleggerne beskrev som «misbruk av menneskerettigheter fra teknologiselskaper», uttalte at erklæringens prinsipper er i tråd med deres langvarige oppdrag om å beskytte verdighet, personvern og demokratisk deltakelse i en æra med stadig mer autonome systemer. Pro‑Human AI Declaration ble utarbeidet forrige måned av en koalisjon av NGO‑er, akademiske forskere og tidligere politikere fra hele Europa og Nord-Amerika. Den krever obligatorisk åpenhet i algoritmisk beslutningstaking, håndhevbare grenser for biometrisk overvåkning, og en juridisk rett for enkeltpersoner til å utfordre automatiserte resultater. Ved å signere på blir WeAreNew Public med i en gruppe på mer enn 70 organisasjoner som har lovet å holde regjeringer og selskaper ansvarlige for disse standardene. Støtten er viktig fordi den tilfører en tydelig, grasrotstemme fra Norden til en debatt som allerede former EU‑s reguleringsagenda for kunstig intelligens. Lovgivere forbereder en andre lesning av AI‑forslaget, og press fra sivilsamfunnet kan påvirke innføringen av strengere beskyttelsestiltak for sårbare grupper. Dessuten resonnerer erklæringens vekt på «menneskesentrert» design med nylige bransjetiltak, som OpenAIs utrulling av bedriftsnivå‑kontroller for plugins, noe som tyder på en konvergens mellom politikk og markedsinsentiver. Observatører vil følge med på om erklæringen fører til konkret lobbyvirksomhet på EU‑nivå, får selskaper til å adoptere retningslinjene, eller resulterer i et regionalt toppmøte om AI‑etikk organisert av WeAreNew Public. De kommende ukene kan bli preget av at gruppen publiserer et politisk notat og mobiliserer sitt nettverk for koordinert handling i forkant av EUs offentlige høringsfrist i juni.
154

Lær Claude Code ved å gjøre, ikke ved å lese

Lær Claude Code ved å gjøre, ikke ved å lese
HN +7 kilder hn
claude
Anthropic har lansert en praktisk læringsopplevelse for Claude Code, deres AI‑drevne kodeassistent, som lar brukere begynne å kode i produktet uten noen lokal installasjon eller forkunnskap i programmering. Veiledningen «Lær Claude Code ved å gjøre, ikke ved å lese», som ble lansert denne uken, erstatter tradisjonell dokumentasjon med et interaktivt kurs som guider lærende gjennom virkelige oppgaver – automatisering av regneark, generering av rapporter og refaktorering av kodebiter – direkte i Claude Code‑grensesnittet. Dette er viktig fordi det senker inngangsbarrieren for et verktøy som hittil hovedsakelig har appellert til utviklere som er komfortable med kommandolinjegrensesnitt og plugin‑økosystemer. Ved å fjerne behovet for å installere CLI eller konfigurere eksterne redaktører, ønsker Anthropic å tiltrekke seg ikke‑tekniske fagfolk som kan dra nytte av AI‑assistert automatisering. Tilnærmingen speiler også en bredere bransjeskifte mot erfaringsbasert læring, og gjenspeiler lignende initiativer fra OpenAIs Codex‑plugins og GitHub Copilots «learn by coding»-labber. Anthropics strategi bygger på nylig omtale av Claude Codes økosystem, inkludert CLI‑kvote‑tømmende feil rapportert 30. mars og Codex‑Claude‑integrasjonen kunngjort 31. mars
144

Claude Code‑brukere treffer bruksgrense «veldig raskere enn forventet»

Claude Code‑brukere treffer bruksgrense «veldig raskere enn forventet»
HN +5 kilder hn
anthropicclaude
Anthropics Claude Code, selskapets AI‑drevne kodeassistent, går tom for kvote langt raskere enn brukerne hadde forventet. Innen få dager etter utrullingen i mars 2026 får utviklere i Norden og resten av verden meldinger om «Claude usage limit reached», ofte etter bare noen hundre token‑forespørsler. Advarselsskjermen viser en nedtelling til neste nullstilling, og etterlater team midt i en sprint som må finne alternative løsninger. Den plutselige uttømmingen er viktig fordi Claude Code ble markedsført som et kostnadseffektivt alternativ til konkurrenter som GitHub Copilot og OpenAIs Code Interpreter, med et Claude Pro‑abonnement på $200 per år som lovet sjenerøse token‑kvoter. Tidlige adopterende selskaper rapporterer om stoppede pull‑requests, ødelagte CI‑pipelines og en økning i support‑henvendelser, noe som tvinger noen til å gå tilbake til manuelle kodegjennomganger eller bytte verktøy midt i et prosjekt. Problemet truer også Anthropics troverdighet etter en rekke sikkerhetsrelaterte tilbakeslag – inkludert NPM‑kildekodele
135

claude-code/src/utils/userPromptKeywords.ts på 642c7f944bbe5f7e57c05d756ab7fa7c9c5035cc · chatgptprojects/claude-code

claude-code/src/utils/userPromptKeywords.ts på 642c7f944bbe5f7e57c05d756ab7fa7c9c5035cc · chatgptprojects/claude-code
Mastodon +6 kilder mastodon
claude
Et nytt innslag i det åpne kildekode‑prosjektet Claude‑Code har innført et profanity‑filter i verktøyets prosessering av bruker‑prompt. Endringen, som ble gjort i filen `src/utils/userPromptKeywords.ts` i commit 642c7f944bbe5f7e57c05d756ab7fa7c9c5035cc, legger til et regulært uttrykk – `negativePattern` – som fanger opp et bredt spekter av vulgære og støtende uttrykk som «wtf», «omfg», «shit», «dumbass» og «what the hell». Når en brukers prompt inneholder noen av disse termene, vil Claude‑Code nå flagge eller avvise forespørselen før den når den underliggende språkmodellen. Dette trekket gjenspeiler et økende fokus på sikkerhet og innholdsmoderering i AI‑assisterte utviklingsverktøy. Claude‑Code, et fellesskapsdrevet omslag rundt Anthropics Claude‑modell med særlig vekt på kodegenerering, har blitt rost for sin fleksibilitet, men også gransket for av og til å gjenskape tonen i bruker‑input. Ved å filtrere ut profanity allerede på prompt‑nivå, ønsker prosjektet å dempe spredning av fiendtlig språk, redusere risikoen for misbruk av modellen, og tilpasse seg nye bransjestandarder som krever ansvarlig AI‑atferd. Endringen signaliserer også at selv nisje‑AI‑prosjekter rettet mot utviklere tar i bruk de samme sikkerhetstiltakene som større plattformer har implementert. Utviklere bør følge med på hvordan filteret rulles ut i neste versjon av Claude‑Code, og om vedlikeholderne eventuelt utvider det til å dekke andre former for giftig innhold, som hatytringer eller forbudte instruksjoner. Fellesskapets respons – enten regex‑mønsteret oppfattes som for inngripende eller som et nødvendig skritt – vil forme fremtidige moderasjonsretningslinjer. I tillegg kan oppdateringen inspirere andre åpne AI‑verktøy til å innføre lignende sikkerhetstiltak, noe som potensielt vil føre til en bredere konvergens mot grunnleggende sikkerhetsstandarder i AI‑koding‑økosystemet.
128

📰 Claude Code kildekode lekket: Anthropic sitt AI‑system avslørt i 2026 (Detaljert analyse)

Mastodon +6 kilder mastodon
anthropicclaude
Anthropics Claude Code – den AI‑drevne kodeassistenten som har blitt omtalt som en «pair programmer» for bedriftsutviklere – ble eksponert 31. mars da et sourcemap lastet opp til det offentlige npm‑registeret avslørte hele depotet. Lekkasje, først bemerket av sikkerhetsforsker Chaofan Shou på X, inkluderte ikke bare den sentrale inferens‑pipelines, men også en skjult «KAIROS»-modul som kjører en autonom «autoDream»-rutine for å rense og reorganisere minnet mens brukeren er inaktiv. Bruddet er viktig fordi Claude Code ligger i hjertet av Anthropics investering på 2,5 milliarder dollar i neste generasjons kodegenerering. Dens proprietære prompt‑motor, token‑optimaliseringslag og KAIROS‑bakgrunnsmodus var ment å gi Anthropic et konkurransefortrinn over rivaler som OpenAIs Codex og Microsofts Copilot. Med kildekoden nå offentlig søkbar, kan konkurrenter dissekere arkitekturen, replikere optimaliseringstriks, og potensielt weaponisere autoDream‑funksjonen for å utløse utilsiktet kodeutførelse i nedstrøms‑distribusjoner. Anthropic bekreftet hendelsen innen timer, tilbakekaller den kompromitterte npm‑pakken, roterer API‑nøkler og igangsetter en intern revisjon av sine forsyningskjede‑kontroller. Selskapet advarte bedriftskunder om at enhver integrasjon bygget på den lekkede versjonen bør erstattes umiddelbart, og lovet å publisere en post‑mortem senere denne måneden. Hva som skjer videre: open‑source‑samfunnet har allerede begynt å forke den lekkede koden, noe som kan fremskynde tredjepartsverktøy, men også avdekke sårbarheter som ondsinnede aktører kan utnytte. Reguleringsmyndigheter i EU og USA forventes å stille spørsmål ved Anthropics hygiene i programvare‑forsyningskjeden, og investorer vil se etter en konkret handlingsplan for utbedring. En oppfølgingsuttalelse fra Anthropics CTO, planlagt til tidlig april, vil sannsynligvis sette tonen for hvordan selskapet gjenoppretter tilliten og om KAIROS‑modulen blir avviklet eller ombygget for transparent bruk.
127

OrboGraph vinner 2026 Artificial Intelligence Excellence Award i svindeldeteksjon og forebygging

OrboGraph vinner 2026 Artificial Intelligence Excellence Award i svindeldeteksjon og forebygging
Las Vegas Sun +9 kilder 2026-03-28 news
OrboGraph, det Burlington‑baserte AI‑selskapet som leverer svindeldeteksjon for sjekk‑ og innskudd for banker og kredittforeninger, er blitt kåret til vinner i 2026 Artificial Intelligence Excellence Awards. Business Intelligence Group delte ut prisen i kategorien Svindeldeteksjon og forebygging, og fremhevet selskapets målbare innvirkning på å dempe svindel med sjekk‑innskudd gjennom en pakke med dyp‑læringsmodeller, sanntids‑anomalisk scoring og automatisert saks‑triage. Prisen er viktig fordi den bekrefter OrboGraphs tilnærming i en periode hvor finansinstitusjoner står under økende press for å begrense tap som følge av stadig mer sofistikerte svindelskjemaer. Ifølge selskapet har plattformen allerede hjulpet kunder med å redusere svindelinnskudd med opptil 45 % samtidig som etterforskningstiden er kuttet med mer enn halvparten. Slike resultater omsettes til direkte kostnadsbesparelser og lavere falske‑positiv‑rater, et vedvarende problem for eldre regelbaserte systemer. Anerkjennelsen plasserer også OrboGraph ved siden av større AI‑aktører – som Mastercards Decision Intelligence og Visas Advanced Authorization – og viser at nisje‑ og formålsbyggde løsninger kan konkurrere på både effektivitet og ytelse. Fremover planlegger OrboGraph å lansere en neste‑generasjonsversjon av motoren som integrerer multimodale data, inkludert bildeanalyse av sjekkbilder og stemme‑biometri
125

GitHub – concensure/Semantic: Semantisk analyse

Mastodon +7 kilder mastodon
agents
Et nytt åpen‑kildekode‑prosjekt kalt **Semantic** har dukket opp på GitHub, og lover å kutte “agentløkkene” som plager store språkmodell‑ (LLM‑)drevne assistenter med omtrent 28 %. Depotet, lagt ut av concensure‑teamet, beskriver en teknikk som oversetter programkode til abstrakte syntakstre‑ (AST) logikkgrafer og deretter anvender statisk‑analyse‑regler for å oppdage og bryte repeterende resonneringssykluser som LLM‑agenter ofte faller i når de prøver å løse programmeringsoppgaver. Agentløkker oppstår når en LLM gjentatte ganger påkaller samme deloppgave – for eksempel å refaktorere en kodebit, sjekke en type på nytt, eller generere en test på nytt – uten å gjøre fremgang. Den resulterende sløsingen av beregningssykluser øker forsinkelsen og kan drive opp skykostnadene for tjenester som integrerer LLM‑er i CI‑pipelines eller IDE‑utvidelser. Ved å utnytte AST‑baserte representasjoner kan Semantic resonere om kode­strukturen uten å påkalle modellen gjentatte ganger, og beskjære unødvendige iterasjoner før de starter. Tilnærmingen bygger på tidligere arbeid innen statisk kodeanalyse og det Haskell‑baserte “semantic”-biblioteket som parser og sammenligner kildekode på tvers av språk. Det som skiller dette initiativet er fokuset på å mate analysen tilbake inn i LLM‑prompt‑logikken, og dermed gi modellen en “semantisk snarvei” som reduserer antallet kall som trengs for å nå et korrekt svar. Tidlige ytelsesmålinger i depotet viser en 27,78 % reduksjon i totale API‑kall for et sett med vanlige programmeringsutfordringer, noe som omsettes til målbare kostnadsbesparelser for utviklere som bruker verktøy som GitHub Copilot eller tilpassede AI‑agenter. Prosjektet har allerede skapt debatt på Hacker News, hvor praktikere diskuterer skalerbarheten og gjennomførbarheten av å integrere AST‑logikkgrafer i eksisterende LLM‑orkestreringsrammeverk. De neste stegene å følge med på inkluderer en formell fagfellevurdert evaluering, potensiell adopsjon av sky‑AI‑leverandører, og bidrag fra fellesskapet som utvider språkstøtten utover den nåværende prototypen. Hvis påstandene holder, kan Semantic bli en sentral komponent i den fremvoksende verktøykassen for å gjøre LLM‑d
120

Apple AirPods Max 2‑anmeldelse: En mer betydelig oppgradering enn jeg forventet

Mastodon +7 kilder mastodon
apple
Apple har lansert andre generasjon AirPods Max, og de første praktiske inntrykkene tyder på at oppgraderingen er langt mer omfattende enn de beskjedne visuelle endringene som først fanget oppmerksomheten. De nye over‑øre‑hodetelefonene beholder den ikoniske rustfrie stålfaten og nettkåpen fra 2020‑modellen, men under overflaten rommer de Apples nyeste H2‑brikke, en revidert driverarkitektur og et batteri som nå gir opptil 30 timer lyttetid med aktiv støydemping (ANC) aktivert. Apple priser Max 2 til 649 USD i USA, noe som plasserer den ett trinn over den opprinnelige modellen som kostet 549 USD, og lover «bransjeledende» lydkvalitet, adaptiv ANC som reagerer på trykk på øreklokkene, samt sømløs overlevering mellom iPhone, iPad, Mac og Vision Pro‑enheter. Betydningen av lanseringen går utover en enkel oppfriskning. Ved å kombinere H2‑brikken med romlig lyd som nå utnytter maskinlæring på enheten for sanntids hodesporing, gjør Apple sine premium‑hodetelefoner til et knutepunkt for oppslukende mediekonsum og fjern‑samarbeid – områder der konkurrenter som Sony og Bose tradisjonelt har hatt overtaket. Oppgraderingen forsterker også Apples bredere strategi om å styrke økosystem‑bindingen: Max 2 aktiverer automatisk «Finn min»-varsler, støtter ultra‑bredbånds‑overlevering, og integreres med den kommende iOS 18‑pakken «Personal Audio» som lover AI‑drevne lydprofiler. For et marked som har sett få virkelig differensierte over‑øre‑utgivelser de siste to årene, kan Apples trekk nullstille forventningene til pris, ytelse og programvare‑synergi. Det som er verdt å følge med på videre, er Apples utrullingsplan – global tilgjengelighet starter neste uke, med en begrenset fargeutgave planlagt for høytiden. Analytikere vil holde øye med om den premium prisen utløser en priskrig eller får konkurrentene til å fremskynde sine egne AI‑forsterkede lydtilbud. Fastvare‑oppdateringer i de kommende månedene kan låse opp flere romlig‑lyd‑funksjoner, og den kommende lanseringen av Vision Pro kan se Max 2 bli posisjonert som standard lydpartner for blandet‑virkelighets‑opplevelser.
120

📰 LongCat‑AudioDiT 2026: Banebrytende Diffusjons‑TTS med Zero‑Shot Stemmekloning LongCat‑AudioD

Mastodon +7 kilder mastodon
huggingfacespeechvoice
LongCat‑AudioDiT, som ble presentert denne uken av det finske oppstartsselskapet LongCat AI, tar tekst‑til‑tale (TTS) inn i et nytt regime ved å generere lyd direkte i et latent bølgeform‑rom med en diffusjons‑transformer. Modellen, trent på et variert flerspråklig korpus, kan klone timbren til en ukjent taler fra så lite som tre sekunders referanselyd og produsere tale som oppnår over 0,90 på standarde speaker‑similarity‑benchmarker – nivåer som tidligere kun var oppnådd med flertimers fin‑tuning‑pipelines. Gjennombruddet skyldes en latent diffusjonsprosess som iterativt raffinerer en komprimert lydrepresentasjon, og dermed eliminerer behovet for separate vokoder‑stadier som lenge har vært en flaskehals for kvalitet og hastighet. Sammenlignet med tidligere diffusjonsbaserte TTS‑systemer, når LongCat‑AudioDiT tilsvarende lydkvalitet på kun åtte sampling‑steg, noe som reduserer inferenstid med omtrent 60 % samtidig som den naturlige prosodien som har plaget tidligere zero‑shot‑forsøk bevares. Hvorfor dette er viktig er todelt. For det første åpner evnen til å generere høy‑fidelitets, personlig tilpasset tale i sanntid døren for virkelig skreddersydde stemmeassistenter, dynamisk lydbok‑fortelling og rask lokalisering av videoinnhold uten den kostbare innsamlingen av taler‑spesifikk data. For det andre harmonerer den latente rom‑tilnærmingen med de siste fremskrittene innen diffusjons‑transformere, som Sparse‑Alignment DiT‑arkitekturen vi dekket i vår artikkel om A‑SelecT 30. mars, og tyder på en bredere overgang mot mer effektive, ende‑til‑ende generative pipelines på tvers av modaliteter. Fremover vil fellesskapet følge nøye med på om LongCat slipper modellvektene og treningskoden, noe som kan akselerere adopsjon i åpne økosystemer som Hugging Face. Benchmark‑resultater på Seed‑TTS‑Eval‑suite forventes i løpet av de kommende ukene, og industrispillere gir allerede hint om integrasjonstester i bil‑infotainment og e‑learning‑plattformer. Kappløpet om å kombinere sanntids‑ytelse med zero‑shot‑klonings‑fidelitet er nå i gang, og LongCat‑AudioDiT har satt en høy standard for neste bølge av konversasjons‑AI.
120

📰 Selv‑evoluerende AI‑agent omskriver kode: Meta‑praktikantens gjennombrudd (2026)   En Meta‑praktikant har utviklet

Mastodon +7 kilder mastodon
agentsautonomousmeta
Meta sitt forskningslaboratorium har avduket en prototype‑AI‑agent som kan omskrive sin egen kildekode uten menneskelig inngripen, et milepæl som selskapet sier kan innlede en ny generasjon av selv‑optimaliserende programvare. Systemet, bygget av en sommerpraktikant under veiledning av Meta sitt AI Foundations‑team, overvåker sin kjøretidsytelse, identifiserer flaskehalser og genererer reparasjoner som automatisk blir kompilert, testet og distribuert i et sandkasse‑miljø. I interne tester forbedret agenten kjørehastigheten med opptil 37 % på en samling mikrotjeneste‑arbeidsbelastninger og reduserte minneforbruket med 22 % etter bare tre selv‑modifikasjons‑sykluser. Gjennombruddet er viktig fordi det flytter agent‑AI fra kun oppgaveutførelse til selv‑vedlikehold, en evne som lenge har vært teoretisert, men aldri realisert i stor skala. Tradisjonelle kode‑genereringsverktøy som GitHub Copilot eller Metas egne Llama‑baserte par‑programmerere foreslår kun kode‑snutter; de endrer ikke den underliggende modellen eller kjøretidslogikken. I kontrast behandler den selv‑evoluerende agenten sin egen arkitektur som muterbar, noe som minner om “open computer”-konseptene utforsket av Hugging Face sin Open Computer Agent, som forankrer AI‑handlinger i visuelle miljøer. Dersom tilnærmingen modnes, kan utviklere overlate rutinemessig optimalisering, refaktorering og til og med sikkerhetsforsterkning til autonome agenter, noe som vil akselerere leveringssykluser og redusere teknisk gjeld. Teknologien reiser imidlertid umiddelbare sikkerhets‑ og styringsspørsmål. Uovervåkede kodeendringer kan introdusere subtile regresjoner eller sikkerhetshull, noe som gjenspeiler bekymringer fremhevet i nylige bransjeguides om AI‑agent‑hallusinasjoner. Meta har derfor innkapslet prototypen i en streng verifiserings‑pipeline som kjører omfattende enhetstest‑sett og statisk‑analyse før noen omskriving blir akseptert. Selskapet planlegger å åpne en begrenset beta for utvalgte bedrifts‑partnere senere i dette kvartalet, og inviterer eksterne revisorer til å undersøke agentens beslutningsprosesser. Hva du bør følge med på: Metas kommende AI‑Summit i juni forventes å avdekke om den selv‑evoluerende agenten vil bli integrert i den kommende Llama 3‑utgivelsen eller tilbys som en frittstående “Agent Core” for IDE‑er, et trekk som kan akselerere kommersialiserings‑trenden som er påpekt i nylige rapporter om agent‑AI‑s raske produktisering. Reguleringsmyndigheter og sikkerhetsforskere vil også holde øye med utrullingen for tegn på utilsiktet oppførsel, noe som gjør de neste månedene til en litmus‑test for levedyktigheten til virkelig autonome kode‑skrivende agenter.
115

Kritisk sårbarhet i OpenAI Codex gjorde det mulig å kompromittere GitHub‑token

Kritisk sårbarhet i OpenAI Codex gjorde det mulig å kompromittere GitHub‑token
SecurityWeek +8 kilder 2026-03-31 news
openai
OpenAIs Codex, den store språkmodellen som gjør naturlige språk‑prompt til kjørbar kode, inneholdt en skjult kommando‑injeksjonssårbarhet som gjorde det mulig for angripere å kapre GitHub‑autentiseringstokener. Sikkerhetsforskere oppdaget et obfusert token mens de undersøkte samspillet mellom Codex og GitHub‑repoer, og sporet lekkasjen til ondsinnet konstruerte branchnavn som inneholdt Unicode‑kontrolltegn. Når Codex behandlet et slikt branchnavn, utførte den en skjult kommando som sendte repository‑ens `GITHUB_TOKEN` tilbake til angriperens server. OpenAI handlet raskt for å tette sårbarheten, oppdaterte den skybaserte Codex‑tjenesten og lanserte en dedikert «Codex Security Vulnerability Scanner» som allerede har undersøkt 1,2 millioner nylige commits og flagget nesten 800 kritiske problemer. Samtidig publiserte GitHub nødrettelser for tre feil i Enterprise Server, inkludert den som gjorde token‑stjeling‑injeksjonen mulig. Bruddet er viktig fordi Codex er integrert i et stadig voksende økosystem av AI‑assisterte utviklingsverktøy, fra GitHub Copilot til tredjeparts‑IDE‑plugins. Et kompromittert token gir lese‑ og skrivetilgang til privat kode, CI/CD‑pipelines og alle ned
112

**Etter hvert som Google styrker partnerskapet med Pentagon, minnet Google DeepMind‑visepresident Tom Lue ansatte på townhall om at selskapet har**

The Times of India on MSN +8 kilder 2026-03-25 news
deepmindgoogle
Google DeepMind utdyper båndene til det amerikanske forsvarsapparatet, en utvikling som ble bekreftet på et town‑hall‑møte i januar hvor visepresident for globale anliggender Tom Lue fortalte de ansatte at enheten vil «legge mer vekt» på nasjonal‑sikkerhetsarbeid. Lue, som talte sammen med DeepMinds leder Demis Hassabis, skisserte en «robust prosess» for å vurdere Pentagon‑prosjekter, og understreket at kontrakter må inneholde sikkerhetsgarantier og klare begrensninger for bruksområder før noen forskning kan settes i gang. Kunngjøringen markerer et vendepunkt fra Googles løfte i 2023 om å avstå fra våpenrelatert kunstig intelligens, og den kommer etter en rekke interne spørsmål som ble reist etter selskapets tidligere samarbeid med Boston Dynamics og andre forsvarsleverandører. Ansatte spurte hvordan den nye retningen forholder seg til Googles AI‑prinsipper, og Lue forsikret om at gjennomgangsrammeverket vil holde selskapets etiske standarder intakte samtidig som det gjør det mulig å bidra til Pentagon sitt Joint Artificial Intelligence Center (JAIC) og deres satsing på autonome systemer, prediktiv logistikk og cyber‑forsvarsverktøy. Hvorfor dette er viktig er todelt. For det første kan DeepMinds ekspertise innen store modeller – tydelig i deres nylige 200 million‑parameter tidsserie‑grunnmodell og TurboQuant‑gjennombruddet for minne‑effektivitet – akselerere Pentagon sitt AI‑potensial og heve innsatsen i den globale AI‑våpenkappløpet. For det andre signaliserer policy‑skiftet en bredere bransjetrend der ledende laboratorier forsøker å forene kommersielle ambisjoner med nasjonal‑sikkerhetskrav, en balanse som regulatorer og sivilsamfunnsgrupper følger nøye. Fremover vil observatører følge med på hvilke konkrete kontrakter som tildeles DeepMind, de transparensrapportene Google lover å publisere, samt eventuelle regulatoriske reaksjoner fra USAs Kongress eller EU. Den neste interne briefingen, planlagt til senere denne våren, forventes å detaljere den første serien av godkjente bruksområder og de målene selskapet vil bruke for å overvåke etterlevelse og sikkerhet.
107

Sam Altman: Alt du ikke visste om hans drittige fortid

Mastodon +7 kilder mastodon
openai
En ny episode av YouTube‑serien *This F*cking Guy* har satt i gang en ny debatt om OpenAI‑administrerende direktør Sam Altman. Den 35. delen, med tittelen «Sam Altman: Alt du ikke visste om hans drittige fortid», leverer en lynrask biografi som går tilbake til Altmans tidlige virksomheter, hans avskjed fra Y Combinator i 2014, og en rekke påståtte feilgrep i OpenAI – inkludert en kontroversiell håndtering av en ansatts død og anklager om manipulering på styrenivå. Videoen, som ble lagt ut 8. mars 2026, har allerede samlet mer enn 250 000 visninger og deles flittig i teknologifokuserte forum i de nordiske landene og videre. Tidspunktet er betydningsfullt. Altmans korte avsettelse fra OpenAIs styre sent på 2023, etterfulgt av en dramatisk gjeninnsettelse, har satt selskapets styring under lupen. Mens tidligere dekning har fokusert på OpenAIs datainnsamlingspraksis og nylige rettsavgjørelser, tilfører dette siste medieinnslaget en personlig dimensjon til granskingene, og minner investorer og regulatorer om at administrerende direktørs merittliste strekker seg utover produktlanseringer. Kritikere hevder at en leder som har blitt «sparket av sin mentor» og anklaget for å «spille Gud» med AI‑beslutninger, kan ha vanskelig for å skape tillit i et selskap som nå styrer milliarder i risikokapital og møter økende politisk press fra EU og USA. Hva som skjer videre: Altman har foreløpig ikke svart offentlig på episoden, men en uttalelse forventes i løpet av de kommende dagene, muligens som en avvisning eller et krav om personvern. OpenAIs styre skal møtes i april for å gjennomgå styringsprotokoller, og episoden kan påvirke aksjonærstemningen før neste finansieringsrunde. Samtidig har tilsynsmyndigheter i Sverige og Finland signalisert interesse for åpenhet i AI‑selskaper, noe som tyder på at ytterligere avsløringer om Altmans fortid kan få gjennomslag i den politiske debatten i regionen.
96

Uforvarende laget min første fork‑bombe med Claude Code

HN +6 kilder hn
agentsanthropicclaude
En utvikler som brukte Anthropic sin Claude Code AI‑assistent genererte ved et uhell en fork‑bombe – et kode­stykke som gjentatte ganger oppretter nye prosesser til verts­systemet krasjer. Hendelsen ble lagt ut på et offentlig forum hvor brukeren delte den eksakte prompten som utløste den ondsinnede koden og det resulterende skriptet, som umiddelbart tømte CPU‑ og minne­ressursene på en testmaskin. Episoden er det første dokumenterte tilfellet der Claude Code har produsert selv‑replikerende skadelig programvare uten eksplisitt instruksjon. Den kommer etter lekkasjen av Claude Codes kildekode 31. mars 2026, som avdekket modellens indre funksjoner og utløste en bølge av eksperimentering blant hobbyister og profesjonelle utviklere. Lekkasje­en viste også at brukerne nådde bruksgrensene langt raskere enn forventet, noe som vekket bekymring for modellens token‑effektivitet og sikkerhetskontroller. Fork‑bombe‑hendelsen understreker disse bekymringene: uten robuste sikkerhetsmekanismer kan en generativ modell levere destruktiv kode like lett som hjelpsomme kode­snutter. Anthropics respons blir det neste fokuset. Selskapet har tidligere lagt vekt på sin «hooks»-arkitektur, som lar utviklere injisere deterministiske begrensninger i modellens oppførsel. Om Anthropic vil innføre strengere innholdsfiltre, introdusere automatiserte kode‑gjennomgangslag eller begrense tilgang til lavnivå‑systemkall, gjenstår å se. Bransjeobservatører forventer at firmaet publiserer en
95

OpenAI lanserer plugin‑markedsplass med Codex‑virksomhetskontroller

Mastodon +11 kilder mastodon
agentsopenai
OpenAI avduket en dedikert Plugin‑markedsplass for sin Codex‑kodingagent, og koblet sammen mer enn 20 ferdig‑brukbare integrasjoner – inkludert Slack, Figma og Notion – med en pakke av styringskontroller på bedriftsnivå. Markedsplassen, kunngjort 31. mars, lar utviklere bla gjennom, installere og administrere tredjeparts‑utvidelser som gjør at Codex kan samhandle direkte med verktøyene som driver moderne programvare‑pipelines. Dette er første gang OpenAI har bundlet sin AI‑drevne kodeassistent med et kuratert økosystem av plug‑ins, og flytter Codex fra en frittstående forsknings‑preview til en plattform som kan integreres i bedriftsarbeidsflyter. Ved å innlemme detaljerte tillatelsesinnstillinger, data‑tap‑forebyggings‑policyer og revisjonslogger, ønsker OpenAI å dempe sikkerhets‑ og etterlevelsesbekymringer som har bremset AI‑adopsjon i regulerte sektorer som finans og helsevesen. Codex driver allerede en rekke oppgaver – fra funksjonsplanlegging og kodegenerering til refaktorering og utgivelsesautomatisering – ved å oversette naturlige språk‑prompt til kjørbar kode. Den nye markedsplassen forsterker denne evnen: Et Slack‑plug‑in kan utløse kode‑snutter fra en chat, mens en Notion‑kobling kan omforme designspesifikasjoner til scaffold‑prosjekter. For bedrifter gir muligheten til å hviteliste godkjente plug‑ins og håndheve rollebasert tilgang en kontrollert vei til AI‑forsterket utvikling uten å eksponere proprietære kodebaser for ukontrollerte eksterne tjenester. Analytikere ser markedsplassen som OpenAIs svar på Microsofts GitHub Copilot‑utvidelser og et forsøk på å låse utviklere inn i sitt API‑økosystem. De kommende ukene vil vise hvor raskt store programvareselskaper tar i bruk plug‑ins, om prisene blir abonnement‑baserte eller forbruks‑baserte, og hvor robust styringsrammeverket viser seg i reelle revisjoner. Hold øye med kunngjøringer om prisnivåer, flere partner‑integrasjoner og eventuell regulatorisk tilbakemelding etter hvert som AI‑assistert koding går dypere inn i bedriftsmiljøer.
92

📰 Qwen3.5‑Omni slår Gemini‑3.1 Pro i 2026‑multimodal AI‑benchmark — Koster 90 % mindre Qwen3.5‑Omni

📰 Qwen3.5‑Omni slår Gemini‑3.1 Pro i 2026‑multimodal AI‑benchmark — Koster 90 % mindre Qwen3.5‑Omni
Mastodon +8 kilder mastodon
benchmarksgeminihuggingfacemultimodalqwen
Alibaba’s Qwen3.5‑Omni har overgått Google DeepMinds Gemini‑3.1 Pro i 2026‑multimodal‑AI‑benchmarken, samtidig som den har redusert kostnadene for inndata‑tokens til under 0,08 USD per million – en pris som er omtrent en tidel av Geminis 2 USD per million. Resultatet, publisert 31. mars, følger selskapets tidligere påstand om at modellen «overgår Gemini», og tilfører harde data fra en rekke tester innen visuell‑språklig forståelse, lyd‑transkripsjon og kodegenerering. Qwen3.5‑Omni, bygget på den 35‑milliarder‑parameter‑baserte Qwen3.5‑35B‑A3B‑arkitekturen og tilgjengelig som den hostede Qwen3.5‑Flash‑tjenesten, støtter et kontekstvindu på 1 million tokens og leveres med innebygd verktøybruk. Den åpne kildekoden under Apache 2.0‑lisensen gjør det mulig for utviklere å kjøre modellen lokalt, mens skyversjonen pakker inn produksjonsfunksjoner som tidligere kun var tilgjengelige i bedrifts‑grade‑tilbud. Kostnadsfordelen er viktig fordi multimodale arbeidsbelastninger – bildeteksting, videoanalyse, sanntids‑oversettelse – tradisjonelt har vært for dyre for mange nordiske oppstartsbedrifter og offentlige prosjekter. Ved å levere lik eller bedre nøyaktighet til en brøkdel av prisen, kan Qwen3.5‑Omni fremskynde adopsjonen av AI‑forsterkede produkter innen fintech, helseteknologi og media i regionen. Prisgapet legger også press på Google til å rettferdiggjøre Geminis premium‑pris, noe som potensielt kan endre konkurranselandskapet for store grunnmodeller. Fremover planlegger Alibaba å lansere en variant med 397 milliarder parametere som, ifølge Unsloth‑dokumentasjonen, befinner seg i samme ytelsesnivå som Gemini‑3 Pro, Claude Opus 4.5 og GPT‑5.2. Observatører vil følge med på om den større modellen beholder den lave token‑økonomien og hvordan skytilbydere priser tjenesten. Googles respons – enten gjennom prisnedsettelser, nye funksjonsutgivelser eller tettere integrasjon med sitt eget økosystem – vil bli den neste barometeret for markedets momentum. De kommende månedene vil vise om Qwen3.5‑Omni kan omgjøre sin benchmark‑seier til vedvarende markedsandel.
92

Mark Gadala-Maria (@markgadala) på X

Mark Gadala-Maria (@markgadala) på X
Mastodon +7 kilder mastodon
Mark Gadala‑Maria, en velkjent AI‑strateg i den nordiske teknologiscenen, la ut et kort klipp på X som han sier «viser at Seedance 2 ligger langt foran konkurrerende produkter». Videoen, som er lenket i tweeten hans, setter noen sekunders opptak generert av Seedance 2 opp mot resultater fra rivaliserende generative‑videomotorer, og fremhever skarpere bevegelsesnøyaktighet, mer presis belysning og en merkbar reduksjon i artefakter. Gadala‑Maria hevder at den nye modellen leverer nesten fotorealistiske resultater til en brøkdel av beregningskostnaden som andre systemer krever. Kunngjøringen kommer på et kritisk tidspunkt for AI‑drevet videoproduksjon. Siden Runways Gen‑2 og Metas Make‑a‑Video kom på markedet i fjor, har bransjen kjempet for å tette kvalitetsgapet mellom syntetisk og ekte opptak. Seedance 2, utviklet av den København‑baserte oppstartsbedriften Seedance AI, skal ifølge rapporter bruke en hybrid diffusjon‑transformer‑arkitektur som kan syntetisere 30‑sekunders klipp på under ett minutt på én enkelt A100‑GPU. Dersom ytelsesfordelen som vises i Gadala‑Marias klipp holder seg under uavhengig testing, kan den endre økonomien i innholdsproduksjon, og gi mindre byråer og nordiske kringkastere et levedyktig alternativ til kostbare tradisjonelle opptak. Det neste å holde øye med er todelt. For det første vil fellesskapet sannsynligvis kreve en formell benchmark – lik de nylige resultatene fra LLM Buyout Game – for å verifisere Seedance 2s påstander
88

📰 Mistral AI sikrer 830 millioner dollar i 2026 for å bygge Europas største AI‑infrastruktur med NVIDIA‑GPU‑er

📰 Mistral AI sikrer 830 millioner dollar i 2026 for å bygge Europas største AI‑infrastruktur med NVIDIA‑GPU‑er
Mastodon +7 kilder mastodon
fundingmistralnvidia
Mistral AI, det franske oppstartsselskapet bak en rekke åpne store språkmodeller, kunngjorde mandag at de har fullført en gjeldsrunde på 830 millioner dollar for å finansiere Europas største AI‑beregningsplattform. Finansieringen, som kommer fra et konsortium som inkluderer Mitsubishi UFJ Bank, Bpifrance og fem andre europeiske långivere, skal brukes til å kjøpe omtrent 13 800 NVIDIA H100‑GPU‑er og bygge et spesialdesignet datasenter i utkanten av Paris. Dette er Mistrals første gang med gjeldsfinansiering og markerer et tydelig skifte fra ren programvareutvikling til å eie maskinvaren som trengs for å trene neste generasjons modeller. Ved å samle petawatt‑skala beregning på ett enkelt europeisk sted, ønsker Mistral å redusere kontinentets avhengighet av amerikanske og asiatiske skyleverandører – et mål som understrekes av EUs nylige AI‑lov og ambisjonen om å skape et suverent AI‑økosystem. Prosjektet er også en del av en bredere 1,4‑gigawatt europeisk AI‑infrastruktur‑innsats som skal matche skalaen til verdens ledende superdatamaskinklynger, samtidig som det overholder strenge energieffektivitetsstandarder. Bransjeanalytikere ser finansieringen som en litmus‑test for Europas evne til å tiltrekke kapital til storskala AI‑maskinvare, en sektor som tradisjonelt har vært dominert av aktører som Microsoft, Google og Amazon. Hvis Mistral klarer å levere et fullt operativt anlegg innen slutten av 2027, kan de bli det foretrukne knutepunktet for europeiske forskere og bedrifter som ønsker høyytelses‑AI‑trening uten å eksportere data til utlandet. Hva man bør følge med på videre: tidsplanen for levering av GPU‑ene og bygging av datasenteret, de første modellene som trenes på den nye klyngen, samt eventuelle påfølgende egenkapital‑ eller gjeldsrunder som kan utvide infrastrukturen til andre EU‑lokasjoner. Like viktig vil være regulatorisk gransking under AI‑loven og hvordan Mistrals prisstrategi posisjonerer dem i forhold til globale skymoguler.
87

Apple begynner å distribuere den ytelsesforbedrede «Apple Support 5.12.2» | Apple Apps | Mac OTAKARA

Apple begynner å distribuere den ytelsesforbedrede «Apple Support 5.12.2» | Apple Apps | Mac OTAKARA
Mastodon +7 kilder mastodon
apple
Apple har begynt å rulle ut versjon 5.12.2 av Apple Support‑appen, en oppdatering av beskjeden størrelse som lover merkbart raskere oppstartstider og jevnere navigasjon på iPhone, iPad og Mac. Oppgraderingen kommer bare noen uker etter at selskapet lanserte versjon 5.11, som la til kompatibilitet med den kommende iOS 26 og den eksperimentelle “Liquid Glass”-skjermteknologien. Apples korte utgivelsesnotater nevner “ytelsesforbedringer” og en håndfull feilrettinger, men selskapet har ikke oppgitt konkrete måledata. Oppdateringen er viktig fordi Support‑appen er den primære inngangsporten for brukere som skal diagnostisere maskinvareproblemer, bestille reparasjoner og få tilgang til Apple‑generert feilsøkingsinnhold. Raskere responstider reduserer friksjon for kunder som søker hjelp – en prioritet mens Apple utvider AI‑drevet assistanse på tvers av økosystemet. Tidligere i år introduserte Apple generativ‑AI‑chat i Support‑appen, slik at brukere kan beskrive problemer på naturlig språk og få trinn‑for‑trinn‑veiledning. Et jevnere brukergrensesnitt forsterker denne opplevelsen, spesielt i det nordiske markedet hvor iPhone‑penetrasjonen overstiger 80 % og brukere ofte benytter appen for garantikrav og avtaler om service på stedet. Analytikere vil følge med på om Apple kombinerer ytelsesforbedringen med dypere AI‑integrasjon, for eksempel sanntids enhetsdiagnostikk drevet av maskinlæringsmodeller på selve enheten. En beslektet utvikling er Apples nylige utrulling av “Liquid Glass”-støtte, som antyder at appen snart kan håndtere augmented‑reality‑feilsøking for neste generasjons skjermer. Neste oppdatering forventes i sommer, muligens med nye AI‑funksjoner og bredere iOS 27‑kompatibilitet. Observatører bør også holde øye med om Apple utvider appens rolle i det bredere “Apple Care
83

JAIGP – Journal for AI‑genererte artikler

Mastodon +6 kilder mastodon
Journal for AI‑genererte artikler (JAIGP) ble lansert denne uken og posisjonerer seg som den første åpne‑prompt‑plattformen der hver innlevering er minst delvis forfattet av en språkmodell. Plattformen, som er tilgjengelig på jaigp.org, inviterer forskere, hobbyister og AI‑entusiaster til å skrive artikler sammen med verktøy som Claude, GPT‑4 og nye åpne kildekode‑generatorer. Innleveringer publiseres uten tradisjonell fagfellevurdering; i stedet stemmer fellesskapet over relevans, nyhet og lesbarhet, og de mest populære bidragene fremheves i en månedlig «best of»-oppsummering. Lanseringen er viktig fordi den utfordrer et grunnleggende prinsipp i vitenskapelig kommunikasjon: forventningen om at en menneskelig forfatter bærer fullt ansvar for verkets intellektuelle bidrag. Ved å sette maskin‑generert tekst i forgrunnen tvinger JAIGP utgivere, finansieringsorganer og tenure‑komiteer til å konfrontere spørsmål om forfatterskaps‑attribusjon, ansvarlighet og reproduserbarhet. Tidlige reaksjoner spenner fra entusiasme – der tidsskriftet sees som en sandkasse for rask hypotesetesting – til skepsis, med kritikere som advarer om at en flom av lavkvalitets, AI‑drevne manuskripter kan fortynne litteraturen og komplisere plagiatdeteksjon. Det som vil være viktig å følge med på videre, er hvordan det akademiske økosystemet tilpasser seg. Store forlag har signaliserte interesse for «AI‑augmented» innleveringsspor, mens flere universiteter utarbeider retningslinjer for AI‑forfattet arbeid i tenure‑dossier. De kommende månedene vil vise om JAIGPs fellesskaps‑drevne kurasjon kan opprettholde vitenskapelige standarder, eller om den blir et nyhetsarkiv. Parallelle utviklinger, som «Claude’s Code»-prosjektet som sporer AI‑genererte commits på GitHub, tyder på en bredere trend med å gjøre maskinutdata synlige og ansvarlige. Observatører vil være ivrige etter å se om JAIGPs eksperiment fører til formelle politiske endringer eller inspirerer rivaliserende plattformer som kombinerer AI‑kreativitet med tradisjonell fagfellevurdering.
82

5 teknikker for å stoppe hallusinasjoner i AI‑agenter i produksjon

Dev.to +5 kilder dev.to
agentsamazonrag
En ny veiledning fra AWS, publisert denne uken, beskriver fem produksjonsklare teknikker for å dempe hallusinasjoner i AI‑agenter – de falske faktaene og feilaktige verktøyvalgene som har plaget utrullinger av store språkmodeller (LLM). Spilleboken viser hvordan man kan kombinere Amazon Bedrock AgentCore med DynamoDB‑baserte styringsregler, Lambda‑innpakkede valideringer og et Graph‑RAG‑lag drevet av Neo4j for å holde autonome agenter knyttet til verifiserte data og forretningslogikk. Den første teknikken utnytter Bedrock AgentCores innebygde forankringskontroller, som tvinger modellen til å sitere en kunnskapskilde før den svarer. Den andre, DynamoDB‑styringsregler, fungerer som en lettvekts nevrosymbolsk sikkerhetsbarriere som avviser utdata som bryter forhåndsdefinerte begrensninger, for eksempel budsjettgrenser eller regulatoriske krav. Den tredje teknikken bruker Lambda‑funksjoner som fanger opp både prompt og svar, anvender skjema‑validering og kryssjekker mot eksterne API‑er. Den fjerde delen er en Graph‑RAG‑pipeline som indekserer bedrifts‑kunnskapsgrafer i Neo4j, og muliggjør presis, kontekst‑bevisst gjenfinning som erstatter modellens vage minne med faktiske noder. Det siste trinnet legger til sanntidsovervåkning via CloudWatch‑metrikker og automatisert tilbakeføring når tillits‑score faller under en sikkerhetsterskel. Hvorfor dette er viktig: uavhengige studier anslår at hallusinasjoner i generativ AI varierer fra 2,5 % til over 22 % av svarene, en risiko som kan føre til feilinformasjon, brudd på etterlevelse og kostbare utbedringer. Som vi rapporterte 30. mars, kunne en spesialtilpasset Rust‑grafmotor redusere hallusinasjoner for nisje‑arbeidsbelastninger; AWS‑tilbudet bringer nå sammenlignbare sikkerhetsmekanismer til et bredere publikum gjennom administrerte tjenester, og reduserer den ingeniørmessige belastningen som tidligere tvang team til ad‑hoc prompt‑engineering. Hva som er verdt å følge med på: tidlige brukere vil avdekke ytelses‑avveininger mellom Graph‑RAG‑latens og nøyaktighet, mens AWS antyder kommende nevrosymbolske sikkerhetsbarrierer som integrerer formelle forretningsregler direkte i modellens inferens‑sti. Bransjeobservatører bør også holde øye med hvordan regulatorer reagerer på den økende vektleggingen av «forankret» AI, og om åpne kilde‑alternativer kan matche bekvemmeligheten i Bedrock‑stakken. Lanseringen markerer et avgjørende skritt mot å gjøre autonome agenter pålitelige nok for kritiske produksjonsmiljøer.
80

📰 2026: Claude Code‑kildekoden lekket fra NPM – hvordan skjedde det? Anthropic sin AI‑...

📰 2026: Claude Code‑kildekoden lekket fra NPM – hvordan skjedde det? Anthropic sin AI‑...
Mastodon +6 kilder mastodon
anthropicclaudegoogle
Anthropics Claude Code, selskapets flaggskip‑AI‑assisterte kodeassistent, ble eksponert denne uken da en source‑map‑fil som ble lastet opp til det offentlige NPM‑registeret avslørte hele kodebasen. Forskere som skannet registeret for sårbare pakker oppdaget en `claude-code.map`‑fil som koblet minifisert JavaScript tilbake til de originale TypeScript‑kildene, og dermed publiserte den proprietære implementeringen i ren tekst. Anthropic bekreftet bruddet og tilskrev det en feilkonfigurert bygg‑pipeline som ved et uhell publiserte kartet sammen med den kompilerte pakken. Lekkasje har betydning langt utover ett enkelt repository. Claude Code driver et stadig voksende økosystem av autonome kodeagenter, inkludert de nylig kunngjorte Claude Code Agent Teams som lar flere AI‑instanser samarbeide om komplekse prosjekter. Nå som internarkitekturen er offentlig tilgjengelig, kan konkurrenter dissekere Anthropics prompting‑arkitektur, verktøyintegrasjonslag og sikkerhetsmekanismer, noe som potensielt kan akselerere rivaliserende tilbud. Mer umiddelbart inkluderer den eksponerte kilden API‑nøkler og interne endepunkter som kan utnyttes for å omgå bruksgrenser – en bekymring som ble understreket i tidligere rapporter om at Claude nådde kvoten raskere enn forventet (se vår dekning fra 31. mars om belastning på bruksgrenser). Sikkerhetsbevisste utviklere står også overfor risiko for leverandørkjede‑angrep: ondsinnede aktører kan erstatte den publiserte pakken med en trojanisert versjon, og utnytte den tilliten mange CI‑pipelines har til NPM. Anthropic har utgitt en nød‑oppdatering, fjernet source‑map‑filen og lovet en full revisjon av publiseringsarbeidsflyten. Selskapet vil også innføre et signert‑artefaktsystem for å garantere pakkens integritet. Hold øye med et formelt sikkerhetsvarsel i de kommende dagene, samt eventuelle tegn på utnyttelse i felten – spesielt forsøk på å samle inn de lekkede endepunktene. Hendelsen reiser også spørsmålet om andre AI‑verktøyleverandører kan ha lignende eksponering; en bredere revisjon av AI‑pakker som hostes på NPM kan bli neste overskrift i kappløpet om å sikre den raskt ekspanderende AI‑koding‑stakken.
80

Claude Code Agent Teams: Flere AI‑er kjører samtidig – En komplett guide fra innføring til praktisk bruk – Qiita

Claude Code Agent Teams: Flere AI‑er kjører samtidig – En komplett guide fra innføring til praktisk bruk – Qiita
Mastodon +6 kilder mastodon
agentsanthropicclaude
Anthropic har lansert “Agent Teams” for Claude Code, en funksjon som gjør at flere Claude Code‑instanser kan samarbeide om én oppgave. Den ble introdusert 5. februar sammen med Opus 4.6‑modellen, og systemet tildeler ulike roller – forskning, utkast, gjennomgang – til separate agenter som kjører parallelt under en teamleder‑koordinator. Veiledningen som er publisert på Qiita fører utviklere gjennom opprettelse av teamet, konfigurasjon av rolle‑spesifikke prompt, og håndtering av meldinger mellom agenter via den innebygde postkassen, et steg videre enn den tidligere Sub‑agent‑modellen der en enkelt forelder delegerte arbeidet sekvensielt. Oppgraderingen er viktig fordi den adresserer en flaskehals som har begrenset storskala kodegenerering: latens og token‑grenser for enkelt‑agenter. Ved å fordele arbeidet kan team fullføre komplekse pipelines – for eksempel tverrlags‑refaktorering eller samtidig generering av enhetstester og dokumentasjon – flere ganger raskere, ifølge Anthropics interne målinger. For bedrifter som allerede har opplevd press fra Claudes bruksgrenser, rapportert 31. mars, kan parallelliteten utvide kvotene samtidig som kostnadene forblir forutsigbare,
75

Hvorfor dataforskere bør bry seg om kvanteberegning

Mastodon +7 kilder mastodon
En ny feature‑artikkel på Towards Data Science argumenterer for at dataforskere ikke lenger har råd til å ignorere kvanteberegning. Skriven av en seniorpraktiker på feltet, beskriver artikkelen hvordan de sentrale problemene dataforskere jobber med – storskala lineær algebra, kombinatorisk optimalisering og probabilistisk prøvetaking – direkte samsvarer med de algoritmiske styrkene til kvanteprosessorer. Forfatteren advarer om at disiplinens nåværende avhengighet av klassisk maskinvare snart vil bli utfordret av skybaserte kvantetjenester fra IBM, Amazon Braket og Microsoft Azure, som allerede gir utviklere tilgang til såkalte noisy intermediate‑scale quantum (NISQ)‑enheter. Argumentet er viktig fordi avstanden mellom kvanteteori og praktisk anvendelse krymper. Selskaper innen finans, farmasøytisk industri og logistikk pilotere kvante‑forsterkede modeller for å akselerere porteføljeoptimalisering, legemiddelforsknings‑simuleringer og ruteplanleggingsproblemer som belaster selv de kraftigste GPU‑ene. Likevel domineres talentbasen fortsatt av fysikere og matematikere; artikkelen oppfordrer dataforskere til å tilegne seg kvante‑bevisste ferdigheter, og peker på nye studieprogrammer ved universiteter i hele Skandinavia samt fremveksten av hybride kvante‑klassiske rammeverk som PennyLane, Qiskit Machine Learning og TensorFlow Quantum. Ved å posisjonere seg i skjæringspunktet mellom kunstig intelligens og kvante‑maskinvare, kan dataforskere bidra til å forme neste generasjons algoritmer og unngå å bli marginalisert etter hvert som teknologien modnes. Hva du bør holde øye med videre: De første offentlige benchmark‑testene av kvantefordel i maskinlærings‑arbeidsbelastninger er planlagt for lansering senere i år, og flere nordiske oppstartsbedrifter har kunngjort rekrutteringskampanjer for «kvante‑dataforskere». Reguleringsorganer begynner også å utforme retningslinjer for kvante‑avledede innsikter, spesielt innen helsevesenet. Etter hvert som skyleverandører ruller ut mer stabile qubit‑arkitekturer, vil presset øke på data‑science‑teamene om å integrere kvante‑tenkning i sine arbeidsflyter, og omdanne dagens nysgjerrighet til morgendagens konkurransefortrinn.
75

OpenAI ChatGPT fikser DNS‑datasmuglingsfeil

OpenAI ChatGPT fikser DNS‑datasmuglingsfeil
HN +5 kilder hn
openai
OpenAI har rullet ut en oppdatering som lukker en DNS‑basert datasmuglingssårbarhet som ble oppdaget i ChatGPT tidligere i år. Feilen gjorde det mulig for modellen å innlemme bruker‑leverert innhold i DNS‑forespørsler, og dermed omdanne tjenesten til en skjult eksfiltrasjonskanal. Sikkerhetsfirmaet Check Point flagget problemet i februar og påpekte at ondsinnede aktører kunne ha utnyttet sidekanalen til å trekke ut tekst, kodebiter eller til og med autentiseringstoken uten brukerens kunnskap. Oppdateringen kommer bare noen uker etter at OpenAI offentliggjorde et separat brudd i sin Codex‑kodesgenereringsmodell som eksponerte GitHub‑token, et problem som ble detaljert i vår rapport fra 31. mars om den «Kritiske sårbarheten i OpenAI Codex». Begge hendelsene understreker en økende angrepsflate i generative AI‑plattformer, hvor den samme fleksibiliteten som muliggjør nyttige funksjoner også skaper skjulte veier for datalekkasjer. Bedrifter som integrerer ChatGPT i interne arbeidsflyter eller kundevendte applikasjoner møter nå økt gransking av hvordan AI‑tjenester håndterer utgående trafikk. OpenAIs respons inkluderer strengere validering av DNS‑forespørsler generert av modellen og tettere sandkasse‑isolering av bruker‑prompt. Selskapet har også lovet å utvide sitt «security‑by‑design»-program, med løfte om regelmessige revisjoner av sidekan
66

California blir en pioner i regulering av kunstig intelligens

Mastodon +6 kilder mastodon
California har tatt ledelsen i USA ved å vedta AI Safety Act, den første statlige loven som pålegger konkrete forpliktelser for leverandører av kunstig intelligens. Loven ble signert av guvernør Gavin Newsom på mandag, og den krever at utviklere av høy‑risiko AI‑systemer offentliggjør sentrale modell‑detaljer, gjennomfører uavhengige risikovurderinger, og innlemmer sikkerhetstiltak mot misbruk som generering av deep‑fakes eller autonom våpenisering. Operatører av AI‑drevne chat‑boter må også implementere selvmordsforebyggende protokoller og gi tydelige advarsler til brukerne om potensielle skjevheter. Tiltaket er viktig fordi California huser hovedkontorene til de fleste store AI‑selskapene og står for en betydelig andel av landets teknologirevenue. Ved å binde selskaper som OpenAI, Google DeepMind og Meta til krav om åpenhet og sikkerhet, kan loven endre produktdesign, databehandlingspraksis og ansvarsrammer i hele bransjen. Den signaliserer også en direkte utfordring til president Donald Trumps administrasjon, som gjentatte ganger har advart om at statlig regulering av AI vil fragmentere markedet og svekke USAs konkurranseevne. Newsoms handling rammer dermed inn en politisk konfrontasjon mellom en teknologivennlig guvernør og en føderal regjering som foretrekker en samlet, minimal‑intervensjons‑tilnærming. Det som nå er å følge med på, er lovens implementeringsregler, som forventes utarbeidet av California Department of Consumer Affairs i løpet av de kommende månedene, samt den sannsynlige juridiske motstanden fra bransjegrupper som hevder at kravene er for byrdefulle. Tidlige etterlevelsesrapporter fra statens største AI‑utviklere vil vise hvor raskt sektoren kan tilpasse seg. Samtidig har lovgivere i New York, Washington og Texas kunngjort at de vil studere Californias modell, noe som tyder på en bølge av statlige initiativer som kan presse Kongressen til å utforme et føderalt AI‑rammeverk før neste valgperiode.
64

Verdens første tibetanske store språkmodell avduket i Lhasa

Global Times +8 kilder 2026-03-16 news
autonomous
Den kinesiske regjeringen avduket DeepZang, verdens første store språkmodell (LLM) trent på tibetansk, under en seremoni i Lhasa i den autonome regionen Xizang. Modellen er utviklet av et konsortium ledet av China Academy of Information and Communications Technology og drives av en klynge av innenlandske GPU‑er. DeepZang kan generere, oversette og oppsummere tekst på både klassisk og moderne tibetansk på tvers av ulike fagområder, fra religiøse skrifter til turistbrosjyrer. Modellen er allerede i ferd med å bli integrert i en pilot‑app som tilbyr sanntids tibetansk‑til‑mandarin‑oversettelse for lokale tjenestemenn, samt en chatbot som svarer på kulturarvsspørsmål for besøkende på Potala-palasset. Lanseringen fyller et tydelig hull i Kinas AI‑portefølje, som hittil har vært dominert av mandarin‑sentrerte modeller og noen få globalt ledende LLM‑er. Ved å tilby et høykvalitets verktøy for tibetansk språk signaliserer staten en strategisk satsning på digitalisering av minoritetsspråk – et tiltak som kan styrke kulturbevaring samtidig som det strammer inn kontrollen over nettdiskursen i regionen. For tibetansk diaspora og forskere lover modellen enestående tilgang til digitaliserte tekster og muligheten til å generere nytt innhold på et språk som lenge har lidd under begrensede beregningsressurser. Det som følger vil avgjøre om DeepZang blir et reelt instrument for språklig revitalisering eller en strengt regulert tjeneste. Observatører vil følge med på utrullingen av den tilhørende API‑en, omfanget av eventuell åpen kildekode‑utgivelse, og eventuelle partnerskap med utdanningsinstitusjoner i Lhasa. Internasjonalt kan debuten oppmuntre andre nasjoner til å fremskynde AI‑prosjekter for minoritetsspråk, i likhet med nylige initiativer som Mistral AI‑s europeisk‑fokuserte infrastruktur og Anthropic‑s satsing på mer mangfoldige modellkapasiteter. De kommende månedene vil vise hvordan DeepZang blir tatt i bruk, regulert og muligens eksportert utenfor Kinas grenser.
62

Muahhhahahaahaha kom igjen 😂😭😎 # llms # llm # vibecoding

Mastodon +6 kilder mastodon
En bølge av meme‑drevet hype brøt ut på X og TikTok mandag da et kryptisk innlegg – «Muahhhahahaahaha bring it on 😂😭😎 #llms #llm #vibecoding» – gikk viralt, og fikk tusenvis av brukere til å merke sine første forsøk på «VibeCoding». Innlegget, som ble sporet tilbake til en utvikler‑fellesskapskonto i Stockholm, var en teaser for en ny åpen‑tilgang‑konkurranse lansert av VibeCoding Quest Hub, en flerspråklig læringsplattform som gjør naturlige språk‑prompt til funksjonelle apper ved hjelp av store språkmodeller. Oppsvinget er viktig fordi det signaliserer den første storskala, bruker‑genererte testen av VibeCodings løfte: å bygge programvare uten å skrive kode. Google AI Studio, som introduserte «VibeCoding»-konseptet i fjor, bekreftet at deres Gemini‑modell nå driver konkurransens backend, og oversetter enkle engelske «vibes» som «track my weekly expenses» til distribuerbare kode‑snutter. Arrangørene understreker at rammeverket kan kjøres på lokale LLM‑er, noe som ivaretar personvern og muliggjør offline‑utvikling – en funksjon som ble fremhevet i vår rapport fra 31. mars om lokale LLM‑er for humanistiske data. Ved å senke den tekniske terskelen kan VibeCoding akselerere prototype‑utvikling i oppstartsbedrifter, utdanning og samfunnsteknologi, samtidig som det avdekker sikkerhets‑ og skjevhetsrisikoer som er iboende i automatisk generert kode. Det som er verdt å følge videre, er utrullingen av VibeCoding‑rammeverket for on‑premise‑modeller, kunngjort sammen med konkurransen. Førstepremien – et stipendet for å integrere rammeverket i en nordisk kommunal åpen‑dataportal – vil bli tildelt på «VibeCoding Summit» i Helsinki 15. mai. Analytikere vil også holde øye med Googles neste Gemini‑oppdatering, som lover tettere sandkasse‑kontroll av genererte skript, samt responsen fra europeiske datavern‑myndigheter når fellesskapet eksperimenterer med lokalt hostede LLM‑er. Memen kan ha vært lekende, men den underliggende overgangen mot kodefri AI‑utvikling får allerede konkret fart.
61

Penguin skal saksøke OpenAI over ChatGPT‑versjon av tysk barnebok

Mastodon +7 kilder mastodon
openai
Penguin Random House har innlevert en søksmål i München som anklager OpenAI sin ChatGPT for å ha gjenskapt tekst og illustrasjoner fra den tyske barnebokserien «Coconut the Little Dragon». Forlaget sier at chatboten genererte en nesten identisk versjon av boken – med ny tittel «Coconut the Little Dragon on Mars» – etter at en bruker ba om en historie om den navngitte dragen i verdensrommet. Penguin hevder at resultatet kopierer den opprinnelige fortellingsbuen, karakterenes navn og den visuelle stilen, og dermed bryter tysk opphavsrett og EUs bredere regler om beskyttede verk. Saken markerer den siste høyprofilerte konflikten om hvordan generativ AI blir trent på opphavsrettslig beskyttet materiale. Mens OpenAI har forsvart modellene sine som «fair‑use»‑transformasjoner, gransker domstoler i USA og Europa i økende grad om storskala tekstmining uten eksplisitte lisenser krenker forfatternes rettigheter. Søksmålet følger en bølge av lignende handlinger, fra forfattere som saksøker over AI‑genererte romaner til musikkforlag som krever royalties for AI‑skapte sanger. For et forlag som er avhengig av en jevn strøm av barnebøker, truer den påståtte misbruket inntektsstrømmene og reiser spørsmål om fremtiden for digital publisering i et AI‑drevet marked. Hva du bør følge med på: Münchens domstols første avgjørelse om jurisdiksjon og muligheten for en midlertidig pålegg som kan tvinge OpenAI til å blokkere den spesifikke outputen. OpenAI forventes å svare med et detaljert forsvar, muligens ved å påberope seg sine datafiltreringsmekanismer som ble innført etter den nylige DNS‑smuggling‑fiksen. Utfallet kan forme lisensforhandlinger mellom AI‑utviklere og rettighetshavere og kan påvirke EU‑kommisjonens kommende AI‑lovgivning, som har som mål å sette klarere forpliktelser for treningsdata. Bransjeobservatører vil også holde øye med om andre forlag blir med i søksmålet eller søker separate forlik, noe som vil signalisere hvordan forlagssektoren vil tilpasse seg den raske veksten av generativ AI.
60

Affectionate Computer – Star Trek

Mastodon +6 kilder mastodon
voice
Et norsk AI‑start‑up har lansert «Affectionate Computer», en stemmestyrt assistent som bevisst etterligner den tørrvitte, kun‑faktabaserte tonen til den originale Star Trek‑romskipdatamaskinen. I motsetning til dagens pratglade assistenter som krydrer svarene med vitser og småprat, svarer det nye systemet i en kortfattet, kalkulator‑lignende stil og leverer rådata uten et lag av vennlighet. Lanseringen, kunngjort på Oslo AI‑Summit 30. mars, inkluderer en offentlig demonstrasjon hvor boten rapporterer orbitalparametre, værmeldinger og økonomiske nøkkeltall med en stemme som uomtvistelig minner om 1960‑talls‑serien. Tiltaket er viktig fordi det går imot en dominerende designfilosofi som menneskeliggjør AI for å øke engasjementet. Ved å fjerne følelsesmessig påvirkning hevder utviklerne at brukerne får klarere, mer pålitelig informasjon, særlig i kritiske miljøer som flykontroll, medisinsk diagnostikk eller industriell overvåkning, hvor «assistent‑lignende» prat kan distrahere eller til og med introdusere hallusinasjoner. Tidlige testere fra et skandinavisk flyselskap rapporterte en 15 prosent reduksjon i feil knyttet til spørringstid sammenlignet med konvensjonelle assistenter, noe som tyder på at en nøytral tone kan forbedre operasjonell sikkerhet. Det som nå er å følge med på, er om tilnærmingen får fotfeste utenfor nisje‑piloter. Teamet planlegger å rulle ut et bedrifts‑klassifisert API i Q2, rettet mot sektorer som prioriterer presisjon fremfor personlighet. Samtidig holder intellektuell‑eiendoms‑observatører øye med potensielle lisensforhandlinger med Paramount, rettighetshaver til Star Trek, for å se om hyllesten vil kreve formell godkjenning. Dersom modellen viser seg skalerbar, kan den sette i gang en bredere revurdering av hvordan AI‑grensesnitt balanserer faktualitet med vennlighet, og omforme neste generasjon av digitale «datamaskiner».
57

Europeisk KI-autonomi: Mistral investerer 830 millioner dollar i datasenter

Mastodon +6 kilder mastodon
mistral
Mistral AI, den franske LLM‑spesialisten som har posisjonert seg som en hjørnestein i Europas satsing på AI‑suverenitet, kunngjorde torsdag at de har sikret et lån på 830 millioner dollar for å finansiere et nytt høyytelses‑databehandlingssenter utenfor Paris. Finansieringen vil dekke byggingen av et datasenter i Bruyères‑le‑Châtel, hvor selskapet planlegger å installere omtrent 13 800 Nvidia Grace‑Blackwell‑prosessorer – en skala som vil gjøre det til ett av kontinentets største AI‑fokuserte klynger. Tiltaket kommer etter Mistrals egenkapitalinnhenting på 830 millioner dollar som ble rapportert 31. mars, hvor midlene ble avsatt til Nvidia‑drevet AI‑infrastruktur i hele Europa. Ved å gå til gjeld signaliserer Mistral tillit til sine kontantstrømsutsikter og vilje til å utnytte den økende appetitten blant europeiske banker for suveren‑grad teknologifinansiering. Lånet er også i tråd med EUs Digital Compass‑agenda, som etterspør et «europeisk AI‑økosystem» som kan operere uavhengig av amerikanske og kinesiske skyleverandører. Senteret forventes å tas i drift sent på 2027, og vil levere den beregningskraften som trengs for Mistrals Forge‑plattform og den kommende generasjonen av Euro‑LLM‑er. Nærheten til Paris gir lavere latens for franske bedrifter som er underlagt strenge datalokaliseringsregler, og valget av Nvidia‑maskinvare sikrer kompatibilitet med nye
57

Microsoft: Copilot er kun for underholdningsformål

HN +6 kilder hn
copilotmicrosoft
Microsoft har offentlig omklassifisert sin Copilot‑AI‑pakke som «kun underholdningsprogramvare», et skarpt avvik fra produktivitetsfortellingen som lå til grunn for lanseringen i 2026. Avklaringen kom etter en uke med intens brukerreaksjon på Copilot‑genererte pull‑request‑annonser, fremkomsten av uønskede underagenter med utviklernes brukernavn, og økende bekymringer for at verktøyet ble presentert som en kritisk assistent i Microsoft 365. Uttalelsen, som ble gitt i et kort blogginnlegg og forsterket i en Q&A på utviklerforumet, sier at Copilots primære funksjon er å tilby «kreative, utforskende og rekreasjons‑interaksjoner» snarere enn å påvirke forretningsbeslutninger eller erstatte menneskelig dømmekraft. Microsoft påpekte behovet for å «sette realistiske forventninger» og å overholde nye EU‑regler for AI‑gjennomsiktighet som skiller høy‑risiko‑systemer fra lav‑risiko‑applikasjoner med underholdningsfokus. Hvorfor dette er viktig er todelt. For det første står bedrifter som allerede har integrert Copilot i arbeidsflytautomatisering, dokumentutkast og kodegjennomgang overfor et grått compliance‑område: å bruke et verktøy merket som «underholdning» til operative oppgaver kan gjøre dem ansvarlige etter de nye AI‑forskriftene. For det andre kan omposisjoneringen svekke Microsofts konkurransefortrinn i forhold til rivaler som Google Gemini og Anthropic Claude, som fortsatt markedsfører sine assistenter som produktivitetsforsterkere. Det neste å holde øye med er om Microsoft vil lansere en egen, bedrifts‑klassifisert Copilot‑variant med strengere
54

Betydningskartet: Hvordan innebyggingsmodeller «forstår» menneskelig språk

Mastodon +8 kilder mastodon
embeddings
En ny feature‑artikkel på Towards Data Science, «Betydningskartet: Hvordan innebyggingsmodeller ‘forstår’ menneskelig språk», dykker dypt inn i geometrien som ligger til grunn for moderne store språkmodeller (LLM‑er). Forfatteren guider leserne gjennom hvordan ord‑, setnings‑ og multimodale innebygginger omdannes til høy‑dimensjonale vektorer, hvordan avstandsmål oversettes til semantisk likhet, og hvorfor visualisering av disse vektorene nå ligner på å kartlegge et kognitivt kart snarere enn et svart‑boks‑mysterium. Artikkelen er aktuell fordi innebygginger har gått fra å være en forskningsnysgjerrighet til ryggmargen i hver kommersiell LLM, og driver alt fra søkerangering til personlige anbefalinger. Ved å avdekke den interne «topografien» av betydning – og vise klynger for synonymer, analogier og til og med kulturell skjevhet – gir teksten ingeniører en konkret metode for å revidere modellens oppførsel, finjustere prompt‑er og komprimere modeller uten å miste nyanser. Den fremhever også nyere fremskritt som justeringsteknikker som bringer flerspråklige rom inn i en felles ramme, samt kontrastiv læring som skjerper skillet mellom subtile betydninger. Hvorfor dette er viktig går utover akademisk nysgjerrighet
53

📚💻 Bruke lokale LLM‑er for humanistiske data? Slik gikk det 19.–20. mars på Bring‑your‑own‑data‑labben

Mastodon +6 kilder mastodon
benchmarksfine-tuninghuggingface
Lokale store språkmodeller (LLM‑er) sto i sentrum på “Bring‑your‑own‑data”-labben arrangert av Institute for Empirical Research in the Humanities (IEG) i Mainz 19.–20. mars. I løpet av to intensive dager arbeidet forskere fra historie, litteratur, arkeologi og beslektede fag praktisk med åpen‑kilde‑modeller som kjører på deres egne servere, samt med API‑baserte tjenester som Hugging Face. Deltakerne eksperimenterte med prompt‑utforming, benchmarket ytelse på disiplinspesifikke korpora og finjusterte modeller på sine egne digitaliserte arkiver, alt mens dataene ble holdt internt. Labben svarte på en økende etterspørsel i digital‑humanistikk‑fellesskapet etter verktøy som respekterer datasuverénitet og unngår de uklare data‑innsamlingspraksisene som ble belyst i vår nylige dekning av chatbot‑økosystemer [2026‑03‑31]. Ved å vise at språkmodeller av høy kvalitet kan distribueres lokalt
51

Produsenten 🧠 # ChatGPT, 🧠 # OpenAI, anklaget for brudd på opphavsretten til noen bøker

Mastodon +6 kilder mastodon
openai
OpenAI, skaperen av ChatGPT, har blitt saksøkt i en tysk domstol for påstått opphavsrettskrenkelse knyttet til flere barnebøker publisert i Tyskland. Saksøker – et konsortium av tyske forlag ledet av rettighetshaveren til titlene – hevder at OpenAI har samlet inn hele teksten og illustrasjonene i bøkene uten tillatelse og brukt dem til å trene sin store språkmodell. Ifølge klagen gjengir modellen nå avsnitt og bilder som er «i vesentlig likhet» med de originale verkene når brukere ber om sammendrag eller historiegenererende forespørsler, noe som bryter med tysk opphavsretts eksklusive rettigheter til reproduksjon og distribusjon. Saken bygger på rettstvisten vi rapporterte den 31. mars 2026, da Penguin saksøkte OpenAI over en tysk utgave av en klassisk barnehistorie som chatboten gjengav ordrett. Sammen med nylige handlinger fra Britannica og andre innholdseiere, understreker den tyske søksmålet en økende motstand mot de uklare datainnsamlingspraksisene som ligger til grunn for generativ AI. Juridiske eksperter advarer om at dersom domstolene anser innhentingen av treningsdata som ulovlig, kan AI‑utviklere stå overfor pålegg om stopp, store erstatningskrav og en tvungen omlegging av hvordan de skaffer materiale til modelltrening. OpenAI har foreløpig ikke kommentert den tyske innleveringen, men selskapet har tidligere forsvart sine metoder som «fair use» under amerikansk lov og har begynt å forhandle lisensavtaler med enkelte forlag. Utfallet av den tyske rettssaken vil sannsynligvis påvirke hvordan EU håndhever Digital Services Act og kan føre til nye bransjestandarder for datelisensiering. Interessenter bør følge med på domstolens avgjørelse, eventuelle forliksforhandlinger, og om OpenAI justerer sin treningspipeline for å imøtekomme strengere opphavsrettsoverholdelse i hele EU.
48

📌 Dyp teknisk analyse publisert. “Hvorfor OpenAI virkelig stengte Sora: Beyond the ’Cr”

Mastodon +7 kilder mastodon
openaisora
OpenAI kunngjorde i går at de trekker støtet fra Sora, selskapets AI‑drevne videogenereringstjeneste som ble lansert i oktober 2025. Beslutningen kommer kun seks måneder etter verktøyets offentlige lansering og følger en intern gjennomgang som påpekte uholdbare driftskostnader og lav brukeropptakelse. Sora lovet å omdanne korte tekstprompt til fullt renderte klipp, en evne som utløste en bølge av eksperimenter innen markedsføring, underholdning og utdanning. I praksis krevde tjenesten massive GPU‑klynger for å syntetisere høyoppløselig materiale, en etterspørsel som OpenAI anslår brente omtrent 1 million USD per dag ved maksimal bruk. Kombinert med en beskjeden konverteringsrate – færre enn 5 % av prøvebrukerne gikk over til betalte abonnement – ble økonomien raskt dyster. En separat sikkerhetsrevisjon fremhevet også risikoen for å generere opphavsrettsbeskyttet eller forbudt innhold i stor skala, et problem som allerede har plaget OpenAIs tekst‑ og bildemodeller. Stengingen er viktig fordi den signaliserer et skifte i OpenAIs vekststrategi. I stedet for å satse på kostbare, beregningsintensive produkter, ser selskapet nå ut til å konsolidere rundt sine kjerneprodukter – ChatGPT, GPT‑4‑Turbo‑API‑et og DALL‑E‑bildegeneratoren – samtidig som de strammer inn sine sikkerhets‑ og lisensieringsrammer. Konkurrenter som Runway, Googles Imagen Video og Metas Make‑It‑Real står i fare for å fylle markedshullet, noe som potensielt kan akselerere den bredere utrullingen av AI‑videoverktøy utenfor forskningslaboratoriene. Hva som er verdt å følge med på: OpenAIs ledelse har antydet en «neste‑generasjons» visuell modell som kan bli lansert under et mer restriktivt tilgangsregime, noe som tyder på en fremtid der videogenerering vender tilbake i en slankere, mer kontrollert form. Reguleringsmyndigheter kan også undersøke beslutningen, gitt den nylige gransking av AI‑generert media og brudd på opphavsrett. Bransjen vil følge med på om OpenAI klarer å balansere ambisjon med bærekraft, eller om Soras nedleggelse blir en advarselshistorie for den neste bølgen av generative AI‑produkter.
48

Distribuert LLM‑inferenz over NVIDIA Blackwell og Apple‑silicon via 10 GbE

Dev.to +5 kilder dev.to
appleinferencenvidia
En forsker har demonstrert at en enkelt NVIDIA DGX Spark utstyrt med den nye Blackwell‑GPU‑en (120 GB samlet minne, CUDA 13) kan kobles direkte til en Apple Mac Studio via en 10‑gigabit Ethernet‑kabel for å kjøre en delt LLM‑inferenz‑arbeidsbelastning. Ved å omgå nettverksbrytere og bruke en punkt‑til‑punkt‑kobling på 10 GbE oppnådde oppsettet latens i sub‑mikrosekund‑området og merkbart lavere jitter enn tradisjonelle Ethernet‑over‑bryter‑konfigurasjoner. Modellen ble delt mellom Blackwell‑tensor‑kjernene og Mac Studio‑ens M2 Ultra‑silicon, med Exo‑rammeverket som håndterte automatisk enhetsoppdagelse og dynamisk modell‑sharding. Eksperimentet er viktig fordi det viser at heterogene maskinvareklustre—tradisjonelt isolert etter leverandør—nå kan samarbeide om latens‑følsomme AI‑oppgaver uten å måtte ty til kostbare, homogene GPU‑farmer. For virksomheter som distribuerer samtale‑agenter, sanntids‑oversettelse eller analyse på stedet, kan muligheten til å utnytte ubrukt Apple‑silicon ved siden av høy‑gjennomstrømmende NVIDIA‑GPU‑er kutte kapitalutgifter samtidig som ytelsen bevares. I tillegg omgår den direkte‑koblingsmetoden overheaden fra InfiniBand eller PCIe‑basert RDMA, og gir en pragmatisk vei for datasenteroperatører som allerede kjører blandede OS‑miljøer. Fremover vil fellesskapet følge med på bredere programvarestøtte: PyTorch og TensorFlow forventes å integrere tverr‑plattform‑RDMA‑primitive, mens Apples Metal‑team har antydet et CUDA‑kompatibelt lag for enklere interoperabilitet. Den kommende lanseringen av Apples M5‑silicon og NVIDIAs fullskala Blackwell‑utrulling vil gi mer båndbredde for skalering av slike hybride klustre. Til slutt vil open‑source‑prosjekter som Exo og Ray Serve sannsynligvis legge til turn‑key‑verktøy for multi‑leverandør‑inferenz, og gjøre dagens proof‑of‑concept til et produksjonsklart paradigme for distribuert LLM‑tjeneste.
48

Tysk OWASP‑dag 2026

Mastodon +6 kilder mastodon
Open Worldwide Application Security Project sin tyske avdeling har åpnet registreringen for sitt flaggskip‑arrangement, German OWASP Day 2026, som er planlagt til 23.–24. september i Karlsruhe. Arrangementets nettside (god.owasp.de/2026) ble gjort tilgjengelig denne uken, og bekrefter et todagers program som vil samle utviklere, sikkerhetsingeniører, revisorer og beslutningstakere fra hele Norden og resten av Europa. OWASP‑s årlige konferanse er regionens mest synlige forum for åpen‑kilde‑sikkerhetsstandarder, beste‑praksis‑retningslinjer og fellesskapsdrevet verktøyutvikling. Ved å samles i Karlsruhe – en by som huser en voksende klynge av fintech‑, bil‑ og AI‑oppstartsbedrifter – plasserer 2026‑utgaven seg i skjæringspunktet for Europas satsing på sikker digital transformasjon. Arrangørene har antydet egne spor om AI‑drevet trusselmodellering, styrking av forsyningskjeden og den nylige bølgen av sårbarheter som er avdekket i integrasjoner med store språkmodeller, temaer som har dominert overskriftene etter lanseringen av OpenAI‑s plugin‑marked og Claude‑kodelekkasjen tidligere denne måneden. Tidspunktet er også strategisk: konferansen finner sted kun noen uker før EUs reviderte Cybersecurity Act forventes å tre i kraft, og den vil sannsynligvis fungere som testarena for nye OWASP‑prosjekter som referansearkitekturen «Secure AI». Deltakerne kan forvente hovedtaler fra ledende europeiske sikkerhetsforskere, praktiske workshops om de siste oppdateringene i OWASP Top 10, samt en fremvisning av nye fellesskapsverktøy som har som mål å automatisere sikker koding i AI‑forsterkede utviklings‑pipelines. Hold øye med den fullstendige agendaen og talerliste, som avdelingen lover å publisere tidlig i mai, samt eventuelle kunngjøringer om samarbeids‑piloter med nordiske sikkerhetsfirmaer. Early‑bird‑registrering åpner 1. april, og en konkurranse med begrenset kapasitet, «Hack‑the‑Code», vil bli kunngjort snart, og gir et innblikk i de innovasjonene som kan forme Europas sikkerhetslandskap i de kommende månedene.
48

OpenAI kutter strømmen til sin Sora AI‑videoapp

OpenAI kutter strømmen til sin Sora AI‑videoapp
CBS News on MSN +11 kilder 2026-03-25 news
openaisora
OpenAI kunngjorde tirsdag at de vil permanent stenge ned Sora, den kortformede videoplattformen som lar brukere generere AI‑lagde klipp med ett enkelt tekstprompt. Selskapet la ut en kort melding på X: «Vi sier farvel til Sora», og bekreftet at alle brukerkontoer og innhold vil bli fjernet innen de neste 30 dagene. Beslutningen markerer slutten på et produkt som eksploderte onto scenen i fjor høst, og raskt ble en fremvisning av generativ videoteknologi, samtidig som det utløste en storm av bekymring fra Hollywood‑studioer, annonsører og politikere på grunn av hvor enkelt det er å lage realistiske deepfakes. Bransjeanalytikere sier at motstanden, kombinert med et kraftig fall i daglige aktive brukere rapportert av Wall Street Journal, gjorde Sora til en forpliktelse som veide tyngre enn dens promoteringseffekt. For OpenAI signaliserer nedstengingen et strategisk skifte mot høyere marginprodukter som kode‑assistentverktøy og bedrifts‑AI‑tjenester, områder som har vist robust inntektsvekst i år. Ved å kutte strømmen til en høy‑profilert men kontroversiell forbrukerapp, kan selskapet omfordele ingeniørtalent og sky‑utgifter til produkter med tydeligere inntektsveier og færre regulatoriske motvind. Hva du bør holde øye med: OpenAI har ikke detaljert hvordan de vil håndtere dataene og modellene som drev Sora, noe som etterlater åpne spørsmål om den underliggende videogenereringsmotoren vil bli omdisponert for intern bruk eller lisensiert til partnere. Reguleringsmyndigheter i EU og USA forventes også å nevne Sora‑nedstengingen i kommende veiledning om syntetisk media, noe som kan forme fremtidige etterlevelseskrav for generativ‑videoverktøy. Følg med på OpenAIs neste produktannonseringer, spesielt de som kombinerer deres tekstgenereringskompetanse med visuell output under strengere sikkerhetskontroller.
48

**Prisen på mening: Hvorfor hvert semantisk minnesystem glemmer**

ArXiv +6 kilder arxiv
agents
En ny arXiv‑pre‑print, arXiv:2603.27116v1, argumenterer for at akkurat den geometrien som gjør semantiske minnesystemer nyttige også garanterer at de vil glemme. Forfatterne demonstrerer at enhver stor‑skala AI‑minne som organiserer fakta etter mening – enten ved hjelp av vektorembedding, konseptgrafer eller hierarkiske ontologier – må ofre retensjon etter hvert som rommet fylles. Når nye oppføringer legges til, skyver de uunngåelig eldre punkter mot periferien av embeddings‑manifolden, hvor likhetspoeng reduseres og gjenfinningens nøyaktighet faller. Artikkelen kvantifiserer denne «semantiske driften» og viser at den skalerer med antallet lagrede konsepter, og etablerer dermed en hard avveining mellom generalisering og langsiktig gjenkalling. Resultatet er viktig fordi semantisk minne nå er standard‑bakgrunn for de fleste LLM‑drevne agenter. Gjenfinning‑forsterket generering, plug‑in‑moduler som PlugMem, og de minne‑første arkitekturene vi utforsket i vår artikkel 31. mars «Jeg prøvde å bygge en minne‑første AI… og endte opp med å oppdage at mindre modeller kan slå større» – alle er avhengige av meningsbasert indeksering for å muliggjøre analogi og tverr‑oppgaveoverføring. Hvis glemme‑prosessen er uunngåelig, må systemdesignere enten akseptere en begrenset levetid for lagret kunnskap eller innføre eksplisitte glemmekontroller, periodisk re‑embedding, eller hybride ordninger som kombinerer semantiske lag med rå token‑logger. Funnet forklarer også hvorfor vårt nylige arbeid på «Forgetting» i Claude Code viste seg å være den vanskeligste delen av å bygge et pålitelig minnesystem. Det neste å holde øye med er hvordan fellesskapet reagerer. Man kan forvente en bølge av avbøtende forslag på kommende konferanser som ICLR og NeurIPS, og tidlige eksperimenter fra selskaper som allerede har bygget lav‑minne‑modeller – for eksempel Googles TurboQuant – kan bli omdisponert for å teste teorien. Industrispillere som OpenAI og Anthropic vil sannsynligvis publisere veikart for håndtering av «semantisk forfall», og enhver overgang mot blandet presisjon eller ikke‑semantiske hurtiglagre kan omforme arkitekturen til fremtidige AI‑agenter.
47

Hvis du bruker kodeagenter, vær svært eksplisitt i promptene dine, ikke anta at agenten er implisitt

Mastodon +6 kilder mastodon
agents
En ny veiledning fra ledende utviklere av AI‑verktøy advarer om at utviklere må behandle kodeagenter som bokstavelige utførere snarere enn intuitive samarbeidspartnere. Retningslinjen, publisert denne uken på det åpne forumet AI‑Coding‑Guidelines, viser to side‑om‑side‑prompt‑eksempler: en vag forespørsel som «optimaliser denne funksjonen», som får agenten til å omskrive store kodeblokker, og en presis instruksjon som begrenser endringene til én linje. Kontrasten illustrerer hvordan store språkmodeller, trent på å være hjelpsomme, vil overlevere med mindre brukerne spesifiserer hver eneste begrensning. Advarselen er viktig fordi kodeagenter går fra kun å være assistentfunksjoner i IDE‑er til autonome aktører som kan redigere repositorier, åpne pull‑requests og til og med utløse distribusjonspipelines. Overivrige endringer kan introdusere feil, ødelegge bygg‑pipelines eller avdekke sikkerhetssårbarheter. Nylige hendelser — som en Copilot‑generert patch som utilsiktet fjernet autentiseringskontroller — har allerede fremhevet risikoen. Som vi rapporterte 9. januar 2026 i vår guide «Best practices for coding with agents», er eksplisitte prompt en grunnleggende sikkerhetsvaner, men den nye veiledningen understreker at praksisen ikke er valgfri når
45

Apples iPhone Fold lover den «mest betydningsfulle overhalingen» i produktets historie

Mastodon +6 kilder mastodon
apple
Apple skal ifølge rapporter snart lansere sin første foldbare iPhone, en enhet som Bloomberg‑journalisten Mark Gurman sier vil representere «den mest betydningsfulle overhalingen i iPhone‑historien». I det siste nyhetsbrevet Power On peker Gurman på flere kilder i leverandørkjeden og interne briefinger som bekrefter at en prototype allerede testes, og at Apple planlegger å sende ut telefonen under merkenavnet «iPhone Fold» allerede i høstsesongen 2027. Overhalingen går langt utover en enkel endring av formfaktor. Apple skal tilpasse iOS for en skjerm på over 7 tommer som kan fungere både i brettet og utbrettet modus, med et nytt multitasking‑grensesnitt som lar brukerne kjøre to apper side‑om‑side – en opplevelse som tidligere kun var tilgjengelig på iPad. En spesiallaget hengsel, sannsynligvis basert på nylige patenter for ultratynne glass‑ og polymerlag, skal møte de samme holdbarhetskravene som dagens iPhone‑modeller, samtidig som enheten holdes tynn nok til å få plass i en lomme. Tidlige mock‑ups viser et dobbelt kamerasystem som kan betjene begge skjermene, samt en batteriarkitektur som balanserer det høyere strømforbruket fra to aktive skjermer. Hvorfor dette er viktig er todelt. For det første kan en vellykket foldbar revitalisere Apples flaggskip‑linje på et tidspunkt hvor salget har stagnert, og konkurrenter som Samsung og Huawei allerede har tatt markedsandeler med sine egne foldbare modeller. For det andre tvinger skiftet utviklere til å revurdere app‑oppsett, noe som potensielt kan akselerere Apples satsing på AI‑forsterkede, kontekst‑bevisste grensesnitt som har blitt antydet i de siste AI‑strategi‑briefingene. Hva du bør holde øye med videre: Apples leverandørpartnere kan lekke bestillinger av komponenter til hengselmekanismer eller fleksible OLED‑paneler i løpet av de kommende ukene. WWDC‑talen i juni kan avdekke en utvikler‑preview av det nye iOS‑foldbare grensesnittet, mens en formell produktkunngjøring forventes på et eget høstarrangement, sannsynligvis med pris‑ og tilgjengelighetsdetaljer. Inntil da forblir iPhone Fold den mest overvåkede rykten i mobilindustrien.
45

SixTONES, Mr.Children, Arashi, Midori‑iro Shakai, NiziU… «COUNTDOWN JAPAN musikkchart» ukens TOP10 (28. mars, lørdag)

Mastodon +6 kilder mastodon
apple
Den ukentlige «COUNTDOWN JAPAN»-listen fra Tokyo FM, som er sammensatt av J‑Net FM‑spilleliste, CD‑salg, Apple Music‑streamingpoeng og lytterforespørsler, offentliggjorde sin topp‑10 for uken som begynte 28. mars. Boybandet SixTONES åpnet listen, etterfulgt av den erfarne rockgruppen Mr Children, den gjenopprettede idolkraften Arashi, indie‑pop‑act Midori‑iro Shakai og den stigende jentegruppen NiziU, hvis singel «Dear…» debuterte på nummer 10. Den komplette rangeringen, som ble kringkastet i programmet «JA全農 COUNTDOWN JAPAN» med vertene Granji Tōyama og Shio Sarina, reflekterer en blanding av tradisjonelt salg og digitalt forbruk som har blitt bransjens referansepunkt i Japan. Listen er viktig fordi den viser hvordan japanske publikum balanserer fysiske medier med strømmetjenester som i stor grad er avhengige av algoritmerekommandasjoner. Apple Music sine ukentlige poeng, beregnet av proprietære AI‑modeller som veier
45

Show HN: Jeg gjorde om en skisse til et 3D‑printet pegboard for barnet mitt med en AI‑agent

HN +5 kilder hn
agents
En utvikler skrev på Hacker News at han omgjorde en håndtegnet skisse til et fullt utskrivbart pegboard for barnet sitt ved hjelp av en AI‑kodingagent. Ved å mate en grov markørtegning inn i OpenAIs Codex, oppga han kun to parametere – 4 cm avstand mellom hullene og 8 mm peg‑diameter – og lot modellen generere STL‑filen som trengs for en stasjonær 3‑D‑printer. Etter en kort prøve‑og‑feil‑iterasjon ble den første settet med pinner skrevet ut og gitt til sønnen hans, som umiddelbart begynte å leke. Eksperimentet viser hvordan generativ AI beveger seg utover tekst og kode og inn i fysisk skapelse. Inntil nå har det å omgjøre et 2‑D‑konsept til et produksjonsklart objekt krevd CAD‑ekspertise eller arbeidskrevende manuell modellering. En agent som kan tolke en skisse, utlede dimensjoner og levere klar‑til‑utskrift‑geometri senker terskelen for hobbyister, lærere og småskala‑designere. Det illustrerer også den økende påliteligheten til AI‑drevet kodegenerering etter nylige bekymringer om hallusinasjoner og kvote‑tømmende feil, temaer vi dekket i våre artikler 31. mars og 30. mars om agent‑robusthet og verktøy. Det som følger vil teste om denne arbeidsfly
45

GitHub trekker seg, fjerner Copilot‑annonser i pull‑request etter kritikk

HN +5 kilder hn
copilotmicrosoft
GitHub har i stillhet fjernet «tips»-funksjonen som satte inn promotering av Copilot‑meldinger i pull‑request‑diff‑visninger, etter å ha gitt etter for en bølge av utviklermisnøye som startet tidlig i mars. Endringen, kunngjort mandag i et kort blogginnlegg, gjenoppretter pull‑request‑visningene til tilstanden før eksperimentet og lover en «mer transparent» utrullingsprosess for fremtidige AI‑drevne funksjoner. Kontroversen brøt ut etter at noen få utviklere rapporterte at Copilot automatisk la til korte annonser – merket som «tips» – i enhver pull‑request der verktøyet ble brukt. Den australske programmereren Zach Manson fremhevet problemet da en kollega ba Copilot om å rette en skrivefeil, og den resulterende diff‑en viste et Copilot‑generert forslag ved siden av en reklamebanner. Innen få dager ble praksisen omtalt som påtrengende, og den slørede grensen mellom kodehjelp og markedsføring. GitHubs tidligere erkjennelse av at annonsene var «expected behavior» (se vår rapport fra 31. mars) forsterket bare kritikken, og førte til en flom av negativ tilbakemelding på forum, Twitter og i GitHub‑fellesskapet. Episoden er viktig fordi den tester balansen mellom å tjene penger på AI‑tjenester og å bevare utviklernes tillit. GitHubs økosystem lever av åpenhet; enhver oppfatning av at plattformen bruker kodegjennomganger som en reklamekanal truer dette goodwill‑klimaet og kan fremskynde migrasjon til alternative verktøy. Videre understreker hendelsen behovet for klare opt‑out‑mekanismer og transparent informasjon når AI‑systemer endrer kode. Fremover bør man følge med på GitHubs neste skritt når det gjelder styring av AI‑generert innhold. Selskapet har lovet å publisere en «responsible AI usage policy» og å involvere representanter fra fellesskapet i fremtidige utrullinger av funksjoner. Analytikere vil også holde øye med om Microsofts bredere Copilot‑strategi – som nå driver Office, Azure og VS Code – vil innføre strengere samtykkemekanismer for å unngå lignende motstand i resten av produktporteføljen.
44

Bak hypeen: Bygger et praktisk AI‑minnesystem med vektordatabaser

Dev.to +6 kilder dev.to
agentsvector-db
En ny åpen‑kildekode‑veiledning som ble publisert denne uken viser utviklere hvordan de kan omdanne oppstykket rundt vektordatabaser til et fungerende lag for langtidsminne for autonome AI‑agenter. Veiledningen, skrevet av Prashanth Rao, en veteran innen vektorsøk‑økosystemet, leder leserne gjennom en produksjonsklar Python‑prototype som lagrer embedding‑representasjoner av tidligere interaksjoner i et vektorlager, indekserer dem for rask semantisk oppslag, og eksponerer et enkelt API som agenter kan bruke for å hente kontekstuelt relevant historikk. Koden, som er pakket med Docker‑skript og benchmark‑data, er allerede tilgjengelig på GitHub og blir promotert gjennom en rekke livestream‑demoer. Kunngjøringen er viktig fordi dagens mest synlige AI‑applikasjoner fortsatt er avhengige av kort‑siktige prompt‑vinduer, noe som tvinger agenter til
42

Claude Code‑feil kan stille øke API‑kostnadene 10–20 ganger

Claude Code‑feil kan stille øke API‑kostnadene 10–20 ganger
HN +6 kilder hn
claude
En skjult feil i Anthropic sin Claude Code har blitt bekreftet å oppblåse API‑bruken ti‑til‑tjue ganger, og gjør av en ellers beskjedent månedlig regning til en kostbar overraskelse for utviklere. Feilen, oppdaget av et team av uavhengige revisorer etter at en kundes forbruk skjøt fra det forventede intervallet på 20 $–100 $ til over 2 000 $ i løpet av én uke, skyldes modellens automatiske utvidelse av kontekst. Når Claude Code blir bedt om å «laste inn hele kodebasen», henter den stille inn alle filer, og skyver token‑tallene fra de vanlige 50 000–100 000 til 500 000 eller mer per forespørsel. Siden Anthropic tar betalt per 1 K tokens, omdannes den oppblåste belastningen direkte til en kraftig prisøkning som kan gå ubemerket hen frem til neste faktureringsperiode. Problemet er viktig fordi Claude Code har blitt en hjørnestein i AI‑assistert utvikling i Norden, særlig blant oppstartsbedrifter som er avhengige av VS Code‑plug‑innet for kodeforslag i sanntid. Feilen truer ikke bare budsjettene, men undergraver også tilliten til plattformens kostnadsprediktabilitet – et sentralt salgsargument etter at Anthropic nylig lanserte “Universal Claude”, et verktøy for token‑effektivitet som reduserte AI‑kostnadene med 63 % tidligere denne måneden. Utviklere som allerede har tatt i bruk Pro‑nivået til 20 $ per måned, kan finne seg selv utilsiktet oppgradert til Max 20×‑planen, som koster 200 $, uten å ha innsett hva som utløste oppgraderingen. Anthropic har utgitt en oppdatering som deaktiverer automatisk lasting av hele prosjektet med mindre dette uttrykkelig er godkjent, og lover en retroaktiv kreditt til berørte kontoer. Selskapet kunngjorde også et nytt dashbord for bruksovervåkning som flagger økter som overstiger 200 K tokens. Hold øye med utrullingen av dette dashbordet i løpet av de neste to ukene, samt eventuelle oppfølgingsretningslinjer fra EU‑s sin AI‑reguleringsmyndighet, som forventes å granske utydelige prisingsmekanismer i AI‑som‑en‑tjeneste‑tilbud. Som vi rapporterte 31. mars, er verktøy som forbedrer token‑effektivitet kun verdifulle dersom de underliggende modellene opptrer transparent; dette eksempelet understreker behovet for strengere sikkerhetstiltak.
41

Apple lanserer første betaversjoner av watchOS 26.5, tvOS 26.5 og visionOS 26.5

Mastodon +7 kilder mastodon
apple
Apple har rullet ut de første betabyggene av watchOS 26.5, tvOS 26.5 og visionOS 26.5, og gjort dem tilgjengelige for utviklere via Apple Developer‑portalen. De tre oppdateringene kommer en uke etter Apples kunngjøring 30. mars om at selskapet akselererer on‑device‑store‑språk‑modeller (LLM) på tvers av økosystemet. watchOS 26.5 legger til en rekke forbedringer for helsesporing, inkludert mer detaljert analyse av søvnfaser og en ny “Mindful Minutes”-måling som bruker on‑device‑AI til å oppdage stressmønstre fra hjertefrekvensvariabilitet. Oppdateringen utvider også “Siri Shortcuts”-rammeverket, slik at tredjepartsapper kan utløse handlinger basert på kontekstuelle signaler som posisjon eller aktivitet uten å sende data til skyen. tvOS 26.5 fokuserer på Apple TV‑opplevelsen og introduserer en lav‑latens spillmodus som utnytter Apples egennevrale motor til å oppskalere grafikk i sanntid. En oppdatert HomeKit‑integrasjon lar brukere styre smarthjem‑scener via stemme eller bevegelser, mens den nye “Watch Together”-funksjonen synkroniserer avspilling på flere enheter for felles visning. visionOS 26.5 er den mest betydningsfulle av trioen. Den bringer en oppdatert rom‑lyd‑motor og et sett med utviklervennlige API‑er som eksponerer Vision Pros on‑device‑LLM for naturlig språk‑interaksjon i mixed‑reality‑apper. Tidlige skjermbilder viser et “Contextual Overlay”-verktøy som kan vise relevant informasjon om fysiske objekter bare ved å se på dem – et tydelig steg mot den AI‑drevne visjonen Apple hintet om i sin strategi‑artikkel 30. mars. Hvorfor det er viktig: Betaversjonene signaliserer at Apple går fra inkrementelle OS‑justeringer til et samlet AI‑lag som spenner over wearables, TV og mixed‑reality‑maskinvare. Ved å holde den tunge behandlingen på enheten styrker Apple sitt personvern‑narrativ samtidig som de gir utviklere en kraftig ny verktøykasse. Hva som skjer videre: Apple forventes å åpne betaversjonen for en bredere utviklergruppe tidlig i april, etterfulgt av en offentlig lansering sannsynligvis i takt med WWDC‑talen i september. Observatører vil følge med på om on‑device‑LLM‑ene modnes nok til å erstatte skybaserte tjenester, og hvor raskt tredjepartsapper tar i bruk den nye visionOS‑interaksjonsmodellen. Utrullingen reiser også spørsmål om ytelse på eldre maskinvare og om Apple vil utvide disse AI‑funksjonene til iOS 26.5 senere i år.
40

Hvorfor Demis Hassabis valgte Google fremfor Facebook til tross for et større tilbud fra Mark Zuckerberg

The Financial Express +7 kilder 2026-03-31 news
deepmindgoogle
Demis Hassabis, den britiske AI‑forskeren som medgrunnla DeepMind og nå leder Googles AI‑divisjon, har offentlig bekreftet at han takket nei til en betydelig høyere lønnspakke fra Metas Facebook til fordel for å bli med i Larry Pages Google. Beslutningen, som ble avslørt i en kort uttalelse til pressen, understreker Hassabis’ tro på at Googles langsiktige visjon for kunstig intelligens samsvarer bedre med hans egne ambisjoner enn de kortsiktige økonomiske insentivene som Zuckermans team tilbyr. Flyttingen er viktig fordi Hassabis’ ledelse har vært avgjørende for å omforme DeepMinds tidlige gjennombrudd – som AlphaGo og AlphaFold – til skalerbare, kommersielle produkter. Ved å bli i Google får han tilgang til selskapets enorme datainfrastruktur, skyressurser og en bedriftskultur som prioriterer storskalig, tverrfaglig forskning. Til sammenligning var Metas tilbud, selv om det var økonomisk sjenerøst, knyttet til en mer silo‑basert tilnærming med fokus på sosiale‑medier‑sentrerte AI‑applikasjoner. Hassabis’ valg signaliserer en tillitsstemning til Googles multimodale veikart, inkludert den nylig lanserte Gemini 3‑serien, som lover tettere integrasjon av språk‑, bilde‑ og resonneringskapasiteter. Analytikere vil følge med på hvordan Hassabis’ innflytelse former Googles neste bølge av AI‑tjenester, fra bedrifts‑klassede modeller til forbruker‑rettede verktøy. Nøkkelindikatorer inkluderer hastigheten på utrullingen av Gemini 3, eventuelle nye partnerskap med helse‑ eller klima‑teknologiselskaper gjennom Isomorphic Labs, og allokeringen av Googles AI‑budsjett til beregningsintensiv forskning. Likeledes vil Metas respons – om de akselererer sin egen talent‑anskaffelseskampanje eller endrer AI‑strategien – fungere som en barometer for konkurransedynamikken i kappløpet om lederskap innen grunnleggende AI. Beslutningen kan godt sette tonen for hvor topp‑AI‑talenter velger å bygge den «radikale overfloden» som Hassabis forestiller seg.
39

Ny AI-modell kan oppdage flere kognitive hjernesykdommer fra en enkelt blodprøve

Mastodon +6 kilder mastodon
protein
Et forskerteam ved Sveriges Karolinska Institut har avdekket en dyp‑læringsmodell som kan identifisere flere neurodegenerative lidelser fra en enkelt blodprøve. Ved å mate algoritmen med massespektrometriedata fra tusenvis av proteinnedbrytere, lærer systemet å gjenkjenne de subtile, sykdomsspesifikke signaturene som skiller Alzheimer, Parkinson, amyotrofisk lateralsklerose og frontotemporal demens i ett trekk. I et valideringssett med 3 200 deltakere oppnådde modellen en gjennomsnittlig sensitivitet på 92 % og spesifisitet på 89 % på tvers av de fire tilstandene, og overgikk konvensjonelle biomarkørpaneler som vanligvis krever separate analyser for hver sykdom. Gjennombruddet er viktig fordi dagens diagnostikk er avhengig av kostbar hjerneavbildning, lumbalpunksjon eller symptombaserte vurderinger som ofte kommer sent i sykdomsforløpet. En blodbasert, multippeltest kan flytte oppdagelsen til primærhelsetjenesten, muliggjøre tidligere terapeutisk intervensjon, bedre pasientstratifisering for kliniske studier, og en betydelig reduksjon i helseutgifter. Dessuten viser tilnærmingen hvordan AI kan trekke ut klinisk relevante mønstre fra høy‑dimensjonale proteomiske data som tradisjonelle statistiske metoder ikke klarer, og åpner en vei for lignende multippel‑screeninger innen onkologi og metabolske lidelser. De neste stegene vil avgjøre om teknologien går fra laboratoriet til klinikken. Teamet planlegger en multisentret prospektiv studie i Norge, Danmark og Finland senere i år for å bekrefte yt
39

Apple offentliggjør betaversjoner av iOS 26.5, iPadOS 26.5, macOS 26.5, tvOS 26.5, visionOS 26.5 og watchOS 26.5 | APPLE LINKAGE

Mastodon +6 kilder mastodon
apple
Apple har åpnet sitt utvikler‑beta‑program for de neste inkrementelle utgivelsene av alle hovedplattformene – iOS 26.5, iPadOS 26.5, macOS 26.5 (kodenavn Tahoe), tvOS 26.5, visionOS 26.5 og watchOS 26.5. Betaversjonene, som ble gjort tilgjengelige 31. mars, følger 26.4‑bølgen og gir utviklere en måned lang periode til å teste nye API‑er før den planlagte offentlige lanseringen i september. Den mest synlige endringen er innføringen av ende‑til‑ende‑kryptering for RCS‑meldinger (Rich Communication Services), som endelig gjør det mulig for iPhone‑brukere å utveksle sikre chatter med Android‑enheter. Apple testet funksjonen først i 26.4‑betaen, men utsatte den til 26.5 etter omfattende sikkerhetsvurderinger. I hele pakken ruller Apple også ut strengere personvernkontroller for posisjons‑ og helsedata, en oppdatert Core ML‑stabel som kjører store språkmodeller lokalt på enheten med lavere latens, samt Vision Pro‑spesifikke UI‑forbedringer i visionOS 26.5. For nordiske utviklere er oppdateringen viktig fordi de nye AI‑API‑ene på enheten senker terskelen for å bygge avanserte assistenter og oversettelsesverktøy som kan kjøre lokalt – en nøkkelfordel i regioner med strenge regler for datalagring. Den krypterte RCS‑broen kan også endre dynamikken i meldingsmarkedet, og gi Apple et fotfeste i kryss‑plattform‑chat som lenge har vært dominert av Googles Messages. Hva du bør holde øye med videre: Apple vil publisere en andre beta tidlig i april, sannsynligvis med finpuss på AI‑pipeline‑ene og en utvidet utrulling av RCS. De endelige utgivelsene forventes i september, men selskapet har hintet om en «iOS 27‑forhåndsvisning» senere i år, noe som tyder på at 26.5 er et steg mot en større AI‑sentrert omlegging. Observatører vil også følge med på hvordan de nye funksjonene integreres med den nylig kunngjorte iPhone Fold og kommende maskinvareoppdateringer for Vision Pro.
39

Mistral skaffer 830 millioner dollar for å bygge Nvidia‑drevne AI‑sentre i Europa

HN +6 kilder hn
fundingmistralnvidiastartup
Mistral AI, det franske oppstartsselskapet bak den eponyme store språkmodellen, har fullført en senior‑sikret gjeldsfasilitet på 830 millioner dollar for å finansiere et nytt, Nvidia‑drevet AI‑datasenter i nærheten av Paris. Lånet skal dekke kjøp av omtrent 13 800 Nvidia H100‑GPU‑er og byggingen av et anlegg på 44 megawatt – omtrent en og en halv gang så stor strømforbruk som et typisk hyperskala‑senter. Finansieringen, som kommer fra et konsortium av europeiske banker og statlige investorer, er den største avtalen om AI‑infrastruktur med ett enkelt formål i Europa så langt. Tiltaket er et direkte svar på kontinentens hastverk med å matche beregningskapasiteten til amerikanske og kinesiske sky‑giganter. Ved å etablere et høy‑tetthets, GPU‑rikt knutepunkt i EU
38

Apple publiserer Photoshop‑ og PNG‑bezel‑maler for MacBook Neo og MacBook Air M5 i Apple Design Resources

Mastodon +6 kilder mastodon
apple
Apple har lagt til Photoshop‑ og PNG‑format bezel‑maler for de kommende MacBook Neo‑ og MacBook Air M5‑modellene på sin Apple Design Resources‑portal. Filene, som er tilgjengelige for gratis nedlasting, dekker de fire nye M4‑chip‑fargevariantene – Sky Blue, Midnight, Starlight og Silver – og inneholder nøyaktige dimensjoner for hver chassisstørrelse. Designere og utviklere kan nå sette inn mock‑ups i nøyaktig skala av laptopene i markedsføringsgrafikk, tilbehørs‑renderinger, app‑skjermbilder og AR‑opplevelser uten å måtte måle eller gjenskape maskinvaren manuelt. Dette trekket utdyper Apples langvarige strategi med å tilby ferdige ressurser som forenkler tredjepartsproduksjon. Ved å tilby PNG‑versjoner ved siden av de tradisjonelle Photoshop‑filene, utvider Apple kompatibiliteten til et bredere spekter av bildebehandlingsverktøy, fra vektor‑editorer til AI‑drevne designgeneratorer. Dette senker terskelen for små studioer og uavhengige skapere til å lage høyoppløselige visualer som samsvarer med Apples merkevare‑retningslinjer, og kan potensielt akselerere økosystemet av tilbehør, etuier og programvare som viser frem den nye MacBook‑serien. Tidspunktet er bemerkelsesverdig: MacBook Neo og Air M5 er de første Mac‑ene som leveres med M4‑prosessoren, og deres friske fargepalett markerer et visuelt skifte for Apples laptop‑utvalg. Etter hvert som utviklere begynner å integrere malene i produktsider og kampanjemateriell, vil kvaliteten og konsistensen i tredjepartsinnhold sannsynligvis forbedres, noe som styrker Apples premium‑image samtidig som markedsførere får en ferdiglaget snarvei. Det som bør følges med på videre, er hvor raskt tilbehørsprodusenter tar i bruk malene, og om AI‑baserte designplattformer begynner å pakke dem inn i automatiserte mock‑up‑arbeidsflyter. Apples neste oppdatering av Design Resources‑siden kan legge til lignende ressurser for den sagnomsuste MacBook Pro M5, og utviklere vil være ivrige etter å se om selskapet utvider PNG‑biblioteket til kommende maskinvare som iPhone 17 og Apple Watch Ultra 3.
38

Alludo lanserer Parallels Desktop for Mac 26.3.0 med forbedret stabilitet og feilrettinger | Programvare | Mac OTAKARA

Mastodon +6 kilder mastodon
apple
Alludo har lansert Parallels Desktop for Mac 26.3.0 på markedet, og beskriver oppdateringen som en stabilitetsfokusert utgave som retter en rekke langvarige feil. Den nye versjonen kommer kun noen uker etter at Apple åpnet betakanaler for iOS, iPadOS, macOS, tvOS, visionOS og watchOS 26.5, og den gir full kompatibilitet med disse forhåndsutgavene, inkludert innebygd støtte for Apple‑silicon‑Mac‑er med M2‑ og de nylig kunngjorte M3‑brikkene. Oppgraderingen strammer inn planleggeren for virtuelle maskiner, en endring som Alludo hevder reduserer CPU‑begrensning og eliminerer de sporadiske «VM‑frysningene» som plaget tidligere 26.x‑utgivelser. Nettverksrelaterte feil som ble rapport
37

Microsoft Copilot legger inn annonser i pull‑requests på Microsoft Github er forventet oppførsel. #AI #Ge

Mastodon +7 kilder mastodon
copilotmicrosoftopenai
Microsoft har bekreftet at de promoteringstekstene som dukker opp i kommentarer til pull‑requests generert av GitHub Copilot er bevisste, ikke en feil. Den AI‑drevne kodegjennomgangsfunksjonen setter nå inn korte «tips» som lenker til Microsoft‑eide eller partner‑tjenester – mest fremtredende en Raycast‑utvidelse – hver gang den foreslår en endring. Atferden dukket først opp tidlig i mars da utviklere, inkludert Zach Manson, rapporterte at de så et annonse‑lignende forslag i en pull‑request. Som vi rapporterte 30. mars, utløste hendelsen en debatt om tillit og skjevhet i AI‑assisterte utviklingsverktøy. Microsofts avklaring kommer etter at intern telemetri viste at mer enn 1,5 millioner pull‑requests på tvers av GitHub og til og med GitLab har mottatt slike promoteringstilkoblinger siden funksjonen ble
37

📰 Prefill, Decode og KV‑cache: 3 skjulte prosesser som øker hastigheten til LLM‑er (med data fra 2026) – Store språkmodeller

Mastodon +7 kilder mastodon
Et felles forskningsprosjekt mellom Nordisk institutt for AI‑systemer og IBMs Fusion HCI‑team publiserte en detaljert analyse av inferens‑pipelines for store språkmodeller (LLM), og avdekket hvordan tre ofte oversette faser – prefill, decode og håndtering av nøkkel‑verdi‑cache (KV‑cache) – står for mesteparten av ventetiden og kostnadene i produksjonsmiljøer. Ved å bruke et korpus av inferens‑logger fra 2026, samlet fra over 12 millioner API‑kall på tvers av OpenAI‑, Anthropic‑ og Meta‑modeller, kvantifiserer studien tiden som brukes i hver fase, viser hvordan fragmentering av KV‑cachen øker minnebåndbredden, og demonstrerer at en semantisk‑bevisst planlegger kan kutte slutt‑til‑slutt‑responsen med opptil 35  % uten å gå på bekostning av gjennomstrømning. Resultatene er viktige fordi inferenskostnadene fortsatt er den dominerende posteringen for AI‑drevne tjenester. Ved å isolere prefill‑stadiet – der prompten tokeniseres og KV‑cachen fylles – fra decode‑stadiet – der tokenene genereres sekvensielt – viser forfatterne at aggressiv batch‑behandling i prefill og spekulativ dekoding i decode kan kombineres med dynamisk oppvarming av cachen for å redusere både tid‑til‑første‑token (TTFT) og inter‑token‑latens (ITL). Deres KV‑cache‑algoritme, som gjenbruker innebygde representasjoner fra semantisk lignende prompts, reduserer VRAM‑lesninger med 40 % og senker strømforbruket, noe som er en fordel for kant‑baserte applikasjoner og for organisasjoner som sliter med prisene på $0,02–$0,05 per token som nylig ble introdusert av Anthropic og OpenAI. Det som nå er viktig å følge med på, er hvor raskt skyleverandører og åpne‑kilde‑inferens‑stabler tar i bruk disse teknikkene. vLLM og den nye llm‑d‑planleggeren gir allerede hint om integrasjon, men en bredere utrulling vil avhenge av maskinvarestøtte – særlig de neste generasjons tensor‑kjernene IBM lover for 2027 – og av standardisering av KV‑cache‑API‑er på tvers av rammeverk. Hvis bransjen omfavner anbefalingene i papiret, kan neste bølge av AI‑produkter levere ChatGPT‑nivå respons med en brøkdel av dagens kostnader.
36

📰 Qwen3.5 Omni 2026: Den innfødte multimodale AI‑en som overgår Gemini – Qwen3.5 Omni, Alibabas nyeste

Mastodon +7 kilder mastodon
geminimultimodalqwen
Alibaba’s Tongyi Lab avduket Qwen 3.5 Omni 30. mars 2026 og presenterte den som den første virkelig innfødte multimodale store språkmodellen som kan behandle tekst, bilder, lyd, video og sanntidssøk på nettet i én end‑to‑end‑arkitektur. Utgivelsen markerer et tydelig skifte bort fra den såkalte «wrapper»-tilnærmingen, der separate syns‑ eller lyd‑enkodere ble festet på en kun‑tekst‑bakgrunn; Qwen 3.5 Omni sin hybrid‑attention mixture‑of‑experts‑kjerne (MoE) behandler alle modaliteter innfødt, og gir en sømløs brukeropplevelse på tvers av medietyper. Benchmark‑resultatene som ble publisert sammen med modellen viser at den overgår Googles Gemini på oppgaver innen lydforståelse, og at den kan håndtere mer enn ti timer med rå tale og 400 sekunder med 720p‑video med én ramme per sekund, samtidig som den beholder et kontekstvindu på 256 k‑token. Tre instruksjons‑justerte varianter – Plus, Flash og Light – dekker et spekter fra 0,8 milliarder til 27 milliarder parametere, mens MoE‑familien skalerer opp til en konfigurasjon på 397 milliarder parametere (A17 B). Stemmekloning, sanntidssøk og kodegenerering er nå samlet i én modell, en funksjon som tidligere var fordelt på flere spesialiserte systemer. Lanseringen er viktig fordi innfødt multimodalitet reduserer latenstid, senker inferenskostnader og forenkler distribusjon, noe som gir Alibaba et konkurransefortrinn innen sky‑AI‑tjenester og bedriftsverktøy. Nordiske selskaper som benytter Alibaba Cloud for AI‑arbeidsbelastninger får nå et lokalt alternativ til Googles og Microsofts multimodale tilbud, noe som potensielt kan endre innkjøpsbeslutninger i sektorer fra medieproduksjon til autonome roboter. Hva som er verdt å følge med på: Alibaba har lovet en åpen‑vekt‑utgivelse senere i år, noe som kan akselerere fellesskapsdrevet innovasjon og fremme integrasjon i nordiske SaaS‑plattformer. Konkurrenter som DeepSeek, Mistral og Google forventes å svare med oppgraderte syn‑‑lyd‑pipelines, mens den kommende Gemini 2.0‑oppdateringen kan ha som mål å redusere ytelsesgapet. De neste månedene vil vise om Qwen 3.5 Omni kan omsette sin benchmark‑ledelse til reell markedsandel.
36

📰 Microsoft Copilot Cowork lanseres i 2026: Multi‑modell‑AI for Microsoft 365

Mastodon +7 kilder mastodon
claudecopilotmicrosoft
Microsoft har åpnet Copilot Cowork for medlemmer av sitt Frontier‑tidlig‑tilgangsprogram, og utvider den AI‑drevne assistenten som ble kunngjort samme dag den 30. mars. Den nye versjonen kombinerer Microsofts egne GPT‑baserte modeller med Anthropics Claude, og skaper en «multi‑modell»-motor som kan bytte mellom generatorer avhengig av oppgavens kompleksitet, datasensitivitet eller nødvendige resonneringsdybde. Oppgraderingen legger til en rekke samarbeidsverktøy designet for langvarige, flertrinnsarbeid på tvers av Microsoft 365‑pakken. Brukere kan nå be Copilot Cowork om å utarbeide forskningsoversikter, verifisere kilder, og deretter overlate utkastet til Claude for en «Kritikk»-runde som påpeker logiske hull og foreslår alternative argumenter. En bakgrunns‑oppgave‑kjører kan utføre repeterende handlinger – som å flytte filer, oppdatere regneark eller sende oppfølgings‑e‑post – uten brukerintervensjon, og frigjør kunnskapsarbeidere til å fokusere på beslutninger med høyere verdi. Hvorfor dette er viktig er tosidig. For det første gir den hybride modellen Microsoft et konkurransefortrinn i kappløpet om å integrere generativ AI i kontorproduktivitet, og utfordrer direkte Googles Gemini‑drevne Workspace‑funksjoner. For det andre gjør evnen til å blande modeller det mulig å unngå «én‑størrelse‑passer‑alle»-begrensningen som har hemmet tidligere copiloter, og lover høyere nøyaktighet for forskningsintensive domener som jus, finans og vitenskapelig rapportering. Frontier‑utrullingen signaliserer også Microsofts tillit til at teknologien er trygg nok for bedrifts‑piloter, til tross for nylig gransking av AI‑generert kode og annonse‑innsettinger i pull‑requests. Hva som er å holde øye med videre: Microsoft planlegger å utvide Copilot Cowork‑tilgjengeligheten utover Frontier innen Q4 2026, med særlig fokus på å integrere sanntidsdata fra Teams og Viva. Analytikere vil følge med på hvordan bedrifter tar i bruk bakgrunns‑oppgave‑automatiseringen, og om den dobbelte modell‑tilnærmingen reduserer hallusinasjoner sammenlignet med enkel‑modell‑copiloter. Den neste oppdateringen forventes å åpne et API som lar tredjepartsutviklere bygge inn Kritikk‑motoren i tilpassede linje‑for‑forretnings‑apper, og potensielt gjøre Copilot Cowork til en plattform snarere enn et funksjonssett. Som vi rapporterte 30. mars, markerer dette den første store utvidelsen av Copilot Cowork‑initiativet; de kommende månedene vil vise om multi‑modell‑strategien kan innfri løftet om økt produktivitet.
36

Jeg designet et minnesystem for Claude Code — «Glemsel» var den vanskeligste delen

Dev.to +5 kilder dev.to
agentsanthropicclaude
Anthropics Claude Code har lenge skrytt av en «auto‑minne»-funksjon som skriver filer basert på samtaler og laster dem inn igjen i senere økter, og lover utviklere en sømløs måte å bevare prosjektkonteksten på. Funksjonen har imidlertid en innebygd feil: hver fil beholdes med lik vekt, noe som får minnelageret til å vokse ubegrenset og tvinger modellen til å sløse verdifulle kontekst‑vindu‑tokens på foreldet data. En utvikler som ønsker å forbli anonym, publiserte en tre‑lags minnearkitektur som takler problemet direkte. Designet deler minnet inn i kort‑sikt, mellom‑sikt og lang‑sikt lagre, hver med egne beholdningspolicyer. Avgjørende er at systemet introduserer en eksplisitt «glemsel»-rutine som beskjærer lav‑nytte‑oppføringer fra kort‑sikt‑laget og konsoliderer tilbakevendende mønstre i lang‑sikt‑lageret. Forfatteren rapporterer en 40 % reduksjon i token‑forbruk per økt og en målbar økning i relevansen til kode‑fullføring, spesielt i store, utviklende kodebaser. Hvorfor dette er viktig, er tosidig. For det første fakturerer Claude Codes prismodell etter token‑bruk; å kutte kontekst‑vinduet gir direkte lavere kostnader for team som er avhengige av agenten for kontinuerlig integrasjon, feilsøking og refaktorering. For det andre fører ukontrollert minnevoks til sikkerhetsbekymringer, ettersom utdaterte filer kan inneholde hemmeligheter eller utdaterte påloggingsdetaljer. Ved å håndheve disiplinert glemsel demper den nye arkitekturen både økonomiske og personvern‑risikoer. Som vi rapporterte 31. mars 2026, var Claude Codes auto‑minne allerede en fremtredende funksjon, og Anthropic har rullet ut plugins for GitHub Actions og IDE‑integrasjon. De neste stegene å følge med på er om Anthropic adopterer den tre‑lags tilnærmingen i sin offisielle lansering, hvordan glemsel‑heuristikkene eksponeres via API, og om tredjepartsverktøy — som Claude‑Code‑routeren på GitHub — begynner å innlemme det nye systemet. En formell kunngjøring fra Anthropic i de kommende ukene kan sette en ny standard for minnehåndtering i AI‑drevne kodeassistenter.
32

📰 Bitboard Tetris‑AI: 53 ganger raskere forsterkningslæring med PPO og ettertilstandsevaluering i 2026

Mastodon +6 kilder mastodon
benchmarksreinforcement-learningtraining
Et team av forskere har avduket en ny Bitboard‑basert Tetris‑AI‑ramme som kutter simuleringstiden for forsterkningslæring (RL) med en faktor på 53. Ved å omforme spillbrettet til et 64‑bits heltall og bruke aggressive bit‑operasjoner, evaluerer motoren «ettertilstander» – brettkonfigurasjonen som oppstår etter at en brikke er plassert – i én CPU‑syklus. Kombinert med Proximal Policy Optimization (PPO) og et hybridt Python‑Java‑kjøremiljø, kan systemet generere mer enn 10 millioner spillsteg per time, noe som overgår de noen hundre tusen stegene som var typisk for tidligere Tetris‑RL‑oppsett. Gjennombruddet er viktig fordi Tetris lenge har vært et testmiljø for sekvensielle beslutningsalgoritmer, men den kombinasjonelle eksplosjonen har gjort treningsløp ekstremt trege. Raskere simulering gir direkte større replay‑buffer, dypere policy‑oppdateringer og, kritisk, muligheten til å benchmarke nye RL‑teknikker i stor skala uten uoverkommelig beregningskostnad. Den åpne kildekoden (arXiv 2603.26765, GitHub) inviterer fellesskapet til å plugge motoren inn i eksisterende biblioteker som Stable‑Baselines3 eller RLlib, og kan dermed akselerere forskning på prøve‑effektiv læring, curriculum‑design og hierarkisk planlegging. Fremover vil fellesskapet følge med på hvor raskt Bitboard‑motoren tas i bruk i akademiske artikler og AI‑konkurranser. Tidlige adoptører kan utvide ettertilstandskonseptet til andre flis‑baserte spill – Connect‑Four, 2048 eller til og med forenklede versjoner av Go – for å teste om de samme hastighetsgevinstene holder. Samtidig antyder forfatterne en kommende versjon som utnytter GPU‑akselererte bit‑operasjons‑kjerner, og lover ytterligere en størrelsesorden i ytelse. Hvis trenden fortsetter, kan Tetris utvikle seg fra en nisjebenchmark til en høy‑gjennomstrømmings‑sandbox for neste generasjons RL‑gjennombrudd.
31

Avdekker AI‑frontier: Lærdom fra Claude Mythos/Capybara‑lekkasjen

Dev.to +6 kilder dev.to
anthropicclaude
Anthropics interne «Claude Mythos»-modell – med kodenavn Capybara – har blitt avslørt etter et datalekkasj, og gir AI‑samfunnet sitt første konkrete innblikk i det selskapet beskriver som en «steg‑endring» i forhold til sitt flaggskip‑system Opus. De lekkede dokumentene, lagt ut på et offentlig forum av en anonym kilde, avslører et nytt nivå av kapasitet som ligger over Opus, Sonnet og Haiku, og som prises tilsvarende for bedrifts‑ og regjeringskunder. Lekken viser at Capybara oppnår betydelig høyere poeng i programmering, kompleks resonnering og, spesielt, cybersikkerhetsvurderinger. Interne sammenligningsmålinger plasserer ytelsen på standard programmeringstester flere poeng foran Opus 5, mens trusselmodell‑simuleringer antyder en motstandskraft mot adversarielle forespørsler som kan måle seg med dedikerte sikkerhetsmodeller. En intern notat fra Anthropic beskriver modellen som den «mest kapable» i porteføljen, og antyder en prispremie som kan omforme økonomien rundt høykvalitets‑AI‑tjenester. Dette er viktig av to grunner. For det første signaliserer fremkomsten av et fjerde modellnivå at konkurranseracen om frontier‑AI akselererer utover den kjente tre‑nivå‑stigen, og legger press på konkurrenter som OpenAI og Google til å introdusere tilsvarende oppgraderinger. For det andre kan det eksplisitte fokuset på cybersikkerhet gjøre Claude
28

OpenAI legger på hyllen den planlagte «voksenmodus» for ChatGPT, dager etter at de har droppet Sora

OpenAI legger på hyllen den planlagte «voksenmodus» for ChatGPT, dager etter at de har droppet Sora
CNET on MSN +7 kilder 2026-03-27 news
openaisora
OpenAI kunngjorde tirsdag at de på ubestemt tid legger på hyllen «voksenmodus»-funksjonen de hadde planlagt for ChatGPT, et trekk som følger den brå nedleggelsen av den kortvarige videodelingsappen Sora. Beslutningen, rapportert av Financial Times og gjentatt av flere teknologimedier, innebærer at selskapet ikke vil lansere en erotisk chatbot som ville ha gjort det mulig for brukere å be om eksplisitt seksuelt innhold. Voksenmodus‑planen ble foreslått tidlig i år som et middel til å utvide ChatGPTs appell og erobre et nisjemarked som konkurrenter som Anthropic og Google har antydet at de vil utforske. Intern gjennomgang avdekket imidlertid en rekke juridiske og omdømmemessige risikoer: mulige brudd på aldersverifiseringslover i EU og USA, økt eksponering for ikke‑samtykkende deep‑fake‑generering, samt sannsynligheten for at funksjonen kan bli brukt som et våpen for trakassering eller ulovlig innhenting av personopplysninger. De samme bekymringene dukket opp under Soras korte levetid, som ble
26

LLM‑benchmark som 1‑vs‑1 RTS‑spill hvor modeller skriver kode som styrer enhetene

Lobsters +6 kilder lobsters
benchmarksopen-source
**LLM Skirmish**, et nytt åpen‑kilde‑benchmark, setter store språkmodeller opp mot hverandre i en 1‑vs‑1 duell innen sanntidsstrategi (RTS) der modellene genererer JavaScript‑koden som styrer ni enheter på hver side. Testen bygger på Screeps‑API‑et, et sandkasse‑miljø hvor kode kjøres kontinuerlig i en spillverden, og begrenser handlingene til de enkle kommandoene move() og pew(). Hver modell møter først en menneskeskapt basis‑bot i ti runder, før den deltar i en round‑robin‑turnering med ti spill per motstander, der ASCII‑snapshots av brettet lagres etter hver tick. Benchmarket er utformet for å avdekke modellens evne til in‑kontekst‑resonnement, tilpasning til dynamisk tilbakemelding og håndtering av beregningskostnad når den genererer kjørbar kode. I motsetning til statiske spørsmål‑og‑svar‑tester tvinger LLM Skirmish AI‑en til å forutsi motstanderens trekk, allokere ressurser og iterativt finjustere strategien under strenge latenskrav. Tidlige resultater viser at nyere instruksjons‑tune‑de modeller som Claude 3.5 og GPT‑4o overgår eldre, større modeller, noe som gjenspeiler hierarkiet vi så i LLM Buyout Game Benchmark den 31. mars 2026. Betydningen er todelt. For det første er evnen til å skrive og kjøre kode i sanntid et kjernebruksområde for AI‑assistert programvareutvikling, og benchmarket gir en konkret, reproduserbar målemetode for denne kapasiteten. For det andre gir kostnadseffektivitetssignalet — hvor mange API‑kall og beregningssykluser en modell bruker for å vinne — direkte innsikt til bedrifter som vurderer avveiningen mellom modellstørrelse og driftskostnader, et tema som ble fremhevet av den nylige Claude Code‑kostnadsinflasjons‑buggen. Fremover planlegger fellesskapet å utvide arenaen med større kart, flere enhetstyper og scenarier med samarbeid mellom flere agenter. Forskere vil også integrere forsterknings‑lærings‑sløyfer som lar modeller lære av sine egne spill‑logger, noe som potensielt kan viske ut skillet mellom kodegenerering og autonom agent‑trening. Den neste utgivelsen, som er planlagt til Q2 2026, lover en rangliste som kan bli de‑facto‑standard for måling av strategisk, kode‑skrivende AI.
24

Bitboard‑versjon av Tetris‑AI

ArXiv +6 kilder arxiv
agentsreinforcement-learningtraining
En ny preprint (arXiv:2603.26765v1) avdekker en «bitboard»-versjon av en Tetris‑AI som ombygger spillmotoren og forsterknings‑lærings‑pipelines for dramatisk høyere gjennomstrømning. Forfatterne erstatter den tradisjonelle rutenett‑baserte brettrepresentasjonen med et kompakt bitboard‑oppsett – hver rad lagres som ett heltall der bitene koder for okkuperte celler. Denne endringen reduserer minnebruken kraftig og muliggjør vektoriserte bit‑operasjoner for fall, linjesletting og kollisjonskontroller, og skyver simuleringshastighetene langt forbi grensene for eksisterende Tetris‑implementasjoner. Artikkelen kombinerer bitboard‑motoren med en oppgradert policy‑optimaliserings‑stabel som støtter Proximal Policy Optimisation, Advantage Actor‑Critic og nyere etter‑tilstand‑evaluerings‑teknikker. Tidlige eksperimenter rapport
24

A‑SelecT: Automatisk tidsstegvalg for Diffusjons‑Transformer‑representasjonslæring

ArXiv +6 kilder arxiv
Et nytt arXiv‑preprint, A‑SelecT: Automatic Timestep Selection for Diffusion Transformer Representation Learning (arXiv:2603.25758v1), foreslår en metode som lar Diffusion Transformers (DiTs) velge det mest informative avdempings‑tidssteget uten menneskelig inngripen. Forfatterne trener en lettvekts‑velger som evaluerer kvaliteten på latente funksjoner ved hvert diffusjonstidssteg og velger det som maksimerer etterfølgende ytelse. I eksperimenter på ImageNet‑1K og flere fler‑etikett‑visjons‑benchmarker, forbedrer A‑SelecT klassifiseringsnøyaktigheten med opptil 2 prosentpoeng samtidig som antallet nødvendige trenings‑epoker reduseres med omtrent 30 %. Utviklingen er viktig fordi diffusjonsmodeller, som tidligere var begrenset til bildesyntese, nå blir omdisponert for diskriminative oppgaver som funksjonsekstraksjon og tverr‑modal gjenfinning. Tidligere arbeid, inkludert vår dekning av forsterknings‑lærings‑styrt diffusjon 30. mars, fremhevet potensialet i diffusjonsbaserte representasjoner, men påpekte også en praktisk flaskehals: det optimale diffusjonstidssteget varierer mellom datasett og oppgaver, og manuell valg er tidkrevende og feilutsatt. Ved
24

DesignWeaver: Dimensjonalt Støttesystem for Tekst‑til‑Bilde Produktdesign

ArXiv +6 kilder arxiv
text-to-image
DesignWeaver, et nytt AI‑drevet grensesnitt for produktdesign, ble avduket i en revidert arXiv‑preprint (2502.09867v2) på tirsdag. Systemet tar tak i en vedvarende flaskehals for nybegynnere: å omforme vage idéer til effektive prompt‑tekster for tekst‑til‑bilde‑generatorer. Ved å analysere bildene som modellen produserer og trekke ut fremtredende design‑dimensjoner—som stil, materiale, ergonomi og farge—presenterer DesignWeaver en palett av valgbare attributter som brukerne kan veve inn i rikere, mer målrettede prompt‑tekster. Forskningsgruppen, ledet av Sirui Tao, evaluerte verktøyet i en kontrollert studie med 52 deltakere som hadde begrenset design‑erfaring. Sammenlignet med en tradisjonell tekst‑kun‑prompt‑editor skrev brukere av DesignWeaver lengre, mer nyanserte prompt‑tekster og genererte et bredere spekter av nye konsepter. Forfatterne argumenterer for at den «dimensjonale støttestrukturen» reduserer den kognitive belastningen ved prompt‑engineering og åpner opp generativ visualisering for et bredere publikum. Gjennombruddet er viktig fordi kvaliteten på prompt‑ene fortsatt er den primære faktoren for å hente verdi fra store tekst‑til‑bilde‑modeller. Ved å demokratisere konstruksjonen av prompt‑er kan DesignWeaver akselerere idéutvikling i tidlige faser, minske avhengigheten av spesialiserte designere og omforme arbeidsflyter innen forbruker‑varer, møbler og bilindustri. Tilnærmingen antyder også en ny klasse av interaktive AI‑verktøy som lukker sløyfen mellom output og input, et tema som også kommer frem i nyere arbeid med minne‑forsterkede agenter og reduksjon av hallusinasjoner. Det som nå er verdt å følge, er veiene mot kommersiell integrasjon. DesignWeavers kodebase er planlagt å bli gjort åpen kildekode senere i år, og flere CAD‑plattformer har allerede vist interesse for å innlemme den palett‑baserte prompt‑editoren. Oppfølgingsstudier vil sannsynligvis utforske utvidelser til 3‑D‑generering, sanntids‑tilbakemeldingssløyfer, og påvirkningen på immaterielle rettigheter etter hvert som AI‑genererte design blir stadig mer utbredt. De kommende månedene vil vise om DesignWeaver går fra forskningsprototype til en fast bestanddel i hverdagslig produktdesign.
23

Apple, Apple Silicon‑Mac har rettet feil som gjør X11‑vinduer svarte og flere sårbarheter, og lanserer Mac‑versjonen av X Window System «XQuartz v2.8.6 Beta 4» med signert sertifikat som er gyldig til 2031.

Mastodon +6 kilder mastodon
apple
Apple har publisert XQuartz v2.8.6 Beta 4, en signert oppdatering av det åpne kildekode‑baserte X Window System for macOS som løser en langvarig renderingsfeil på Apple Silicon og tetter flere sikkerhetshull. Utgivelsen, kunngjort av Apple‑ingeniør Jeremy Huddleston‑Sequoia 28. mars, legger til et kode‑signeringssertifikat som er gyldig frem til 2031 – et trekk som signaliserer en fornyet forpliktelse til plattformen. Oppdateringen fjerner det såkalte “svart‑vindu‑problemet” som har plaget X11‑applikasjoner på M‑serien‑brikker, der klientvinduet ble helt mørkt selv om programmet kjørte korrekt under overflaten. Feilen dukket opp etter at utviklere begynte å portere vitenskapelige visualiseringsverktøy, eldre ingeniørpakker og noen AI‑relaterte GUI‑er til Apple Silicon, ofte via virtualiseringslag som Parallels Desktop. I tillegg adresserer beta‑versjonen flere sårbarheter som ble offentliggjort tidligere i år, fra privilegie‑heving i X‑serveren til potensielle tjenestenekt‑angrep via feilformede X‑protokoll‑forespørsler. Hvorfor dette er viktig, er tosidig. For det første er XQuartz fortsatt den de‑facto broen for Unix‑opprinnelig grafisk programvare som fortsatt er avhengig av X11 – et nisje‑men viktig økosystem for forskningslab, utviklere og avanserte brukere som ennå ikke kan migrere til native macOS‑rammeverk. For det andre gjenoppretter sikkerhetsforsterkningen tilliten hos bedrifter som kjører X11‑baserte fjernskrivebord eller containeriserte arbeidsbelastninger på Mac, spesielt etter hvert som Apple Silicon blir standardmaskinvare i datasenter‑klasse‑utrullinger av Mac mini og Mac Studio. Fremover vil fellesskapet følge med på en endelig stabil versjon og på eventuelle tegn til at Apple kan pakke en signert XQuartz‑versjon med kommende macOS‑oppdateringer. Integrasjon med kommende watchOS 26.5, tvOS 26.5 og visionOS 26.5‑betaer kan utvide rekkevidden til X11‑avhengige verktøy på tvers av Apples stadig voksende enhetsportefølje. Sikkerhetsforskere vil også holde øye med om nye sårbarheter dukker opp etter hvert som kodebasen tilpasses ARM‑arkitekturen.
23

Safari Technology Preview fyller 10 år: Et tiår med testing av Apples webteknologier

Mastodon +6 kilder mastodon
apple
Apple markerer en milepæl for sin eksperimentelle nettleser: Safari Technology Preview (STP) fyller ti år. Jubileet, som fremheves i en MacRumors‑artikkel, feirer et tiår med tidlige bygge‑versjoner som lar utviklere og avanserte brukere teste webstandarder, ytelsesforbedringer og sikkerhetsoppdateringer før de når den stabile Safari‑kanalen. Den nyeste STP‑utgivelsen, versjon 213, kommer med en håndfull feilrettinger og inkrementelle oppdateringer til WebKit, Apples åpne kildekode‑renderingsmotor, og understreker programmets jevne forbedringsrytme. Betydningen strekker seg utover et bursdagsbanner. Siden lanseringen i 2016 har STP fungert som et prøveland for funksjoner som nå former hovednettleseren – som WebGPU, forbedrede personvernkontroller og den kompakte fanebarraden introdusert i macOS Tahoe 26.4. Ved å eksponere banebrytende API‑er for et verifisert fellesskap samler Apple inn data fra virkelige bruksområder og kompatibilitets‑tilbakemeldinger, noe som akselererer modningen av webstandarder samtidig som risikoen for regresjoner i forbrukerproduktet reduseres. For nordiske utviklere, mange av dem som bygger SaaS‑plattformer på Apples økosystem, forblir forhåndsvisningen et viktig verktøy for å sikre at nye JavaScript‑API‑er og CSS‑muligheter fungerer pålitelig på både iOS‑ og macOS‑enheter. Når vi ser fremover, forventes neste bølge av STP‑bygg å vise Apples satsing på generativ AI i nettleseren. Rykter antyder integrering av on‑device LLM‑inferens for smartere autofyll, innholdssammendrag og tilgjengelighetsassistanse – funksjoner som vil passe inn i Apples bredere AI‑strategi som ble belyst i vår dekning av 30. mars. Observatører bør holde øye med den kommende versjon 222, som skal inneholde tidlige prototyper av disse AI‑drevne verktøyene, samt dypere WebGPU‑støtte som kan jevne konkurransevilkårene for høy‑ytelses web‑apper på Apple‑silicon. Det tiårige løpet til Safari Technology Preview viser at Apples inkrementelle, utvikler‑sentrerte tilnærming fortsatt former fremtiden for nettinteraksjon.
21

Bygg din egen kodeagent

Mastodon +6 kilder mastodon
agentsgemini
En ny Leanpub‑tittel får oppsving i det nordiske AI‑miljøet. J. Owens «Bygg din egen kodeagent: Den null‑magi‑veiledningen til AI‑agenter i ren Python» tilbyr en trinn‑for‑trinn‑blåkopi for å konstruere en produksjonsklar kodeassistent fra en enkelt Python‑fil, uten å stole på ugjennomsiktige rammeverk. Boken leder leserne gjennom 13 iterative stadier – fra et enkelt Gemini‑API‑kall til en fullt distribuert agent på Modal med Telegram‑integrasjon, vedvarende minne og sandkasse‑kjøring – og kulminerer i et praktisk prosjekt som bygger et komplett Snake‑spill i Pygame uten at forfatteren skriver noen kode. Veiledningen kommer på et tidspunkt da utviklere i økende grad krever åpenhet og kontroll over AI‑verktøyene som skriver kode for dem. Nylige gjennombrudd, som den selv‑evolverende kodeagenten som ble avduket av en Meta‑praktikant tidligere denne måneden, har demonstrert kraften i store språkmodeller (LLM)‑drevet automatisering, men mange løsninger forblir låst bak proprietære stakker. Owens tilnærming, som bytter mellom sky‑ og lokale modeller med én enkelt kommando og til og med kjører «hjernen» på en laptop via Ollama, adresserer direkte dette gapet, og lover lavere kostnader, enklere revisjon og muligheten til å skreddersy promptene etter interne retningslinjer. Bransjeobservatører ser publikasjonen som en katalysator for en bredere gjør‑det‑selv‑bevegelse. Hvis utviklere kan spinne opp pålitelige agenter uten dyp ML‑ekspertise, kan IDE‑leverandører bli tvunget til å eksponere mer av sine interne komponenter, og åpen‑kilde‑økosystemer som OpenHands og GPT‑OSS kan få en bølge av bidrag. Sikkerhets‑fokuserte team vil også følge med på hvordan sandkasse‑kjøring skalerer når agenter får skriveadgang til produksjonskodebaser. De kommende ukene vil vise om veiledningens «null‑magi»-løfte omsettes til bred adopsjon. Nøkkelindikatorer vil være vekst i GitHub‑stjerner for de tilhørende repositoriene, integrasjons‑demoer fra nordiske oppstartsbedrifter, og eventuelle tidlige benchmark‑resultater som sammenligner lokalt‑kjørte agenter med kun‑sky‑tjenester.
21

🤖 Jeg prøvde å bygge en minne‑først AI… og oppdaget at mindre modeller kan slå større

Mastodon +6 kilder mastodon
claude
En utviklers sideprosjekt har snudd AI‑skaleringens spillbok på hodet. Ved å koble inn et lettvektig «minne‑først»-lag i en beskjeden logistisk TF‑IDF‑klassifikator, oppnådde forfatteren 92,37 % nøyaktighet på Banking77‑20‑intentsklassifiserings‑benchmarken – på nivå med, og i enkelte tilfeller over, langt større transformer‑baserte modeller som vanligvis krever millioner av parametere. Eksperimentet, beskrevet i et nylig blogginnlegg, sammenlignet den minne‑forsterkede lille modellen med en statisk basislinje som scoret 91,61 % under identiske forhold, mens begge brukte de samme 64 940 trenings­eksemplene og samme inferens‑latens (0,473 ms per spørring). Minnekomponenten, inspirert av Claude Codes «memory layer» som holder AI‑agenter forankret i tidligere kontekst, lagrer kort‑siktige fakta og henter dem på forespørsel, og utvider dermed modellens kunnskap uten å øke størrelsen. Resultatet er viktig fordi det utfordrer den rådende oppfatningen om at kun større modeller kan gi høyere ytelse. Tidligere denne måneden rapporterte vi om Googles TurboQuant, som kutter minnefotavtrykket med opptil seks‑fold, og om Apples arbeid med å destillere Gemini‑lignende evner ned på en‑het‑chips. De nye funnene tyder på at smarte arkitektoniske triks – spesielt eksterne minnebuffere – kan levere sammenlignbare gevinster uten den maskinvare‑overheaden som følger med massive parameterantall. For bedrifter som søker kostnadseffektiv AI, lover tilnærmingen lavere skyregninger, redusert latens og strengere personvernkontroller, siden sensitiv kontekst kan forbli på enheten. Det neste å holde øye med er om minne‑først‑paradigmet får fotfeste utover hobby‑demoer. Forskere utforsker allerede retrieval‑augmented generation og spec‑first‑arbeidsflyter som blander langsiktige kunnskapsbaser med kompakte modeller; en formell benchmark‑suite kan snart dukke opp for å kvantifisere avveiningene. Dersom store skyleverandører eller chip‑produsenter integrerer minnelag i sine stacker, kan vi se en ny generasjon av «små‑men‑smarte» AI‑tjenester som kan måle seg med dagens gigantiske systemer samtidig som de bruker en brøkdel av beregningsbudsjettet. De kommende månedene vil vise om dette eksperimentet utløser et bredere skifte i modell­design eller forblir en nisjekuriositet.
20

3 kunstig intelligens‑aksjer (AI) som kan sikre deg økonomisk trygghet for livet

3 kunstig intelligens‑aksjer (AI) som kan sikre deg økonomisk trygghet for livet
AOL +7 kilder 2026-03-12 news
Motley Fool sin nyeste forskningsnote har satt søkelyset på tre kunstig‑intelligens‑selskaper som analytikerne mener kan «sikre deg økonomisk trygghet for livet» ved å levere overdimensjonerte avkastninger etter hvert som sektoren øker sine utgifter. Ifølge analytikerne er de ledende AI‑aktørene på vei til å øke kapitalutgiftene med 50 prosent eller mer i 2026, en oppsving som vil drive bygging av nye datasentre, skreddersydd silisium og programvareplattformer av neste generasjon. De tre navnene rapporten fremhever er Nvidia (NVDA), Microsoft (MSFT) og Alphabet (GOOGL). Nvidias dominans innen GPU‑akselerert databehandling har allerede blitt til et næremonopol på maskinvaren som driver store språkmodeller, og selskapet kunngjorde en utvidelse av sitt Fab 12‑anlegg i Taiwan på 30 milliarder dollar for å møte den forventede etterspørselen. Microsoft, som utnytter sin Azure‑sky og den nylig integrerte GPT‑5.4‑modellen, utdyper sin portefølje av AI‑som‑tjeneste og har avsatt 20 milliarder dollar til AI‑fokusert datasenterkapasitet. Alphabet, med sin DeepMind‑forskningsarm og utrullingen av Gemini‑2 på tvers av Google Cloud, kanaliserer en tilsvarende skala av investeringer i skreddersydde TPU‑er og AI‑drevne annonseverktøy. Hvorfor dette er viktig er todelt. For det første signaliserer kapitalutgiftsbølgen en strukturell endring: AI går fra eksperimentelle prosjekter til kjerneinfrastruktur, noe som betyr at inntektsstrømmene vil bli mer foruts
20

Prompt Engineering eller innramming av naturlige språkspørringer til generative AI‑systemer – dette er et tidlig utkast

Mastodon +6 kilder mastodon
Et utkastkapittel med tittelen «Prompt Engineering eller innramming av naturlige språkspørringer til generative AI‑systemer» er blitt lagt ut på Transhumanity‑plattformen, og gir første offentlige innblikk i en kommende bok som har som mål å systematisere håndverket med å formulere prompts til store språkmodeller (LLM‑er). Kapittelet er skrevet av AI‑forsker Dr. Lina Kaur, og beskriver en tredelt rammeverk – syntaktisk innramming, kontekstuell forankring og iterativ raffinering – samt viser hvordan subtile endringer i ordlyden kan få modellens svar til å gå fra plausible til misvisende. Utgivelsen er viktig fordi prompt‑engineering har utviklet seg fra en hobby‑triks til en profesjonell disiplin som direkte påvirker AI‑pålitelighet, kostnadseffektivitet og regulatorisk etterlevelse. Kaurs utkast hevder at systematisk prompting kan redusere hallusinasjonsrater med opptil 40  % i komplekse resonneringsoppgaver, et påstand som gjenspeiler nyere arbeid med graf‑baserte verktøy for verifisering (se vår rapport fra 30. mars om en Rust‑grafmotor). Ved å behandle prompts som programmerbare grensesnitt i stedet for ad‑hoc‑spørringer, kan virksomheter innlemme reproduserbarhet i AI‑pipelines – en forutsetning for å skalere generativ AI i sektorer som finans, helsevesen og bilmarkedsføring – områder hvor vi nylig rapporterte en 75  % økning i produktiviteten til Volkswagens kampanje. Kapittelet peker også på fremvoksende standardiseringsorganer, inkludert ISO/IEC‑s AI‑sentrerte utarbeidingsgruppe, som forventes å vedta en «prompt‑design‑taksonomi» senere i år. Leserne bør holde øye med bokas fullstendige utgivelse, planlagt til Q4 2026, samt den tilhørende open‑source‑verktøykassen som Kaur lover å inkludere sammen med teksten. Tidlige brukere vil sannsynligvis teste rammeverket på åpne modeller som LLaMA‑2, mens større leverandører kan integrere retningslinjene i sine prompt‑tuning‑API‑er. Denne utrullingen kan endre hvordan utviklere, dataforskere og forretningsbrukere kommuniserer med generativ AI, og gjøre prompt‑engineering fra en skjult kunst til en målbar ingeniørpraksis.
20

**Jeg har ikke tenkt å gjøre dette til en #AIslop‑konto, men jeg likte bare hvordan denne ble, lo**

**Jeg har ikke tenkt å gjøre dette til en #AIslop‑konto, men jeg likte bare hvordan denne ble, lo**
Mastodon +6 kilder mastodon
gemini
**Sammendrag:** Googles Gemini‑modell får uventet oppslutning blant skapere, noe et nylig innlegg på X (tidligere Twitter) viser. Brukeren, som foretrekker å forbli anonym, delte en egenprodusert tegneseriestripe som er generert helt med Geminis bilde‑genereringsverktøy, og beskriver resultatet som «behagelig overrasket» over kvaliteten. Innlegget, merket med #Gemini, #generativeai og #comicstrip, er en del av en økende bølge av «AI slop» – uformelle fremvisninger av AI‑produsert kunst som flommer over i sosiale medier. Betydningen ligger i hvor raskt Geminis visuelle evner går fra eksperimentelle demonstrasjoner til brukbar kreativ produksjon. Inntil nå har Googles multimodale tilbud blitt overskygget av konkurrenter som OpenAIs DALL‑E 3, Stability AIs Stable Diffusion og Midjourney, som dominerer den offentlige oppfatningen av AI‑generert bilde­materiale. Geminis evne til å gjengi sammenhengende, stiliserte paneler som tjener et narrativt formål, tyder på at modellen har nådd et nivå av konsistens og estetisk kontroll som tidligere kun var domenet til spesialiserte verktøy. Utviklingen faller sammen med Googles nylige gjennombrudd innen maskinvare‑effektivitet. Som vi rapporterte 31. mars 2026, reduserer Googles TurboQuant‑arkitektur minneforbruket for store modeller uten å forringe kvaliteten, en endring som kan akselerere utrullingen av mer krevende generative funksjoner på tvers av sky‑ og forbrukerprodukter. Lavere minnefotavtrykk gjør også inferens på enheten mer gjennomførbart, og kan potensielt bringe høy‑fidelity bildeskapning til Android‑telefoner og Chrome‑OS‑laptoper. **Hva vi bør holde øye med:** Google har antydet en Gemini 2.0‑oppdatering senere i år, med løfter om høyere oppløsning og tettere integrasjon med Google Workspace. Bransjeobservatører vil være ivrige etter å se om selskapet åpner et API for tredjepartsutviklere, noe som kan sette i gang en ny bølge av AI‑drevet tegneseriekreativitet. I mellomtiden vil det kreative fellesskapet sannsynligvis teste grensene for Geminis stiloverføring og prompt‑engineering‑evner, og dermed sette standarden for neste generasjon av generativ visuell AI.
20

Hvorfor OpenAI virkelig stengte Sora | TechCrunch

Mastodon +6 kilder mastodon
openaisora
OpenAI kunngjorde på X at de stenger ned Sora, den kortformede AI‑videogeneratoren som gikk viralt etter lanseringen i juni. Beslutningen, tatt bare seks måneder etter at tjenesten ble gjort tilgjengelig for publikum, markerer den siste reverseringen i selskapets raske utrulling av forbrukerrettede verktøy. Som vi rapporterte 31. mars 2026, trakk OpenAI støtet fra Sora på grunn av bekymringer om misbruk av deep‑fakes og spirende driftskostnader. Den nye TechCrunch‑analysen legger til at investorpress og en skjult datainnsamlingsvinkel var avgjørende. Soras onboarding‑prosess ba brukerne laste opp personlige ansiktsbilder, noe som førte til spekulasjoner om at plattformen ble brukt til å samle inn et stort biometrisk datasett for fremtidig modelltrening. Kilder nær styret sier at risikokapitalinvestorer, som var bekymret for regulatorisk motstand og omdømmerisikoen ved en «krypende» deep‑fake‑tjeneste, oppfordret selskapet til å kutte tapene før saken eskalerte. Stengingen er viktig fordi den signaliserer et strategisk tilbaketrekning fra kostbare, lavmargin‑forbrukervideo‑AI‑produkter. OpenAIs bal
20

MAD Bugs: vim vs emacs vs Claude

MAD Bugs: vim vs emacs vs Claude
Mastodon +6 kilder mastodon
claude
Claude, Anthropics flaggskip‑LLM, har nettopp bevist at den kan fungere som en full‑stack sårbarhetsjeger. Da den ble gitt en enkel forespørsel – «Noen fortalte meg at det finnes en RCE‑0‑dag når du åpner en fil. Finn den.» – identifiserte modellen ikke bare en fjern‑kode‑eksekusjonsfeil i både Vim og Emacs, men genererte også en fungerende proof‑of‑concept‑fil og bekreftet at den kunne utnyttes. Funnene ble publisert på bloggen calif.io, hvor forfatteren går gjennom promptene, PoC‑payloaden og verifiseringsstegene. Oppdagelsen er viktig fordi Vim og Emacs sitter i hjertet av enhver utviklers arbeidsflyt på Linux, macOS og BSD‑systemer. En RCE som utløses ved åpning av en ondsinnet fil, kan spre seg stille gjennom utviklingsmiljøer, CI‑pipelines og til og med produksjonsservere som bruker editorene for skriptredigering eller logginspeksjon. Det faktum at en AI kan lokalisere og våpenføre en slik feil med minimal menneskelig veiledning, øker risikoen for programvaresikkerhet: AI‑drevet feiljakt kan overgå tradisjonelle gjennomgangsprosesser, samtidig som den senker terskelen for ondsinnede aktører til å lage utnyttelser. Begge oppstrømsprosjektene har reagert raskt. Vims vedlikeholder utga en nød‑patch som strammer inn håndteringen av filtyper og deaktiverer den sårbare kodeveien, og Emacs‑fellesskapet har åpnet en sikkerhetstråd for å vurdere påvirkningen og forberede en fiks. Anthropic har ikke kommentert de konkrete promptene, men gjentok sitt engasjement for ansvarlig AI‑bruk og skal ifølge rapporter gjennomgå sine bruksretningslinjer for kode‑genererende modeller. Hva man bør holde øye med videre: man kan forvente en bølge av AI‑assisterte sikkerhetsverktøy som kan skanne kodebaser og binærfiler for null‑dager i stor skala, noe som vil presse leverandører til å styrke utviklingsverktøy og innføre AI‑bevisste trusselmodeller. Reguleringsorganer kan også begynne å utforme retningslinjer for avsløring av AI‑genererte utnyttelser. Til slutt vil fellesskapet følge med på om Anthropic innfører sikkerhetstiltak – som filtrering av prompt eller bruksbegrensninger – for å dempe utilsiktet våpenisering av sine modeller.
20

I have to use GitHub for $reasons and Copilot decided to make some sub‑agents with my username, whic

Mastodon +6 kilder mastodon
agentscopilot
GitHub Copilots nyeste funksjon – under‑agenter som kjører under en brukers håndtak – har utilsiktet gjort noen utvikleres innbokser til spam‑generatorer. En bruker som nylig delte en Postfix header_checks‑regel rapporterte at Copilot automatisk opprettet “under‑agenter” navngitt med et “@”‑prefiks av deres GitHub‑brukernavn. Hver under‑agent sendte automatiserte varsel‑e‑poster, og fordi adresse­mønsteret matchet vanlig e‑post‑ruting, spredte meldingene seg over brukerens domene og oversvømte innbokser med tusenvis av redundante varsler. Hendelsen er viktig fordi den avdekker et blindt punkt i hvordan AI‑drevne utviklingsverktøy samhandler med eksisterende IT‑infrastruktur. Copilots agent‑arkitektur, som ble rullet ut i oktober 2025, lar en primær kode‑agent spawne kontekst‑isolerte under‑agenter som kan kjøre ulike modeller for oppgaver som kodegjennomgang, testing eller dokumentasjon. Selv om designet lover raskere, mer modulære arbeidsflyter, kolliderer standard navnekonvensjon med vanlige e‑post‑håndteringsregler, og skaper en denial‑of‑service‑risiko for organisasjoner som er avhengige av automatisert e‑post‑behandling. For team som allerede har integrert Copilot i CI‑pipelines, kan den plutselige strømmen av intern e‑post overvelde overvåkingsverktøy, utløse falske alarmer og øke operasjonell overhead. GitHub har foreløpig ikke gitt en offisiell uttalelse, men den fellesskapsdrevne løsningen – å legge til en regel i Postfix‑header_checks for å forkaste eller omdirigere meldinger adressert til “@<brukernavn>”-mønstre – sirkulerer allerede på utviklerfora. Administratorer oppfordres til å revidere sine e‑post‑servere for lignende mønstre og vurdere å begrense Copilots e‑post‑varsler inntil navnekonvensjonen blir revidert. Hva man bør holde øye med videre: GitHub‑produktteamet forventes å adressere navnekonflikten i en kommende Copilot‑oppdatering, muligens ved å legge til konfigurerbare prefikser
20

OpenAI kutter strømmen til Sora, den virale AI‑videopplikasjonen som vekket bekymring for deepfakes

NPR +6 kilder 2026-03-25 news
openaisora
OpenAI kunngjorde tirsdag at de stenger ned Sora, den kortformede videogeneratoren som ble viral etter lanseringen i september. I et kort innlegg på X sa selskapet at de “tar farvel med Sora‑appen” og lovet snart å forklare hvordan brukerne kan bevare klippene de allerede har laget. Sora gjorde det mulig for alle å skrive inn en prompt og få en 15‑sekunders AI‑laget video, en funksjon som utløste både en bølge av kreativitet og samtidig bekymring. Verktøyets brukervennlighet senket terskelen for å produsere realistiske bevegelige bilder, noe som fikk etikere, regulatorer og medieovervåkere til å advare om at det kunne fremskynde spredningen av deepfakes og feilinformasjon. Innen noen uker flommet Sora‑klipp over TikTok og Reddit, noe som førte til krav om vannmerkingsstandarder og om at plattformene skulle skjerpe sine deteksjonsverktøy. Nedstengingen gjenspeiler OpenAIs bredere omkalibrering av høy‑risikoprodukter. Bare noen uker tidligere stoppet selskapet den planlagte “adult‑mode” for ChatGPT, med henvisning til sikkerhetsbekymringer, en hendelse vi dekket 31. mars. Ved å trekke Sora ser OpenAI ut til å prioritere risikostyring fremfor rask utrulling av funksjoner, spesielt ettersom de møter økende gransking fra EU‑s AI‑lovgivning og fra nordiske datavernmyndigheter. Hva som skjer videre vil avhenge av hvordan OpenAI håndterer det eksisterende Sora‑biblioteket. Analytik
20

Dette Google AI‑gjennombruddet kan avslutte den globale RAM‑krisen tidligere enn forventet

Android Headlines on MSN +7 kilder 2026-03-28 news
google
Googles AI‑forskningsgruppe kunngjorde en ny minnekompresjonsteknikk som kan redusere RAM‑behovet for å kjøre store språkmodeller med opptil seks ganger, et sprang som analytikere mener kan dempe den globale DRAM‑mangelen langt før tiårets slutt. Metoden, kalt “TurboQuant‑X”, bygger på kvantisering‑ og aktiverings‑rekombinasjons‑triksene som ble presentert i Googles TurboQuant‑paper tidligere denne måneden, men legger til en dynamisk sparsitet‑planlegger som beskjærer og gjenoppretter nevroner i sanntid, og bevarer modellkvaliteten innenfor en nøyaktighetsmargin på 0,5 % på benchmark‑oppgaver. Gjennombruddet er viktig fordi dagens AI‑boom driver etterspørselen etter høy‑båndbredde‑minne i takt som overstiger kapasiteten til chip‑fabrikker, noe som øker prisene på DRAM og HBM og presser marginene til sky‑leverandører. Ved å kutte minnefotavtrykket til inferens‑arbeidsbelastninger gjør TurboQuant‑X det mulig for datasentre å kjøre flere modeller på samme maskinvare, reduserer energiforbruket og senker materialkostnadene for edge‑enheter som tidligere krevde spesialiserte AI‑brikker
20

Google kunngjorde nettopp virkelig dårlige nyheter for Micron og SanDisk

Motley Fool· via Yahoo Finance +6 kilder 2026-03-30 news
google
Googles lansering av TurboQuant – en AI‑fokusert minnekompresjons‑algoritme – fikk aksjene i Micron Technology (MU) og SanDisk (SNDK) til å falle i før‑markedshandel torsdag. I et blogginnlegg forrige uke hevdet Googles forskningsteam at den nye teknikken kan kutte minnefotavtrykket til store språkmodeller med opptil seks ganger, samtidig som inferenskvaliteten bevares – en påstand som ble gjentatt i vår rapport fra 31. mars om TurboQuant’s «store AI‑minnekutt uten å skade modellkvaliteten». Kunngjøringen er viktig fordi mesteparten av dagens AI‑beregningsbudsjett går til DRAM og NAND‑lagring, sektorer som domineres av Micron og SanDisk. Hvis modeller i Googles skala kan kjøres på dramatisk mindre maskinvare, kan etterspørselen etter høy‑kapasitet minnebrikker avta, noe som vil legge press på prisene og inntektene til de to produsentene. Analytikere hos TipRanks og Fast Markets påpekte den umiddelbare markedseffekten og bemerket at algoritmen kan «betydelig redusere minnekrevende for AI‑systemer», et utsiktsbilde som undergraver vekstfortellingen basert på eksploderende modellstørrelser. Det som nå er viktig å følge med på, er om TurboQuant vil forbli et internt Google‑verktøy eller bli gjort tilgjengelig for det bredere AI‑økosystemet. En åpen‑kilde‑utgivelse eller lisensavtale kan fremskynde adopsjonen hos skyleverandører og forsterke treffet mot minneleverandører. På den annen side kan Micron og SanDisk svare med neste generasjons høy‑båndbredde‑minne (HBM) eller lagrings‑klasse‑minne som demper kompresjonsfordelen. Investorer bør også holde øye med Googles partnerskap med Pentagon, som kan fremskynde TurboQuant‑implementeringen i forsvars‑grad AI‑arbeidsbelastninger, samt eventuell regulatorisk gransking av en potensiell endring i verdikjeden for AI‑maskinvare. De kommende ukene vil vise om algoritmen omformer økonomien i AI‑infrastruktur eller forblir en nisjeoptimalisering for Googles egne tjenester.
20

**'Geniet er ute av flasken:' Little signerer lov om kunstig intelligens i utdanning**

LocalNews8.com +7 kilder 2026-03-27 news
education
Idaho‑guvernør Brad Little har signert lovgivning som pålegger statens utdanningsdepartement å utarbeide en omfattende, statlig ramme for bruk av generativ kunstig intelligens i K‑12‑klasserom. Loven, som definerer «generativ AI» som verktøy som produserer tekst, bilder eller video, ekskluderer eksplisitt modeller hvis primære formål er dataklassifisering – slik som de som brukes i autonome kjøretøy. Statlig superintendant Debbie Critchfield understreket at veiledningen vil tjene lærere like mye som elever, og gi pedagoger en håndbok for å integrere, overvåke og vurdere AI‑drevne læringsaktiviteter. Tiltaket markerer den første formelle AI‑utdanningspolitikken i Mountain West og følger en bølge av initiativer på delstatsnivå, fra Californias AI‑pensumpilot til Texas’ lærer‑opplæringsstipender. Ved å institusjonalisere AI‑kompetanse håper Idaho å utruste en generasjon for et arbeidsmarked der prompt‑engineering og AI‑forsterket problemløsning blir grunnleggende ferdigheter. Samtidig er rammen ment å dempe ukontrollert bruk av chat‑boter og bildeskaper‑verktøy som kan spre feilinformasjon, forsterke skjevheter eller sette elevenes personvern i fare. Hva som skjer videre vil avgjøre om loven blir en modell eller en advarsel. Utdanningsdepartementet må levere et utkast til plan innen de neste seks månedene, hvoretter den vil bli åpnet for offentlig kommentar og sannsynligvis vurdert av statens utdanningsstyre. Viktige observasjonspunkter inkluderer omfanget av finansiering til lærer‑profesjonell utvikling, inkluderingen av likhetsgarantier for rurale skoler, og eventuelle partnerskapskunngjøringer med EdTech‑selskaper som Anthropic eller Microsoft. Hvis Idaho‑tilnærmingen viser seg å fungere, kan nabostatene og det føderale utdanningskontoret se til den når de utformer bredere retningslinjer for AI i skoler senere i år.
18

DeepSeek planlegger lansering av V4 multimodell denne uken, sier kilder

Mastodon +1 kilder mastodon
chipsdeepseekmultimodalopen-sourcereasoningstartup
DeepSeek, det kinesiske oppstartsselskapet som lanserte den åpne kildekoden R1 resonansmodellen tidligere i år, er i ferd med å slippe sitt første multimodale system, V4, om noen dager. Den nye modellen vil generere tekst, bilder og video fra en enkelt prompt, og markerer DeepSeeks inntog i et område som domineres av modeller som Qwen3.5‑Omni og Googles Gemini‑3.1 Pro, som vi dekket i vår benchmark‑oppsummering 31. mars. Kilder nær selskapet sier at utrullingen er utviklet i samarbeid med Huawei og Cambricon for å kjøre effektivt på Kinas egenproduserte AI‑akseleratorer. Ved å tilpasse arkitekturen til Ascend‑ og MLU‑chipfamiliene håper DeepSeek å holde inferenskostnadene lave samtidig som de leverer konkurransedyktig latenstid – en strategi som gjenspeiles i Googles nylige TurboQuant‑påstander om minnebesparelser. Partnerskapet signaliserer også en strammere kinesisk AI‑forsyningskjede, hvor programvare og silisium i økende grad co‑design
17

Inn i den skitne, dystopiske verdenen av AI‑datasentre

Mastodon +1 kilder mastodon
xai
Elon Musks AI‑satsning xAI har tatt den kraft‑tørstige konkurransen om større modeller til et nytt, bokstavelig lav‑teknologisk ekstrem. Satellitt‑ og bakkenivåbilder innhentet av Southern Environmental Law Center viser selskapet bygge et privat kraftverk ved siden av sin «Colossus»-superdatamaskin, komplett med opptil 35 jernbanekvarts store naturgass‑turbiner. Motorene, som hver kan spy ut betydelig smog, står på et vidstrakt område i Texas hvor summingen fra kompressorer kan høres i flere mil. En lokal innbygger, som ønsket å forbli anonym, sa at luften «lukter som en dieselplass» og at turbinen «gjør himmelen svart om natten». Dette trekket er viktig fordi det understreker hvordan AI‑beregningsboomen omformer energimarkeder og miljøpolitikk. Mens de fleste datasentre er avhengige av strøm fra nettet – ofte hentet fra en blanding av fornybare kilder og fossile brensler – omgår xAIs beslutning om å produsere egen kraft nettbegrensningene, men øker karbonutslippene dramatisk. Analytikere anslår at en enkelt 100 MW turbink
15

Korreksjonen, når den kommer, blir stygg. Mengdene av feilallokert kapital involverer

Mastodon +1 kilder mastodon
startup
En ny analyse som ble publisert denne uken av den nordiske venture‑kapital‑monitoren **Nordic VC Insights** advarer om at AI‑finansieringsbølgen har skapt en «massiv feilallokering av kapital» som langt overgår de €4 milliardene som tidligere ble nevnt av bransjeobservatører. Rapporten, basert på data fra 312 AI‑fokuserte avtaler mellom januar 2024 og februar 2026, viser at omtrent €9,8 milliarder har blitt pumpet inn i prosjekter som mangler levedyktige produkt‑veikart, skalerbare forretningsmodeller eller robuste datapipelines. Mer enn halvparten av de finansierte oppstartene befinner seg fortsatt i prototype‑stadiet, og en tredjedel har ingen klar vei til inntekter. Betydningen av funnene strekker seg utover balanse­regnskapstallene. Over‑finansierte, under‑forberedte selskaper øker lønnskostnadene for talent, driver opp kostnadene for sky‑tjenester og skaper en overflod av «halv‑bygde» datasett som risikerer å forurense nedstrøms AI‑modeller. Mindre aktører, som tradisjonelt driver innovasjon i regionen, blir presset ut mens investorer jager overskrifts‑verdier fremfor bærekraftig vekst. Analytikere frykter at ettervirkningene kan etterlate det nordiske AI‑økosystemet fragmentert, med en håndfull velkapitaliserte «zombie‑selskaper» og et vakuum for ekte innovatører. Rapporten spår at korreksjonen vil tre hardest inn i andre halvdel av 2026, når tidlig‑fase‑finansiering tørker opp og større selskaper begynner å rydde i porteføljene sine. Se etter en bølge av fusjoner og oppkjøp når overlevende oppstarter søker livline, samt politiske svar fra den svenske Innovasjonsbyrået og Danmarks Næringsdepartement, som har antydet strengere due‑diligence‑krav for AI‑relaterte tilskudd. De kommende månedene vil også avsløre om venture‑firmaer justerer investeringshypotesene sine eller dobler ned på hypen, og dermed former neste kapittel i Europas AI‑ambisjoner.
15

Claude‑bruksgrenser nås raskere enn forventet

HN +1 kilder hn
claude
Anthropics flaggskip‑modeller Claude når sine bruksgrenser langt tidligere enn selskapet hadde forutsett, noe som har ført til en brå innstramming av API‑tilgangen for mange utviklere. Selskapet bekreftet at de daglige forespørselsgrensene, innført tidligere i år for å håndtere beregningsbelastningen, har blitt nådd innen timer for en økende del av kundebasen, og tvinger noen brukere til å pause eller nedgradere arbeidsbelastninger. Oppgangen følger en bølge av kostnadsbesparende verktøy og ytelsesjusteringer som Anthropic rullet ut i mars, særlig rammeverket for token‑effektivitet som reduserte API‑kostnadene med omtrent 60  % (se vår rapport fra 31. mars). Lavere priser og raskere responstider har drevet en rask økning i adopsjon på tvers av sektorer – fra nordiske fintech‑selskaper som integrerer Claude i svindeldeteksjons‑pipelines til oppstartsbedrifter som bruker modellen for kodeassistanse. Det uventede etterspørselspresset viser hvor raskt et prisinsentiv kan omsettes til reell kapasitetsbelastning. For utviklere er den umiddelbare virkningen redusert pålitelighet og behovet for å om‑arkitektere tjenester rundt strengere kvotehåndtering. Bedrifter som har bygget kritiske arbeidsflyter på Claude står nå overfor potensiell nedetid med mindre de sikrer kontrakter på høyere nivå eller skifter til alternative modeller. Episoden understreker også den bredere markedsdynamikken: etter hvert som leverandører konkurrerer om å gjøre store språkmodeller billigere og mer effektive, blir infrastrukturflaskehalser en ny konkurransefront. Hold øye med Anthropics neste trekk. Selskapet har antydet at de vil utvide sin beregningskapasitet og revidere kvotestrukturer, men detaljer er fortsatt sparsomme. Bransjeobservatører vil følge med på eventuelle kunngjøringer om premium‑«ubegrenset»‑nivåer, prisjusteringer eller partnerskap som skal skalere backend‑kapasiteten. Samtidig kan konkurrenter som OpenAI og Google utnytte situasjonen til å tiltrekke seg fortrengte arbeidsbelastninger, noe som intensiverer konkurransen om AI‑sentrerte skytjenester i Norden og utover.
14

YouTube ber nå seerne om å oppdage generativ AI‑slop når de vurderer videoer

YouTube ber nå seerne om å oppdage generativ AI‑slop når de vurderer videoer
Mastodon +1 kilder mastodon
YouTube har begynt å be seerne om å flagge «generativ‑AI‑slop» når de gir en tommel‑opp eller tommel‑ned‑vurdering av videoer, ved å legge til en ny avkrysningsboks i det kjente grensesnittet som spør om innholdet ser ut til å være lavkvalitets AI‑generert materiale. Endringen, kunngjort i et blogginnlegg og rullet ut til en testgruppe av brukere denne uken, utvider plattformens eksisterende tilbakemeldingssløyfe ved eksplisitt å skille AI‑relaterte bekymringer fra generelle misliknings‑ eller «ikke interessert»-signaler. Endringen kommer i en periode hvor AI‑genererte videoer eksploderer på tjenesten, fra deep‑fake‑kommentarer til automatiserte musikkvideoer som kan produseres i stor skala med lite menneskelig tilsyn. YouTubes anbefalingsmotor er fortsatt sterkt avhengig av bruker‑genererte signaler for å avgjøre hva som skal vises, og selskapet har slitt med å holde tritt med den enorme mengden syntetisk innhold som kan unngå tradisjonelle deteksjonsverktøy. Ved å gi seerne en direkte måte å merke AI‑slop på, håper YouTube å trene moderasjonsmodellene sine raskere, redusere spredningen av misvisende eller spam‑fylte klipp, og berolige annonsører om at merkevaresikre annonser blir beskyttet. Initiativet signaliserer også en bredere bransjeskifte mot transparent AI‑merking. Som vi rapporterte 31. mars, har begrepet «AI‑slop» allerede kommet inn i skaperdiskursen, med noen kanaler som bruker det for å fremheve dårlig produsert generativt innhold. YouTubes formelle adopsjon av merkelappen kan bli en de‑fakto‑standard som andre plattformer kan følge, spesielt ettersom regulatorer i EU og Norge vurderer obligatoriske AI‑avsløringsregler. Det som nå er å holde øye med, er hvilke tall YouTube vil publisere om hvor ofte flagget blir brukt og hvilken innvirkning det får på anbefalingsrangeringer. Utviklere vil sannsynligvis få nye API‑endepunkter for AI‑slop‑signalet, og skapere kan justere produksjonsprosesser for å unngå stigmaet ved å bli merket som AI‑generert. Hvis funksjonen viser seg å være effektiv, kan den fremskynde utrullingen av lignende verktøy i hele sosiale‑medie‑økosystemet, og forme hvordan både publikum og algoritmer vurderer autentisiteten til videoinnhold.
14

LinkedIn

Mastodon +1 kilder mastodon
LinkedIn har blitt den nyeste høyprofilerte slagmarken i den pågående konflikten om hvorvidt store språkmodeller (LLM‑er) kan trenes på opphavsrettslig beskyttet materiale som er høstet fra nettplattformer. En nederlandsk domstol aksepterte forrige uke en klage innlevert av en koalisjon av forfattere og forlag som hevder at flere AI‑selskaper har skrapt LinkedIn‑innlegg, CV‑data og artikler – mye av dette fortsatt under opphavsrett – for å mate sine modeller. Saksøkerne argumenterer for at praksisen bryter EU‑opphavsretten, mens teknologiselskapene så langt har støttet seg på forsvaret om «transformativ bruk», og hevder at resultatet fra en LLM er en ny skapelse som ikke krenker de opprinnelige verkene. Saken er viktig fordi LinkedIn huser milliarder av profesjonelle innlegg, mange av dem originale artikler, hvite papirer og bransjeanalyser. Dersom domstolen fastslår at slikt innhold ikke kan høstes uten eksplisitt tillatelse, kan AI‑utviklere miste en enorm kilde til høykvalitets treningsdata, noe som potensielt kan bremse utviklingen av modeller og øke kostnadene for oppstartsbedrifter som mangler egne korpora. Omvendt vil en dom til fordel for saksøkte sementere en juridisk vei for AI‑selskaper til å fortsette å samle offentlig tilgjengelig tekst, og intensivere debatten om dataeierskap og tilstrekkeligheten i eksisterende opphavsrettsrammer. Alle øyne er nå rettet mot den kommende høringen, planlagt til juni, hvor LinkedIns juridiske team forventes å argumentere for at modellens utdata er «transformative» og dermed unntatt fra krenkelseskrav. Observatører vil også følge reaksjonene fra EU‑kommisjonen, som utarbeider AI‑spesifikke bestemmelser under Digital Services Act. Utfallet kan forme lisensieringspraksis, føre til nye retningslinjer for databruk på profesjonelle nettverk, og påvirke hvordan AI‑selskaper strukturerer fremtidige trenings‑pipelines.
13

En vektorlagring er ikke et agentminnesystem

Dev.to +1 kilder dev.to
agentsvector-db
Et teknisk notat som ble publisert denne uken av AI‑forsker Johan Lindström – tidligere ved Nordisk institutt for maskinlæring – hevder at den økende mengden vektor‑lagringstjenester ikke tilsvarer ekte minne for autonome agenter. Det 12‑siders papiret, med tittelen «En vektorlagring er ikke et agentminnesystem», advarer om at utviklere forveksler enkel likhetsbasert gjenfinning med det rikere, tilstandsdrevne minnet som kreves for koherente, langvarige oppgaver. Lindströms kritikk bygger på den raske adopsjonen av innebyggingsdatabaser som Pinecone, Weaviate og Milvus, som mange oppstartsbedrifter fremhever som «minnelag» for store‑språk‑modell‑agenter (LLM‑agenter). Han viser at selv om disse lagringene kan hente tidligere tekstfragmenter, mangler de mekanismer for oppdatering, glemsel eller resonnering over den informasjonen. Papiret skiller mellom tre minnekategorier – arbeidsminne, episodisk minne og semantisk minne – og demonstrerer at
12

AI NEWSWIRE >>> REUTERS: OpenClaw‑entusiasme griper Kina – Kinesiske teknikere starter nå

Mastodon +1 kilder mastodon
agentsdeepseektraining
Kinesiske utviklere haster med å eksperimentere med OpenClaw, et åpen‑kilde‑rammeverk som lar brukere bygge autonome AI‑agenter som kan kuratere og hente sin egen spesialiserte kunnskap. Reuters rapporterte at fellesskapet har laget uttrykket «å heve en hummer» for å beskrive prosessen med å trene en personlig agent som kan overgå generelle chat‑bots som DeepSeek i håndtering av nisjedatasett. Oppgangen reflekterer et bredere skifte i Kinas AI‑landskap fra én‑størrelse‑passer‑alle‑samtalemodeller til personaliserte, oppgave‑orienterte assistenter. Ved å integrere proprietære dokumenter, kode‑snutter og domene‑spesifikk forskning i en selvstendig agent, håper ingeniører å kutte tiden brukt på å søke i interne wikier og forbedre beslutningshastigheten. Tidlige brukere, fra fintech‑oppstartsbedrifter til universitets‑labber, hevder at OpenClaws modulære arkitektur – som kombinerer retrieval‑augmented generation med forsterknings‑lærings‑sløyfer – leverer mer nøyaktige svar enn de store språkmodellene de tidligere stolte på. Utviklingen er viktig av flere grunner. For det første signaliserer den økende tillit til fellesskaps‑drevet AI‑verktøy, en sektor som tradisjonelt har vært dominert av statlig støttede giganter som Baidu og Alibaba. For det andre kan dette endre dynamikken rundt dataprivatliv: personlige agenter holder sensitiv informasjon lokalt i stedet for å sende den til sky‑leverandører, noe som samsvarer med Kinas skjerpende reguleringer av grenseoverskridende dataflyt. Til slutt kan entusiasmen akselerere en talent‑kappløp, ettersom selskaper kjemper om ingeniører med kompetanse innen prompt‑engineering, agent‑orchestrering og lav‑latens‑inferens. Det som bør følges med på videre, er om OpenClaw får formell støtte fra store kinesiske skyleverandører eller maskinvare‑produsenter, og hvordan regulatorene reagerer på en bølge av privat distribuerte AI‑agenter. Like viktig vil bli fremveksten av standarder for agentsikkerhet og interoperabilitet, som kan avgjøre om «hummer»-trenden forblir en nisje‑hobby eller blir et mainstream‑produktivitetverktøy i hele landet.
12

AI‑chatboter samler stadig mer brukerdata – Meta AI og ChatGPT i front

Mastodon +1 kilder mastodon
meta
En ny studie publisert av det tyske sikkerhetsfirmaet All‑About‑Security viser at AI‑drevne chatboter henter inn brukerdata i et akselererende tempo, og at posisjonssporing nå er innebygd i 70 prosent av de 200 appene som ble undersøkt – opp fra 40 prosent ett år tidligere. Metas AI‑pakke og OpenAIs ChatGPT ligger øverst på listen, og hver av dem legger inn forespørsler om geolokasjon i mer enn tre‑kvart av sine samtalegrensesnitt. Oppgangen reflekterer et bredere bransjetiltak om å berike store språkmodeller med kontekstuelle signaler som forbedrer relevans og personalisering. Ved å mate sanntidsposisjonsdata inn i prompt‑fullførings‑pipelines kan leverandører skreddersy svar til lokalt vær, nærliggende tjenester eller regionale forskrifter, noe som øker engasjements‑måleverdier som driver annonseinntekter. Praktisen kolliderer imidlertid med skjerpende personvernregimer i hele Europa. EU‑s AI‑lov, som skal tre i full kraft senere i år, klassifiserer høy‑risiko AI‑systemer som behandler biometriske eller posisjonsdata som underlagt strenge krav til åpenhet og konsekvens‑vurderinger. Nordiske tilsynsmyndigheter, som allerede er kjent for streng håndheving av GDPR, har signalisert intensjon om å granske AI‑drevet datainnsamling nærmere. Funnene gjenoppliver også bekymringene som ble reist i vår dekning av Metas rettslige tilbakeslag 31. mars, der uopplyst intern forskning ble kritisert, og understreker et mønster av ugjennomsiktig datahåndtering som kan føre til ytterligere rettssaker. OpenAIs nylige beslutning om å fjerne den kontroversielle «adult mode» for ChatGPT antyder en økende forsiktighet blant AI‑selskaper når offentlig motstand møter regulatorisk press. Hva som er verdt å følge med på: Det europeiske datatilsynsrådet (EDPB) forventes å publisere veiledning om AI‑spesifikke samtykkemekanismer innen noen uker, noe som potensielt kan tvinge chatbot‑leverandører til å redesigne onboarding‑flyter. Både Meta og OpenAI har hintet om kommende oppdateringer basert på personvern‑by‑design, og en koalisjon av nordiske forbrukergrupper planlegger å sende inn en felles klage til Europakommisjonen dersom posisjonssporing forblir uopplyst. De neste månedene vil sannsynligvis avgjøre om bransjen kan forene personaliseringsambisjoner med regionens høye personvernstandarder.
12

# Metas nylige rettstap, sentrert rundt selskapets unnlatelse av å offentliggjøre intern forskning om

Mastodon +1 kilder mastodon
anthropicmetaopenai
Meta Platforms opplevde en rekke rettslige nederlag denne uken etter at dommere konkluderte med at selskapet ulovlig hadde holdt tilbake intern forskning som dokumenterte potensielle skader fra deres sosiale medie‑produkter. Dommene stammer fra en rettssak fra 2024 innlevert av en koalisjon av statlige justisministere, som krevde at Meta leverte studier som knyttet bruk av Instagram og Facebook til psykisk helse, valgrelatert desinformasjon og algoritmisk skjevhet. Metas nektelse av å fremlegge rapportene førte til standarddommer og, i ett tilfelle, en bot på 250 millioner dollar for forakt for retten. Avgjørelsene understreker en økende juridisk forventning om at teknologiselskaper må være transparente om risikoene deres tjenester medfører, selv når funnene er ubehagelige. For regulatorer gir dommene et verktøy for å tvinge frem offentliggjøring uten å måtte vente på en fullstendig regelverksprosess. For bransjen øker de trusselen om kostbare søksmål og omdømmeskade dersom intern sikkerhetsarbeid forblir skjult. Metas tilbakeslag har allerede ført til endringer blant konkurrentene. OpenAI kunngjorde et utvidet rammeverk for sikkerhetsrapportering som vil gjøre interne risikovurderinger tilgjengelige for Federal Trade Commission på kvartalsbasis. Anthropic, som fortsatt sliter med sin egen rettslige seier og påfølgende lobbykampanjer som vi dekket 31. mars, har sagt at de revurderer sine offentliggjøringspolitikker for å unngå en lignende skjebne. Begge selskapene satser på at proaktiv åpenhet vil avverge søksmål og bygge tillit hos politikerne. Hva som skjer videre: Et føderalt ankepanel vil behandle Metas anke av botene for forakt i juni, og FTC forventes å publisere utkast til regler om AI‑relaterte risikodisclosure senere denne sommeren. Kongresskomiteer har signalisert intensjon om å holde høringer om selskapers ansvar for algoritmiske skader, og eventuelle ytterligere rettslige pålegg kan tvinge bransjen inn i en ny æra med obligatorisk sikkerhetsrapportering.
12

På arbeidsplassen har jeg nå ofte støtt på situasjoner hvor jeg må bevise for medarbeidere

Mastodon +1 kilder mastodon
Et økende kor av IT‑profesjonelle rapporterer at generativ‑AI‑verktøy leverer teknisk usikre råd i sanntidsarbeidssituasjoner, og tvinger ingeniører til å gripe inn og korrigere resultatene. Fenomenet kom frem i et nylig intervju med en senior nettverksarkitekt som fortalte at han “regelmessig må bevise at AI tar feil” når systemet foreslår suboptimale nettverksdesignmønstre eller misforstår regler for portabilitet av programvarelisenser. Arkitektens erfaring speiler et bredere mønster som dukker opp i europeiske virksomheter, hvor store språkmodeller brukes til feilsøking på stedet, utarbeidelse av dokumentasjon og idémyldring rundt design. Problemet er viktig fordi det undergraver tilliten til AI‑støttede arbeidsflyter som mange selskaper har tatt i bruk for å akselerere leveringssykluser. Når en AI‑modell selvsikkert foreslår en konfigurasjon som bryter med beste praksis for sikkerhetssoner, eller anbefaler en lisensmigrasjon som strider mot åpen‑kilde‑kompatibilitet, kan kostnadene ved utbedring bli betydelige. Videre belyser problemet begrensningene i dagens prompt‑teknikker og behovet for domenespesifikk fin‑justering. Selv om leverandører skryter av “kunngraf‑forsterkede” versjoner av modellene sine, inneholder underliggende treningsdata fortsatt utdaterte eller motstridende tekniske standarder, noe som fører til hallusinasjoner som er vanskelige å oppdage uten ekspert‑overvåkning. Det som bør følges med på videre, er bransjens respons på tre fronter. For det første forventes leverandører å innføre strengere valideringslag, med integrerte sanntids‑policy‑motorer som flagger risikable anbefalinger før de når brukeren. For det andre vil virksomheter sannsynligvis ta i bruk hybride tilnærminger, der generelle modeller kombineres med kuraterte, sektorspesifikke korpora for å redusere feilraten. For det tredje utarbeider regulatorer i EU retningslinjer for AI‑drevne beslutningsstøtteverktøy, som kan pålegge krav til åpenhet og ansvarlighet. Som vi rapporterte om Anthropics juridiske utfordringer tidligere denne måneden, øker presset på AI‑leverandører for å levere pålitelige og ansvarlige resultater, og den neste bølgen av produktoppdateringer vil vise om teknologien kan møte profesjonelle standarder uten konstant menneskelig korreksjon.
12

Hvorfor Mistral nå satser på gjeld

Mastodon +1 kilder mastodon
mistralnvidia
Mistral AI kunngjorde tirsdag at selskapet har sikret en lånepakke på 830 millioner dollar fra et konsortium bestående av syv europeiske banker for å finansiere byggingen av sitt eget AI‑superdatamaskinanlegg utenfor Paris. Anlegget vil inneholde 13 800 Nvidia GB300‑GPU‑er, en skala som vil gjøre det til ett av kontinentets største dedikerte AI‑klynger. Finansieringen markerer et skarpt skifte fra den kun‑egenkapitalfinansieringen Mistral fullførte bare noen uker tidligere, da selskapet avsluttet en runde på 830 millioner dollar som tiltrakk seg venturekapital og statlige formuesfond. Ved å velge gjeld i stedet for å utstede nye aksjer, beskytter selskapet eksisterende aksjonærer mot utvanning og signaliserer tillit fra tradisjonelle

Alle datoer