AI News

315

Fluke Reliability setter store språkmodeller på prøve

IndustryWeek +13 kilder 2026-03-19 news
claudeopenai
Fluke Reliability, den globale lederen innen test‑ og måleinstrumenter for industriell helse, har gått fra nysgjerrighet til prøving og setter store språkmodeller (LLM‑er) som OpenAIs ChatGPT, Anthropics Claude og flere andre gjennom en rekke virkelige tester i forkant av sin Xcelerate 2025‑konferanse. Selskapet inviterte en skeptisk teknologijournalist til å fungere som motpart i en rundebordsdiskusjon før konferansen, og omgjorde deretter den debatten til et praktisk pilotprosjekt som integrerer LLM‑er direkte i deres eMaint‑plattform for vedlikeholdsstyring. Eksperimentet fokuserer på fire bruksområder som lenge har vært manuelle flaskehalser: å hente handlingsrettet data fra vedlikeholds‑e‑post, automatisk generere standard‑operasjonsprosedyrer (SOP) fra OEM‑manualer, lage arbeidsordrer fra naturlige språkbeskrivelser, og oversette tekniske dokumenter til flere språk. Tidlige demonstrasjoner viser at modellene kan utforme SOP‑er på sekunder og oversette sikkerhetsvarsler uten menneskelig inngripen, samtidig som de flagger tvetydige resultater for gjennomgang. Hvorfor dette er viktig er todelt. For det første viste Flukes egen undersøkelse fra 2024 at 98 % av produsentene ser på AI som et levedyktig svar på den kroniske kompetansemangelen, men kun en tredjedel har tatt AI i bruk utover pilotstadiet. Å demonstrere at LLM‑er kan operere trygt på støyende sensorsignaler og dokumentasjon med tungt regulatorisk krav kan akselerere adopsjonskurven. For det andre tester eksperimentet påliteligheten til LLM‑er i et domene hvor én feil kan føre til kostbar nedetid eller sikkerhetshendelser, og gir et sjeldent innblikk i hvordan «generell‑formål» AI kan gjøres robust for industriell bruk. Neste milepæl blir den offentlige presentasjonen på Xcelerate 2025, hvor Fluke forventes å offentliggjøre ytelses­målinger, pris­modeller og muligens kunngjøre et partnerskap med en av LLM‑leverandørene. Observatører vil holde øye med konkrete bevis på redusert gjennomsnittlig reparasjonstid, brukeraksept‑data fra fabrikkingeniører, og eventuell regulatorisk tilbakemelding på AI‑drevet vedlikeholdsbeslutninger. Dersom forsøkene viser seg robuste, kan LLM‑er bli et standardverktøy på fabrikkgulvet, og omforme hvordan produsenter bygger bro over kompetansegapet og holder utstyret i gang.
300

Wikipedia RFC om forbud mot LLM‑bidrag

Wikipedia RFC om forbud mot LLM‑bidrag
HN +5 kilder hn
Wikipedias fellesskap har åpnet en formell Request for Comments (RfC) for å avgjøre om bidrag generert av store språkmodeller (LLM‑er) skal forbyes i encyklopediets hovedartikler. Forslaget, utarbeidet av redaktøren Cremastra, skisserer tre mulige veier: et totalforbud mot LLM‑generert tekst i encyklopediets kjerneområde, et mildere regime som speiler den eksisterende WP:NEWLLM‑veiledningen, eller en hybridmodell som tillater bruk av LLM i sandkasse‑ og diskusjonssider, men begrenser den i publiserte artikler. Debatten dukker opp i et øyeblikk der AI‑skrevet innhold flommer over nettet, og vekker bekymringer om faktuell nøyaktighet, systemisk skjevhet og erosjon av menneskelig redaksjonell dømmekraft. Talsmenn for et forbud argumenterer for at LLM‑er kan spre feilinformasjon i stor skala, og undergrave Wikipedias omdømme som en pålitelig referanse. Motstandere hevder at et fullstendig forbud ville forkaste et verktøy som kan hjelpe redaktører med språkpolering, kildeformatering og rask utarbeidelse, spesielt for bidragsytere som ikke har norsk som morsmål. En midt‑posisjon krever klarere krav til attribusjon og strengere verifiseringsprotokoller i stedet for et generelt forbud. Resultatet vil forme hvordan verdens største samarbeidsbaserte kunnskapsbase forholder seg til generativ AI, og kan potensielt sette
282

AI Team OS – Gjør Claude Code til et selvstyrt AI‑team

AI Team OS – Gjør Claude Code til et selvstyrt AI‑team
HN +5 kilder hn
agentsclaude
AI Team OS, et åpen‑kilde “operativsystem”-lag bygget på toppen av Anthropics Claude Code, ble lansert denne uken på GitHub. Ved å koble en enkelt Claude Code‑instans inn i et nettverk av autonome agenter via MCP‑protokollen, et hook‑system og forhåndsdefinerte agent‑maler, gjør prosjektet chatboten til et selvstyrende AI‑team som etterligner et ekte programvareselskap: agenter påtar seg roller som prosjektleder, frontend‑utvikler og backend‑ingeniør, deler en vedvarende minnelager, holder strukturerte møter og forbedrer seg iterativt etter hver feil. Lanseringen er viktig fordi den flytter grensene for hva kodeassistenter kan gjøre. Inntil nå krevde verktøy som Claude Code, Cursor Composer og andre enkelt‑tur‑assistenter et menneskelig prompt for hver oppgave. AI Team OS tilfører orkestrering, arbeidsdeling og kontinuerlig drift, og lover 24/7‑utviklingssykluser uten direkte tilsyn. Hvis modellen lever opp til sine påstander, kan bedrifter akselerere leveransen av prototyper, redusere avhengigheten av juniorutviklere for rutineoppgaver, og eksperimentere med fullt automatiserte funksjonspipelines. Samtidig reiser endringen spørsmål om kodekvalitetssikring, sikkerheten ved autonome innsendelser og den fremtidige rollen til menneskelige ingeniører i et landskap hvor et AI‑«selskap» kan generere, teste og levere programvare på egen hånd. Som vi rapporterte 21. mars
169

Microsoft bekrefter en stor Windows 11‑oppdatering med raskere Explorer, mindre Copilot

Microsoft bekrefter en stor Windows 11‑oppdatering med raskere Explorer, mindre Copilot
HN +9 kilder hn
copilotmicrosoft
Microsoft har bekreftet at en omfattende Windows 11‑oppdatering er planlagt for utrulling senere i år, og den tar sikte på operativsystemets mest uttalte smertepunkter: treig filnavigering, høy minnebruk og en altfor ivrig Copilot‑opplevelse. Oppdateringen, internt kalt «Sunrise 23», vil fornye Filutforsker med en slankere kodevei som reduserer latenstid med opptil 30 prosent, mens oppgavelinjen får et flyttbart, mer responsivt design som gjeninnfører en funksjon mange brukere savnet etter redesignen i 2024. Samtidig demper Microsoft den AI‑drevne Copilot‑assistenten. I stedet for å dukke opp i hver eneste del av brukergrensesnittet, vil Copilot nå kun vises på forespørsel, med en lettere bakgrunnsprosess som kutter operativsystemets grunnleggende RAM‑fotavtrykk med omtrent 500 MB på en typisk 8 GB‑maskin. Endringen kommer etter en strøm av tilbakemeldinger på forum og i Windows‑Insider‑fellesskapet, hvor avanserte brukere klaget på at AI‑overlegget bremset oppstartstider og brukte ressurser som trengtes til daglige oppgaver. Hvorfor dette er viktig er todelt. For det første adresserer ytelsesforbedringen direkte den frustrasjonen som har fått mange virksomheter til å utsette Windows 11‑migrasjoner, og som holder eldre Windows 10‑ eller til og med Windows 7‑miljøer i live lenger enn Microsoft ønsker. For det andre signaliserer den dempede AI‑utrullingen et strategisk skifte: etter et år med aggressiv Copilot‑integrasjon ser selskapet ut til å lytte til markedets tretthet og ombalansere sine AI‑ambisjoner med kjerne‑OS‑stabilitet. Fremover vil oppdateringen bli levert gjennom den nye kanalen «Windows Update Plus», som lover valgfrie, ikke‑påtrengende installasjoner og lengre pause‑vinduer. Observatører vil følge med på hvor raskt endringene tas i bruk i bedriftsflåter, og om Microsoft vil utvide den slanke AI‑tilnærmingen til andre produkter som Microsoft 365 og Azure Virtual Desktop. Den neste Insider‑bygdelen, forventet i juni, bør gi et konkret innblikk i Explorer‑fartforbedringene og den dempede Copilot‑brukergrensesnittet.
166

Justine Moore (@venturetwins) på X

Mastodon +8 kilder mastodon
ethics
Justine Moore, partner i Andreessen Horowitz som leder firmaets AI‑investeringer, tok til X på tirsdag for å fordømme en økende tendens blant forlag og kulturinstitusjoner til å avlyse eller sensurere bøker kun fordi de inneholder AI‑generert materiale. I en kort tråd argumenterte Moore for at praksisen reflekterer en misforståelse av hvordan generativ teknologi blir vevd inn i medieproduksjonens stoff, og advarte om at skillet mellom menneskeskapt og AI‑assistert innhold snart vil bli «praktisk talt meningsløst». Moores kommentarer kommer i en bølge av kontrovers rundt AI‑generert tekst, bilder og musikk. Flere europeiske forlag har kunngjort retningslinjer som forbyr verk laget med store språkmodeller, med henvisning til bekymringer om originalitet, opphavsrett og den opplevde erosjonen av kunstnerisk integritet. Kritikere mener slike forbud risikerer å kvele eksperimentering og kan utgjøre en ny form for sensur som straffer skapere for verktøyene de bruker snarere enn idéene de uttrykker. Debatten er viktig for Norden, hvor offentlige kringkastere og statlig finansierte litteraturpriser tradisjonelt har fremmet kulturelt mangfold og ytringsfrihet. Hvis AI blir en standardkomponent i den kreative produksjonslinjen – som Moore forutsier – må regulatorer, rettighetsorganisasjoner og finansieringsinstitusjoner revurdere hvordan de vurderer originalitet, attribusjon og ansvarlighet. Diskusjonen berører også bredere etiske spørsmål om åpenhet, oppdagelse av deep‑fakes og potensialet for algoritmisk bias til å forme narrativer. Hva du bør følge med på: Den kommende EU‑lovgivningen om kunstig intelligens (AI Act) forventes å inneholde bestemmelser om «AI‑generert innhold» som kan påvirke nasjonale politikk. Nordiske forlag vil sannsynligvis samle paneler om beste praksis for AI‑åpenhet, mens a16z kan støtte oppstartsbedrifter som integrerer verktøy for provenance i generative arbeidsflyter. Observatører vil være ivrige etter å se om bransjens selvregulering kan holde tritt med teknologien, eller om lovgivende tiltak vil sette tonen for et mer inkluderende, men ansvarlig merket, medieøkosystem.
158

Venstre: NVIDIA DLSS 5. Høyre: forhåndsvisning av DLSS 6. 🤡 # NVIDIA # DLSS # DLSS5 # GameDev # g

Venstre: NVIDIA DLSS 5. Høyre: forhåndsvisning av DLSS 6. 🤡   # NVIDIA    # DLSS    # DLSS5    # GameDev    # g
Mastodon +6 kilder mastodon
nvidia
NVIDIA har i stillhet lagt ut en side‑om‑side‑sammenligning som stiller den nyutgitte DLSS 5 mot en fortsatt under utvikling‑“DLSS 6”‑forhåndsvisning, og har dermed satt i gang en ny bølge av spekulasjoner i spillutviklingsmiljøet. Bildet, som ble delt på selskapets offisielle kanaler, viser den samme scenen gjengitt med DLSS 5‑s nevrale oppskalerer og en neste‑generasjonsversjon som fremstår skarpere, med renere kanter og mer nøyaktig lyssetting. Ingen formell kunngjøring fulgte med innlegget, men den visuelle indikasjonen signaliserer at NVIDIA allerede planlegger en etterfølger til teknologien de lanserte for bare noen uker siden. Som vi rapporterte 18. mars, kom DLSS 5 med et løfte om AI‑drevet visuell kvalitet samtidig som den fortsatt benyttet et statisk 2D‑bilde som hovedinput, en designvalg som fikk kritikk fra utviklere som forventet dypere scenanalyse. Den nye teaseren antyder at DLSS 6 vil gå utover denne begrensningen, sannsynligvis ved å integrere den nylig lagt til CUDA‑støtten for DLSS Ray Reconstruction introdusert i SDK 310.5.3. Ved å mate dybde, bevegelsesvektorer og overflate‑normaler inn i det nevrale nettverket, kan den kommende versjonen levere ekte 3D‑bevisst oppskalering, redusere artefakter og muliggjøre høyere bildefrekvens på RTX 40‑serie‑GPU‑er. Innsatsen er høy: DLSS er fortsatt en hjørnestein i NVIDIAs strategi for å differensiere maskinvaren i et stadig mer konkurransepreget GPU‑marked, og hvert generasjonsløft endrer kalkylen mellom ytelse og kvalitet for AAA‑titler. Hvis DLSS 6 lever opp til forhåndsvisningen, kan utviklere potensielt øke native‑oppløsningene uten å ofre latens, noe som vil være en fordel både for PC‑spillere og sky‑spilltjenester. Hva du bør holde øye med: NVIDIA forventes å detaljere DLSS 6 på den kommende GTC‑konferansen i mai, hvor en utvikler‑forhåndsvisning og ytelses‑benchmarker sannsynligvis vil bli presentert. Følg med på SDK‑utgivelsesnotatene for utvidede ray‑reconstruction‑API‑er og på tidlige tilgangspartnere som Epic Games og Ubisoft, som kan demonstrere teknologien i kommende oppdateringer eller nye utgivelser. De neste månedene vil vise om DLSS 6 endelig kan levere den fullt 3D‑bevisste AI‑oppskaleringen bransjen har ventet på.
151

OpenAI planlegger lansering av skrivebords‑'superapp'

OpenAI planlegger lansering av skrivebords‑'superapp'
HN +7 kilder hn
openai
OpenAI bekreftet torsdag at de går videre med en skrivebords‑«superapp» som vil samle deres flaggskip‑ChatGPT‑klient, kodegenereringsplattformen Codex og den AI‑drevne nettleseren Atlas i én macOS‑applikasjon. Kunngjøringen følger en rapport i Wall Street Journal som ble publisert tidligere denne uken, og bygger på selskapets egen antydning om at en samlet skrivebordsopplevelse er under utvikling. Målet med tiltaket er å strømlinjeforme brukerreisen for både vanlige brukere og utviklere. Ved å slå sammen tre separate nedlastinger til ett grensesnitt håper OpenAI å redusere friksjon når man bytter mellom samtale‑spørringer, kodeassistanse og nett‑forskning – funksjoner som i økende grad overlapper i daglige arbeidsflyter. Analytikere ser superappen som et strategisk steg for å styrke OpenAIs posisjon i skrivebordsmarkedet, hvor Apples egne apper og Googles Chrome‑baserte verktøy dominerer. Et konsolidert tilbud kan også gjøre det enklere for selskapet å rulle ut nye funksjoner, som sanntids‑kodedebugging eller kontekst‑bevisst nettlesing, uten at brukerne må håndtere flere lisenser. Integrasjonen reiser spørsmål om databehandling og personvern på tvers av apper, spesielt ettersom OpenAIs tjenester er avhengige av omfattende bruker‑prompt for å forbedre modellene. Reguleringsmyndigheter i EU og USA har gransket store AI‑leverandører for potensielle monopolistiske praksiser, og et sentralt skrivebordshub kan tiltrekke ytterligere
147

Claude dispatch: tildel oppgaver til Claude fra hvor som helst

Claude dispatch: tildel oppgaver til Claude fra hvor som helst
HN +5 kilder hn
anthropicclaude
Anthropic har lansert Claude Dispatch, en ny funksjon som lar brukere sende oppgaver til Claude‑AI‑agenten fra hvilken som helst enhet mens modellen kjører lokalt på skrivebordet deres. Tillegget er integrert i Claude Cowork‑pakken og nås via et “Dispatch”-panel på venstre side av appen. Brukere installerer Claude Cowork‑klienten på en Windows‑, macOS‑ eller Linux‑maskin, og laster deretter ned den tilhørende iOS‑ eller Android‑appen. Fra en telefon kan de skrive inn en oppgave – for eksempel «sammenfatt den siste salgsrapporten» eller «kjør datasanerings‑skriptet» – og Claude utfører den på datamaskinen, utnytter lokale filer, koblinger og plugins før resultatet sendes tilbake som en melding. Utrullingen følger Anthropics nylige satsing på å gjøre Claude til en alltid‑på, tverrplattform‑assistent, en utvikling som ble fremhevet i vår dekning av Claude Code Channels den 20. mars og den samme dag‑dyptdykket i Claude Code v2.1.76‑81. Ved å frikoble kommandogrensesnittet fra utførelsesmiljøet adresserer Claude Dispatch et sentralt friksjonspunkt for fjernarbeidere som trenger å starte tunge AI‑arbeidsflyter uten å måtte sitte fast ved én arbeidsstasjon. Funksjonen er viktig fordi den visker ut skillet mellom personlig assistent og autonom agent, og muliggjør «sett‑og‑glem»-AI‑operasjoner som kan kjøre over natten eller mens brukeren er i møter. Den reiser også spørsmål om sikkerhet og datastyring, spesielt med tanke på den tidligere Claude Code‑konfigurasjonsfeilen som eksponerte lokale filer på internett. Anthropics løfte om at dispatch‑kanalen er kryptert og sandkasse‑isolert vil bli satt på prøve etter hvert som adopsjonen øker. Hold øye med tidslinjen for offentlig tilgjengelighet, prisnivåer for forhåndsvisningen og integrasjonen med Anthropics CI/CD‑orienterte Claude Code Channels. Konkurrenter vil sannsynligvis svare med lignende fjernkontroll‑funksjoner, og bedriftskunder vil være ivrige etter å se hvordan Claude Dispatch passer inn i bredere arbeidsflytautomatiserings‑stabler. De neste ukene vil vise om funksjonen går fra en utvikler‑forhåndsvisning til et mainstream‑produktivitetverktøy.
141

OpenAI «Superapp» skal slå sammen ChatGPT, Codex og Atlas‑nettleser

OpenAI «Superapp» skal slå sammen ChatGPT, Codex og Atlas‑nettleser
MacRumors +13 kilder 2026-03-20 news
googleopenai
OpenAI går fra konsept til virkelighet med en kun Mac‑basert «superapp» som skal samle sin flaggskip‑ChatGPT‑samtalemodell, kodegenereringsplattformen Codex og nettleseren Atlas i én enkelt skrivebordsklient, rapporterer Wall Street Journal. De tre tjenestene, som tidligere ble distribuert som separate nedlastinger, vil nå ligge bak et samlet grensesnitt som lar brukerne skifte sømløst mellom chat, kodehjelp og nettundersøkelser uten å forlate programmet. Sammenstillingen følger OpenAIs kunngjøring 21. mars om at en skrivebords‑superapp var under utvikling, men den klargjør nå produktets omfang. Ved å slå sammen ChatGPT, Codex og Atlas, ønsker OpenAI å fjerne fragmenteringen som har hemmet brukernes arbeidsflyt og å tilby et mer overbevisende alternativ til Anthropics voksende bedriftsportefølje. Det integrerte miljøet er laget for utviklere, analytikere og forretningsbrukere som trenger umiddelbare kodebiter, forklaringer på naturlig språk og oppdatert nettdata i ett enkelt vindu, noe som potensielt kan øke produktiviteten og redusere friksjonen ved å håndtere flere verktøy. Bransjeobservatører ser tiltaket som et strategisk skritt for å låse brukere inn i OpenAIs økosystem og for å demonstrere bredden i modellene deres på macOS, en plattform hvor Apples egne AI‑ambisjoner fortsatt er i tidlig fase. Hvis superappen leverer en jevn, lav‑latens opplevelse, kan den sette en ny standard for AI‑forster
137

brud # chatgpt # openai # youtube # microsoft # x # tiktok # reddit # instag

brud   # chatgpt    # openai    # youtube    # microsoft    # x    # tiktok    # reddit    # instag
Mastodon +6 kilder mastodon
metamicrosoftopenai
OpenAI har lansert et nytt “ChatGPT Bride”-tillegg som lar brukere generere bryllupsrelatert innhold – fra personlig tilpassede løfter og seremoniskript til AI‑tegnede kjole‑skisser og sjekklister for bordplaner – direkte i ChatGPT‑grensesnittet. Lanseringen ble timet med en koordinert kampanje på sosiale medier: influencere på TikTok, YouTube, X, Reddit og Instagram delte AI‑lagde brudekjole‑utseender og falske bryllupsinvitasjoner, og merket innlegget med #bride og #chatgpt. Innen få timer hadde innleggene samlet millioner av visninger, og utløste en bølge av kommentarer om hvorvidt kunstig intelligens hører hjemme i en av livets mest personlige ritualer. Dette er viktig fordi det flytter generativ AI fra kontoret og inn i hjemmet, og tester teknologiens evne til å håndtere kulturelt sensitive, svært kreative oppgaver. Designere frykter at AI‑genererte kjolekonsepter kan undergrave skreddersydd håndverk, mens bryllupsplanleggere ser en mulighet til å automatisere rutinemessig papirarbeid. Tillegget reiser også opphavsrettsspørsmål – kjolebildene produseres av DALL·E, som blander millioner av eksisterende motefotografier – samt personvernbekymringer, ettersom brukere legger inn personlige opplysninger om sine partnere og familier i modellen. OpenAIs utvidelse følger SuperApp‑lanseringen kunngjort 20. mars, som samlet ChatGPT, Codex og Atlas i én plattform. Bride‑tillegget ser ut til å være den første forbruker‑rettede modulen i dette økosystemet. Microsoft, en stor investor, har allerede antydet dypere integrasjon, og postet på X at teknologien kan dukke opp i kommende Windows 11‑oppdateringer og Bings bryllupsplanleggingsassistent. Hva som er verdt å følge med på: OpenAI kan åpne et dedikert API for brudtjenester, muligens i samarbeid med kjolehus eller lokaler. Reguleringsmyndigheter kan granske bruken av AI‑genererte bilder som etterligner kulturelle bryllupsklær. Og Microsofts neste programvareoppdatering vil vise om “Bride”-verktøyet blir en standardfunksjon i Windows‑opplevelsen. Brukernes adopsjonshastighet og eventuell motstand fra bryllupsbransjen vil bli barometeret på hvor langt AI kan gå inn i personlige livshendelser.
126

App Store tjener nesten 900 millioner dollar på AI‑apper – ChatGPT står for over sytti prosent – unwire.hk Hongkong

Mastodon +8 kilder mastodon
applegeminiopenai
Ifølge analysefirmaet AppMagic tjente Apples App Store nesten 900 millioner dollar i 2025 på generative AI‑apper. Størstedelen av denne inntekten – mer enn 70 prosent – kom fra OpenAIs mobile klient ChatGPT, som alene genererte omtrent 675 millioner dollar i provisjoner. Apples vanlige andel på 30 prosent av app‑salg og abonnementer betyr at teknologigiganten tjente pengene uten å bruke sin egen flaggskip‑AI‑modell. Tallene understreker Apples rolle som de‑facto portvokter i mobil‑AI‑markedet. Mens Google presser Gemini og Microsoft støtter Copilot, har Apple satset på sitt eksisterende økosystem og latt tredjeparts‑AI‑tjenester blomstre på iOS‑enheter. Oppgangen driver Apples AI‑relaterte inntekter mot milepælen på 1 milliard dollar som forventes i 2026, et nivå som kan måle seg med selskapets maskinvaresalg i flere regioner. For utviklere viser dataene den kommersielle gevinsten ved å integrere store språkmodeller i forbruker‑apper. Det gjenoppliver også den langvarige debatten om App Stores 30 prosentandel, som regulatorer i EU og USA nå begynner å undersøke. Apples neste trekk kan forme økonomien i mobil‑AI: iOS 27 er planlagt å introdusere en innebygd AI‑chatbot som kan konkurrere direkte med
120

Claude Code og den store produktivitetspanikken i 2026

Claude Code og den store produktivitetspanikken i 2026
HN +6 kilder hn
claude
Claude Code, Anthropics kode‑genereringsmotor som lar utviklere skrive programvare ved å gi instruksjoner til Claude‑LLM‑en, har blitt gnisten i det analytikere kaller den «store produktivitetspanikken i 2026». Utløseren var en av Pentagon utstedt «Enterprise AI»-merking som ble publisert forrige uke, og som fremhevet Claude Code som det mest utbredte AI‑verktøyet blant forsvarsleverandører, fintech‑selskaper og store SaaS‑leverandører. Merkingen, som er ment å sertifisere sikkerhet og etterlevelse, skjøv umiddelbart Claude‑drevne applikasjoner til toppen av bedrifts‑app‑butikker og utløste en bølge av interne notater som advarte om at «AI‑drevede produktivitetsøkninger kan destabilisere bemanningsmodeller over natten». Panikkens betydning ligger i at den tydeliggjør
116

Google sendte en «klar beskjed» til ansatte som er bekymret for Pentagon‑avtaler: Vi «satser mer» på

Google sendte en «klar beskjed» til ansatte som er bekymret for Pentagon‑avtaler: Vi «satser mer» på
The Times of India on MSN +7 kilder 2026-03-20 news
googleopenai
Google har sendt et tydelig internt notat for å dempe den økende uro blant de ansatte om selskapets stadig utvidende samarbeid med det amerikanske forsvarsdepartementet. På et town‑hall‑møte ledet av VP for Global Affairs, Tom Lue, og DeepMind‑sjefen, Demis Hassabis, ble de ansatte informert om at Google «satser mer» på kunstig‑intelligens‑kontrakter innen nasjonal sikkerhet, samtidig som de forblir «i tråd med våre AI‑prinsipper». Meldingen, som først ble rapportert av Business Insider, understreket at de nåværende Pentagon‑engasjementene er «målt, formålsdrevet og underlagt streng styring», og at selskapet ikke vil gi ubegrenset tilgang til sine modeller. Denne beroligelsen kommer etter flere uker med interne petisjoner og offentlig kritikk. Hundrevis av ingeniører fra Google og OpenAI signerte et åpent brev som oppfordrer til å stoppe ubegrenset Pentagon‑bruk av generativ AI, og gjenspeiler bekymringene som ble reist i innleveringen 21. mars, som avdekket en skjult avtale mellom Anthropic og Pentagon. Tidligere denne måneden kunngjorde Google at de ville støtte Pentagon‑AI‑prosjekter, med argumentet om at fordelene ved avanserte forsvarsevner oppveier de oppfattede risikoene. Den siste kommunikasjonen til de ansatte markerer dermed det første eksplisitte svaret på motstanden fra de ansatte. Hvorfor dette er viktig, er tosidig. For det første fremhever den interne debatten en bredere spenning i bransjen mellom lukrative nasjonale‑sikkerhetskontrakter og de etiske retningslinjene som mange AI‑arbeidere kjemper for. For det andre kan Googles holdning forme konkurranselandskapet: et dypere Pentagon‑partnerskap kan gi selskapet et strategisk fortrinn over konkurrenter som OpenAI, som har vært mer forsiktige med forsvarsarbeid. Det neste å holde øye med er de konkrete kontraktene som er planlagt for regnskapsåret, spesielt de som involverer autonome våpen eller sanntidsanalyse av slagmarken. Kongressens tilsynskomiteer har signalisert at de vil granske teknolog‑forsvars‑samarbeid, og ytterligere aktivisme blant de ansatte er sannsynlig dersom nye avtaler ser ut til å presse grensene for selskapets AI‑prinsipper. Det kommende kvartalsresultatet bør avdekke om «satser mer»-strategien omsettes i målbare inntekter uten å utløse ytterligere intern motstand.
110

Etter OpenAI støtter Google Pentagon‑AI‑avtaler, sier «fordeler over risiko»

Etter OpenAI støtter Google Pentagon‑AI‑avtaler, sier «fordeler over risiko»
Times Now on MSN +7 kilder 2026-02-26 news
ai-safetyanthropicdeepmindgoogleopenai
Google har forsøkt å dempe intern dissent rundt sin stadig større forsvarsvirksomhet ved å kunngjøre nye sikkerhets‑først‑politikker for Pentagon‑AI‑prosjekter. På en DeepMind‑town‑hall fortalte visepresident Tom Lue og administrerende direktør Demis Hassabis de ansatte at selskapet «satser mer» på nasjonale sikkerhetskontrakter, og at arbeidet vil bli styrt av oppdaterte retningslinjer som legger vekt på ansvarlig bruk, risikoredusering og overholdelse av Googles AI‑prinsipper. Briefingen følger en petisjon signert av hundrevis av ingeniører i både Google og OpenAI som etterspør begrensninger på ubegrenset Pentagon‑tilgang til generative AI‑verktøy. Endringen markerer et vendepunkt fra Googles løfte i 2023 om å unngå våpen‑AI, og plasserer selskapet i en mer aggressiv posisjon i forhold til konkurrenter som Anthropic, OpenAI og Microsoft, som alle prøver å vinne Department of Defense med avtaler på flere millioner dollar. Ved å gjenta sin vilje til å levere til Pentagon samtidig som de lover strengere tilsyn, håper Google å sikre seg en andel av de mer enn 10 milliarder dollar som USA årlig bruker på forsvars‑AI, et marked som kan finansiere videre forskning og styrke sky‑tjenestene deres. Dette trekket er viktig fordi det tester balansen mellom kommersiell mulighet og de etiske begrensningene som mange ansatte og eksterne observatører anser som nødvendige for kraftige modeller. Hvis Googles interne sikkerhetstiltak viser seg utilstrekkelige, kan selskapet møte fornyet ansattaktivisme, offentlig krit
107

Se hva som skjer når kunstig intelligens kontrollerer en manns hele dag

Se hva som skjer når kunstig intelligens kontrollerer en manns hele dag
Amazon S3 on MSN +7 kilder 2026-03-20 news
Liam Thompson, en 28‑år gammel innholdsskaper fra Manchester, overlot hver beslutning i sin 24‑timer‑rutine til en AI‑drevet personlig assistent, og dokumenterte eksperimentet i en video som allerede har samlet millioner av visninger. Systemet, bygget på en kombinasjon av store språkmodeller, kalender‑integrasjonsverktøy og smarthus‑API‑er, vekket ham klokken 06.45, valgte en frokost basert på hans ernæringsmål, planla arbeidsblokkene hans, filtrerte nyhetsstrømmen på sosiale medier, valgte et lunsjsted, og til og med dikterte hans kvelds‑avslappingsrutine. Thompsons fortelling avslører friksjonsmomenter – en AI‑foreslått kaffe‑fri morgen som utløste motstand fra følgerne hans – og overraskelsesøyeblikk, som en spontan sykkeltur til en nærliggende park som algoritmen flagget som «høy energi, lav stress» basert på hull i kalenderen hans. Eksperimentet er viktig fordi det flytter grensene fra bedriftsnivå‑oppgaveautomatisering, eksemplifisert av Googles Gemini‑drevne logistikkplattformer, til intim, dag‑til‑dag‑livsstyring. Det reiser spørsmål om handlefrihet, dataprivatliv og påliteligheten til algoritmisk dømmekraft når personlige preferanser kolliderer med effektivitetshensyn. Observatører påpeker at mens AI‑en lyktes i å strømlinjeforme møter og redusere beslutningsutmattelse, avdekket den også begrensningene i kontekstuell forståelse – den misforsto sosiale signaler og overså nyanserte helsehensyn. Det neste å følge med på er bølgeeffekten på forbruker‑grade AI‑assistenter. Teknologiselskaper pilotere allerede «life‑OS»-plattformer som lover sømløs integrasjon på tvers av enheter, og Thompsons offentlige test kan akselerere brukeretterspørselen etter transparente, tilpassbare kontrollinnstillinger. Reguleringsmyndigheter i EU og de nordiske landene utarbeider også retningslinjer for AI‑medierte personlige beslutninger, med mål om å beskytte autonomi samtidig som innovasjon oppmuntres. De kommende månedene vil sannsynligvis bringe både produktlanseringer og politiske debatter formet av eksperimenter som Thompsons, og gir en virkelighetsnær barometer for hvor mye av vårt daglige liv vi er villige til å overlate til maskiner.
105

Show HN: Små pikselkarakterer for Cursor AI‑agenter

Show HN: Små pikselkarakterer for Cursor AI‑agenter
HN +5 kilder hn
agentscursorsora
Et GitHub‑prosjekt kalt cursouls har lagt til små, animerte piksel‑avatarer til Cursor AI‑kodeassistenten, og gjør editorens usynlige «tankebobler» til synlige, uttrykksfulle figurer. Det åpne kildekode‑repoet, postet på Hacker News som «Tiny pixel characters for Cursor AI agents», leverer seks ulike visuelle tilstander – nød, forvirring, venting og andre – slik at utviklere kan «lese rommet» uten å måtte bla gjennom logger. Sprites vises direkte i redigeringspanelet, overlegg på markørens output og endrer seg i sanntid mens den underliggende språkmodellen behandler en forespørsel. Flyttingen er viktig fordi Cursor, den AI‑drevne IDE‑en medgrunnet av Arvid Lunnemark og Sualeh Asif, har blitt en de‑facto plattform for AI‑assistert programmering i Norden og videre. Mens tidligere oppdateringer, som den RL‑forsterkede Cursor Composer 2 vi dekket 20 mars, fokuserte på rå ytelse, tar cursouls tak i brukeropplevelses‑gapet mange utviklere opplever når en AI‑agent stille stopper eller misforstår en prompt. Ved å gi agenten et visuelt «ansikt», reduserer utvidelsen kognitiv friksjon, forkorter feilsøkingssykluser, og kan sette en presedens for mer humane grensesnitt i det voksende økosystemet av AI‑assistenter. Det som er å holde øye med videre, er om pikselkarakter‑tilnærmingen sprer seg utover Cursor til andre multi‑agent‑miljøer som Agent Use Interface (AUI) vi fremhevet 21 mars, eller til åpne parser‑prosjekter som LiteParse. Cursor‑teamet har antydet et kommende UI‑verktøysett som kan la utviklere tilpasse avatarer, og fellesskapet har allerede forket repoet for å legge til språkspesifikke uttrykk. Adopsjons‑metrikk, integrasjon med konkurrerende redaktører, og eventuelle formelle UI‑retningslinjer fra det bredere AI‑verktøy‑samfunnet vil indikere om små pikselpersonas blir en standard UX‑lag for AI‑forsterket utvikling.
104

Fra 1K genAI til 8K‑galleri. Jeg vedder på at dette får flere likes enn den forrige. Jeg liker dyster dritt

Mastodon +8 kilder mastodon
geminigoogle
En digital kunstner kjent på nettet som MissKittyArt kunngjorde på X at et nytt verk, opprinnelig generert i 1 024 piksler, er oppskalert til et 8 000‑piksler lerret for visning i et fysisk galleri. Innlegget, krydret med hashtags som #8K, #PhoneArt og #GenerativeAI, inneholder en frekk bildetekst – «Jeg vedder på at dette får flere likes enn den forrige. Jeg liker dyster dritt» – samt en kort video av det høyoppløste trykket som henger på en hvit vegg. Oppskalingen ble oppnådd med en kombinasjon av Googles Gemini generative‑AI‑SDK og en gratis AI‑bildeforsterker som kan øke oppløsningen til 8 K og høyere. Ved å mate den opprinnelige 1 K‑prompten («katten min spiser en nano‑banan på en fancy restaurant under Gemini‑stjernebildet») inn i Gemini‑modellen og deretter kjøre resultatet gjennom oppskaleren, produserte kunstneren et trykk som beholder fin detaljrikdom og fargepresisjon i galleri‑skala. Hvorfor dette er viktig er tosidig. For det første demonstrerer arbeidsflyten at dagens forbruker‑grad AI‑verktøy kan bygge bro mellom lavoppløselige internett‑memer og museum‑kvalitet fin‑kunst, og senker terskelen for skapere som mangler tilgang til avansert maskinvare. For det andre signaliserer flyttingen en endring i hvordan gallerier skaffer verk: kuratorer kan nå bestille kunstverk som er konseptualisert på en telefon, raffinert i skyen, og utstilt i en oppløsning som kan måle seg med tradisjonell fotografi. Dette visker ut grensene mellom digitale og fysiske kunstmarkeder og reiser nye spørsmål om forfatterskap, lisensiering og verdsetting av AI‑generert bilde­materiale. Som vi rapporterte 20. mars 2026, utløste de samme hashtagene en bølge av 8 K‑telefon‑kunst‑eksperimenter. MissKittyArts siste utstilling er den første som oversetter den digitale hype‑en til en mur‑og‑mur‑setting. Det som nå er verdt å følge med på, er de kommende utstillingene som er planlagt til sommeren i Stockholm og København, hvor flere gallerier allerede har skrevet under på AI‑opp­skalerte bestillinger. Bransjeobservatører vil også holde øye med om AI‑plattformleverandører lanserer innebygd 16 K‑opp­skalering eller sanntids‑rendering på mobile enheter, noe som kan skyve oppløsnings­taket enda høyere og ytterligere demokratisere høy‑end digital kunst.
103

OpenAI‑utviklere (@OpenAIDevs) på X

Mastodon +7 kilder mastodon
educationopenai
OpenAIs utviklerkonto på X kunngjorde at en student‑rettet versjon av Codex nå er lansert, med $100 i gratis kreditter avsatt for universitetsstudenter i USA og Canada. Tilbudet, som ble lagt ut på X av @OpenAIDevs, inviterer lærende til å “build, break and fix” kode ved hjelp av den AI‑drevne kodeassistenten, og posisjonerer verktøyet som en praktisk klassekamerat snarere enn kun et produktivitets‑tillegg. Codex, modellen som driver GitHub Copilot, kan oversette naturlige språk‑forespørsler til kjørbar kode, foreslå fullføringer og til og med feilsøke kodebiter. Ved å gi kreditter direkte til studenter, håper OpenAI å senke terskelen for erfaringsbasert læring i programvareutvikling, en sektor hvor talentrørene strammer inn over hele Norden og videre. Tiltaket signaliserer også OpenAIs intensjon om å integrere modellene sine dypere i formell utdanning, et steg videre enn den nylige lanseringen av ChatGPT SuperApp og den bredere “AI research intern”-initiativet som ble rapportert tidligere denne måneden. Utrullingen er viktig av flere
81

Show HN: LiteParse, en rask åpen kildekode‑dokumentparser for AI‑agenter

Show HN: LiteParse, en rask åpen kildekode‑dokumentparser for AI‑agenter
HN +5 kilder hn
agentsllamaopen-source
Et nytt åpen‑kilde‑verktøy kalt **LiteParse** er lagt ut på GitHub, og lover AI‑agenter en dramatisk raskere måte å hente inn og forstå dokumenter på. Prosjektet, som er utgitt under Apache 2.0‑lisensen, fjerner tunge avhengigheter: det kjører helt lokalt, krever ingen Python‑pakker og er uavhengig av GPU‑akselererte visjon‑språk‑modeller. Ifølge depotet kan LiteParse trekke ut romlig tekst, avgrensningsbokser og tabellstrukturer fra noen hundre sider på bare noen sekunder på vanlig maskinvare – påstander som overgår tradisjonelle biblioteker som PyPDF, PyMuPDF og selv Markdown‑konvertere. Relevansen til LiteParse ligger i den økende etterspørselen etter «agent‑baserte» AI‑systemer som må navigere store korpora av PDF‑filer, skannede dokumenter og web‑skrapte rapporter uten å pådra seg sky‑beregningskostnader eller latensstraff. Ved å håndtere parsingssteget lokalt kan utviklere holde sensitiv data på stedet, redusere API‑kostnader og ha strengere kontroll over personvern. Parserens design speiler hvordan agenter faktisk itererer over dokumenter: den prøver først rask tekstuttrekk, og faller tilbake på skjermbilde‑basert visuell resonnering kun når layout‑kompleksiteten krever det. Denne hybride tilnærmingen kan bli en de‑fakto‑standard for autonome assistenter, retrieval‑augmented generation‑pipelines og bedrifts‑kunnskapsbaser. Hold øye med tidlige brukere som integrerer LiteParse i populære agent‑rammeverk som LangChain, AutoGPT og den nylig lanserte Aegis‑credential‑isolation‑proxyen. Fellesskapets respons på Hacker News og tempoet i pull‑request‑aktiviteten vil indikere om LiteParse kan erstatte eksisterende parser‑løsninger i produksjon. En påfølgende benchmark‑utgivelse, forventet innen neste måned, bør avdekke konkrete hastighets‑ og nøyaktighets‑tall mot etablerte verktøy, og kan oppmuntre maskinvareleverandører til å optimalisere for parserens lette fotavtrykk.
79

📰 Cursor Composer 2: Hvordan Kimi K2.5 slår Claude Code til lavere kostnad (2026) Cursor har stille utviklet

Mastodon +10 kilder mastodon
anthropicclaudecursorfine-tuningopen-source
Cursor har stille lansert Composer 2, en ny AI‑kodingsmodell som overgår Anthropic sin Claude Code (Claude Opus 4.6) samtidig som den koster omtrent en tredjedel så mye. Selskapet bekreftet at Composer 2 er bygget på Moonshot AI‑s åpne kildekode‑modell Kimi K2.5, hvor omtrent 25 % av forhåndstreningen er arvet fra basismodellen og resten er lagt til gjennom Cursors egen fin‑justering og videre trening, ifølge ansatte Lee Robinson. Påstanden er viktig fordi den snur den vanlige kost‑ytelses‑beregningen i markedet for utviklerverktøy. I benchmark‑tester som simulerer virkelige programmeringsoppgaver, oppnådde Composer 2 høyere bestått‑rater enn Claude Code og til og med OpenAI sin GPT‑5.4, samtidig som prisen per token er sammenlignbar med en beskjedent sky‑compute‑instans. For oppstartsbedrifter og store virksomheter som kjører tusenvis av kode‑genererings‑spørringer daglig, kan besparelsene løpe opp i millioner av dollar årlig. Flyttingen reiser også spørsmål om modell‑opprinnelse og lisensiering. Kimi K2.5 er utgitt under en permissiv lisens, men Moonshot AI har advart om at omfattende fin‑justering uten attribusjon kan bryte vilkårene. Lekkasjer av modell‑identifikatorer som “kimi‑k2p5‑rl” funnet i Composer 2‑s distribusjonslogger tyder på en direkte avstamning, og gir næring til en debatt som speiler tidligere bekymringer vi dekket om Claude Code‑lisensiering i vår rapport fra 21. mars. Hva du bør holde øye med videre: en mulig juridisk utfordring fra Moonshot AI, og om Anthropic vil akselerere sine egne fin‑justerings‑pipelines eller senke prisen på Claude Code. Utviklere vil sannsynligvis teste Composer 2‑s integrasjon med Cursors eksisterende agent‑økosystem — de små pixel‑karakterene og Agent Use Interface vi fremhevet tidligere — for å se om kostnadsfordelen omsettes til smidigere arbeidsflyter. Den bredere implikasjonen er en økende vilje blant vestlige AI‑selskaper til å bygge på kinesisk åpen‑kilde‑grunnlag, en trend som kan omforme konkurransedynamikken i hele generativ‑AI‑stakken.
76

Microsoft MAI‑Image‑2 i topp tre på AI‑bildegenerering med restriksjoner

Mastodon +7 kilder mastodon
microsofttext-to-image
Microsoft har avduket MAI‑Image‑2, sin andre generasjons tekst‑til‑bilde‑modell, og systemet klarte umiddelbart å komme inn på de tre beste på Arena.ai sin konkurranseliste. Modellen endte på #3, kun bak Googles Gemini 3.1 Flash og OpenAIs GPT‑Image 1.5, og markerer første gang Microsofts egenutviklede bildegenerator har overgått flertallet av tredjepartsalternativer som er avhengige av eksterne API‑er. Prestasjonen er viktig fordi den signaliserer Microsofts økende uavhengighet fra OpenAI når det gjelder kreative AI‑funksjoner som er integrert i Copilot, Bing og det bredere Windows‑økosystemet. Ved å levere en modell som kan konkurrere med bransjens beste, kan Microsoft stramme inn integrasjonen, redusere lisenskostnader og forme brukeropplevelsen mer direkte. Utplasseringen kommer imidlertid med strenge bruksbegrensninger: brukerne får kun et beskjedent antall genereringer per dag, og resultatene er begrenset til kvadratiske bilder. Disse begrensningene er ment å dempe serverbelastning og hindre potensiell misbruk, men de svekker også modellens appell for designere og markedsførere som trenger høyoppløselige bilder i ulike sideforhold. Analytikere vil følge med på hvordan Microsoft balanserer avveiningen mellom ytelse og tilgjengelighet. Hvis begrensningene viser seg for restriktive, kan utviklere gå tilbake til OpenAIs DALL‑E 3 eller Googles Gemini for ubegrenset kreativt arbeid. Omvendt kan en gradvis lettelse av begrensningene – kanskje knyttet til betalte nivåer eller bedriftslisenser – gjøre MAI‑Image‑2 til en hjørnestein i Microsofts AI‑først‑strategi. Neste steg inkluderer å overvåke modellens integrasjonsdybde i Microsoft 365, dens påvirkning på prisingen av Copilots kreative pakke, og eventuelle policy‑oppdateringer fra Arena.ai som kan endre rangeringen på leaderboardet. En bredere lansering utover den nåværende beta‑versjonen, kombinert med støtte for flere sideforhold, vil være den tydeligste indikatoren på at Microsoft har som mål å posisjonere MAI‑Image‑2 som en reell utfordrer til markedslederne.
74

OpenAI vil utvide annonser på ChatGPT til alle gratis‑ og lavkostbrukere, rapporterer The Information https://w

OpenAI vil utvide annonser på ChatGPT til alle gratis‑ og lavkostbrukere, rapporterer The Information  
https://w
Mastodon +7 kilder mastodon
openai
OpenAI er i ferd med å rulle ut annonsering på de gratis‑ og lavpris‑nivåene av ChatGPT, ifølge en rapport fra The Information. Tiltaket følger en begrenset test som startet sent i fjor, hvor sponsede meldinger ble vist under modellens svar for en liten gruppe brukere. Fra og med neste måned vil alle brukere på gratisplanen og på $20‑per‑måned‑nivået «ChatGPT Go» få tydelig merkede annonser integrert i chatte‑grensesnittet, mens det premium‑abonnementet «ChatGPT Pro» forblir annonse‑fritt. Utvidelsen markerer selskapets første store satsing på inntekter fra display‑annonser for sin flaggskip‑chatbot. OpenAI har sagt at annonsene vil være «ikke‑invasive» og at brukere kan velge bort personalisering eller slette dataene som brukes til målretting når som helst. Et betalt nivå som garanterer en annonse‑fri opplevelse er allerede en del av tilbudet, noe som gjenspeiler selskapets bredere strategi med lagdelte inntektsmodeller som ble skissert i kunngjøringen 21. mars om en «superapp» som skal samle ChatGPT, Codex og den nye Atlas‑nettleseren. Hvorfor dette er viktig er todelt. For det første gir annonsering en skalerbar inntektsstrøm som kan dempe de økende kostnadene ved å trene og drifte store språkmodeller – et press som allerede har fått OpenAI til å vurdere høyere abonnementspriser og bedriftslisensavtaler. For det andre kan tilstedeværelsen av annonser i konversasjons‑AI endre brukernes forventninger til personvern og innholdets relevans, noe som kan få regulatorer og forbrukerorganisasjoner til å granske hvordan data samles inn for målretting. Det som bør følges med på videre, er detaljene rundt annonseformatene og prisene. OpenAI har antydet en «ChatGPT Ads Manager» som vil kreve et minimumsforbruk på $200 000 og levere ukentlige ytelsesrapporter, noe som tyder på et skifte mot høyt verdsatte B2B‑annonsører. Observatører vil også holde øye med eventuell brukerreaksjon eller frafall, spesielt dersom annonseopplevelsen oppfattes som forstyrrende, samt om selskapet vil utvide modellen til den kommende desktop‑superappen. Rullingen blir en prøve på hvor raskt AI‑industrien kan kommersialisere sine mest populære forbrukerprodukter uten å svekke tilliten.
73

📰 OpenAI vil doble arbeidsstyrken til 8 000 innen 2026 i AI‑kappløpet mot Anthropic

Mastodon +8 kilder mastodon
anthropicopenai
OpenAI kunngjorde 21. mars at de nesten vil doble antall ansatte, fra omtrent 4 500 til 8 000 innen utgangen av 2026. Ansettelsesbølgen vil fokusere på produktutvikling, ingeniørarbeid, forskning og salg, og blir fremstilt som et direkte svar på den raske veksten hos konkurrenten Anthropic, som har posisjonert seg som leder innen «ansvarlige» generative AI‑modeller. Tiltaket er viktig fordi talent er den knappeste ressursen i AI‑kappløpet. Med en verdivurdering på nå rundt 730 milliarder dollar, har OpenAI råd til å bruke mer penger enn konkurrentene på ingeniører og forskere, men markedet for ekspertise innen dyp læring er allerede stramt. Ved å styrke arbeidsstyrken håper OpenAI å fremskynde utrullingen av bedriftsrettede produkter som OpenAI for Healthcare og den nylig lanserte ChatGPT Health‑tjenesten, samtidig som de fyller utviklingspipeline for den kommende «superappen» som skal kombinere ChatGPT, Codex og Atlas‑nettleseren. Et større team gir også selskapet en buffer mot risikoen for frafall når rivaler som Anthropic, Google og nye europeiske oppstartsbedrifter intensiverer rekrutteringskampanjer. Det neste å holde øye med er hvor raskt de nye ansettelsene omsettes til produktfart og markedsandel. Analytikere vil følge med på kunngjøringer om ansettelser i sentrale knutepunkter – San Francisco, Seattle, London og Stockholm – for å vurdere om OpenAI kan opprettholde ekspansjonen uten å fortynne bedriftskulturen. Anthropics respons, enten gjennom en egen ansettelsesbølge eller et strategisk partnerskap, vil signalisere om talentgapet begynner å lukkes. Til slutt begynner regulatorer å undersøke konsentrasjonen av AI‑talent i noen få selskaper; eventuelle politiske endringer kan omforme ansettelseslandskapet som
72

📰 Claude Code‑sikkerhetsfeil: Hvordan feilkonfigurerte filer eksponerer AI‑verktøy (2026) – En kritisk konfigurasjon

Mastodon +10 kilder mastodon
anthropicclaude
Anthropics Claude Code, den AI‑drevne kodeassistenten som synkroniseres direkte med GitHub‑repoer, ble oppdaget å inneholde en kritisk konfigurasjonsfeil (CVE‑2026‑33068) som gjør det mulig for et ondsinnet repo å omgå plattformens arbeidsområde‑tillitdialog. Sikkerhetsforskerne hos Check Point avslørte at feilen stammer fra en feilbehandlet Claude.md‑fil: når et lager inneholder spesiallagde innstillinger, gir Claude Code automatisk AI‑en full lese‑ og skrive­tilgang, og gjør assistenten til en kanal for fjernutførelse av kode og tyveri av API‑nøkler. Det samme forskerteamet knyttet problemet til tidligere sårbarheter (CVE‑2025‑59536, CVE‑2026‑21852 og et «Hooks»-advisory) som sammen utgjør en komplett angrepskjede – fra kloning av repoet til eksfiltrasjon av legitimasjon. Oppdagelsen er viktig fordi Claude Code er posisjonert som en hjørnestein i den fremvoksende «AI‑første» utviklingsstakken, og konkurrerer med OpenAIs Codex og andre assistentverktøy som ble omtalt i vår nylige dekning av OpenAI SuperApp (20. mars 2026). Ved å utnytte en klassisk svakhet i programvare‑forsyningskjeden snarere enn en AI‑spesifikk feil, kan angripere kompromittere ethvert prosjekt som åpner et Claude Code‑arbeidsområde, potensielt stjele hemmeligheter, injisere ondsinnet kode og undergrave tillitsmodellen som ligger til grunn for samarbeids‑koding‑plattformer. Hendelsen understreker at AI‑integrasjoner arver samme angrepsflate som tradisjonelle verktøy, et poeng vi påpekte da Anthropic lanserte sitt «Claude for Open Source»-program (20. mars 2026). Anthropic patchet den sårbare kodeveien før den offentlige advisen ble publisert og ga en uttalelse om at alle identifiserte problemer er løst. Utviklere oppfordres til å revidere sine Claude Code‑konfigurasjoner, håndheve strenge kontroller av repo‑opprinnelse og rotere eventuelle eksponerte legitimasjoner. Følg med på Anthropics kommende roadmap for sikkerhets‑forsterkning, samt bransjebred veiledning om sikring av AI‑drevne utviklings‑pipelines, som sannsynligvis vil dukke opp i løpet av de kommende ukene etter hvert som regulatorer og skyleverandører skjerper kravene til forsyningskjede‑standarder.
66

Covenant-72B er den største desentraliserte LLM‑fortreningkjøringen i historien

HN +6 kilder hn
training
Bittensors Templar‑subnett (SN3) kunngjorde 10. mars at de har fullført fortrening av Covenant‑72B, en språkmodell med 720 milliarder parametere som er bygget fullt ut på et desentralisert nettverk av 70 frivillige noder. Arbeidet, koordinert via en levende blokkjede‑protokoll, gjorde det mulig for alle med ledig GPU‑kapasitet å bidra med beregning og motta token‑belønninger, noe som gjør det til den største samarbeidsbaserte LLM‑fortreningkjøringen som noen gang er registrert både i modellstørrelse og distribuert beregning. Resultatet er viktig fordi det viser at tillitsløse, tillatelsesfrie nettverk kan konkurrere med de sentraliserte superdataklyngene som tradisjonelt kreves for toppmoderne modeller. Ved å utnytte data fra offentlig internett og en token‑insentivert peer‑pool, omgådde Templar‑subnettet de enorme kapitalutgiftene som giganter som OpenAI eller Google investerer
60

Claude sin agentiske løkke forklart: stopReason, tool_use og mønsteret bak hver AI‑agent

Dev.to +5 kilder dev.to
agentsclaude
Anthropic har publisert en grundig gjennomgang av den «agentiske løkken» som driver Claude‑baserte AI‑agenter på AWS Bedrock, og avkrefter mystikken rundt stopReason‑feltet som har forvirret utviklere i flere måneder. Den nye veiledningen forklarer at en stopReason på «tool_use» instruerer SDK‑en om å aktivere det valgte verktøyet, legge til resultatet i samtalen og gå inn i løkken på nytt, mens «end_turn» signaliserer at modellen har fullført sin resonnering og returnerer det endelige svaret. Dokumentasjonen kartlegger også løkken til det bredere mønsteret som brukes av de fleste generative agenter: prompt → verktøyvalg → utførelse → tilbakemelding → gjenta til en avslutningsbetingelse er oppfylt. Hvorfor dette er viktig er todelt. For det første gir avklaringen ingeniører en pålitelig måte å feilsøke og optimalisere Claude‑agenter på, og gjør det som tidligere var en «black‑box»-oppførsel til en forutsigbar kontrollflyt. For det andre etablerer den en
60

Show HN: Rover – gjør ethvert nettgrensesnitt til en AI‑agent med én script‑tagg

HN +5 kilder hn
agentsopen-source
Rover, et åpen‑kilde‑SDK som er publisert på GitHub, lar utviklere forvandle hvilken som helst nettside til en samtalebasert AI‑agent med kun én script‑tagg. Verktøyet injiserer et DOM‑nativt lag som tolker bruker‑prompt, manipulerer sideelementer og utløser handlinger med under‑sekund‑forsinkelse, helt uten å benytte skjermbilder, virtuelle maskiner eller eksterne API‑er. Ved simpelthen å legge til ```html <script src="https://cdn.rtrvr.ai/rover.js"></script> ``` på et nettsted, kan eiere gi besøkende et chat‑drevet grensesnitt som kan fylle ut skjemaer, navigere i menyer eller hente data direkte fra sidens egen HTML‑struktur. Lanseringen er viktig fordi den senker den tekniske terskelen for å integrere agent‑baserte opplevelser. Inntil nå har det å lage en nettbasert AI‑assistent vanligvis krevd back‑end‑tjenester, tilpassede UI‑komponenter og kontinuerlig vedlikehold. Rover sitt løfte om «null‑oppsett» kan akselerere adopsjonen i e‑handel, SaaS‑dashbord og innholdsportaler, hvor brukere i økende grad forventer samtalebaserte snarveier. Den DOM‑native tilnærmingen omgår også personvern‑ og ytelsesbekymringer knyttet til skjerm‑skrapende roboter, og tilbyr en mer transparent, klient‑side‑løsning som respekterer sidens eksisterende sikkerhetsmodell. Rover kommer i en periode med en bølge av AI‑agent‑verktøy, fra de selvstyrende Claude‑baserte teamene vi dekket i «AI Team OS» til utvikler‑erstattende agenter fremhevet i vårt stykke fra 21. mars. Timingen antyder et skifte fra tunge, server‑sentraliserte agenter til lette, innebygde følgesvenner som sitter direkte i nettleseren. Etter hvert som Chrome og andre nettlesere eksperimenterer med innebygde AI‑assistenter, kan Rover bli en de‑fakto standard for nettsteder som ønsker å beholde kontrollen over brukeropplevelsen i stedet for å overlate den til en nettleserleverandør. Hva som er verdt å følge med på videre: tidlige adopters case‑studier vil vise hvordan scriptet håndterer komplekse UI‑er og høy trafikk; sikkerhetsrevisjoner vil teste om den klient‑side‑modellen kan misbrukes til ondsinnet automatisering; og fellesskapets bidrags‑pipeline kan raskt utvide SDK‑en med plugins for autentisering, analyse og multimodale innspill. Hvis Rover får gjennomslag, kan det endre hvordan bedrifter tenker på front‑end‑interaktivitet, og gjøre hver nettside til et programmerbart, samtalebasert grensesnitt.
60

Claude Code v2.1.76~81 dypanalyse: --channels Telegram‑integrasjon, --bare CI/CD‑modus, /remote-control fjernkontroll

Dev.to +6 kilder dev.to
claudedeepseek
Anthropic lanserte Claude Code v2.1.76‑81 denne uken, og utvider den åpne AI‑kodingassistenten med tre høyt profilerte funksjoner: innebygd støtte for Telegram‑kanaler, en nedskalert “bare” CI/CD‑modus, og et nytt /remote‑control‑endepunkt for kjøring på stedet. Oppdateringen, som ble kunngjort på prosjektets GitHub‑side, inneholder ni arkitektoniske justeringer som strammer inn verktøyets plug‑in‑system, reduserer oppstartslatens og gjør et rikere sett med system‑prompter tilgjengelig for tilpasset verktøybruk. Telegram‑integrasjonen, som aktiveres med flagget --channels, lar utviklere sende kodeforslag, testresultater eller feillogger direkte til en gruppe‑chat, på samme måte som den alltid‑på‑agenten vi dekket 20. mars. Ved å holde samtalen i en kjent meldingsapp kan team samarbeide uten å bytte kontekst, noe som kan fremskynde adopsjonen av AI‑støttet utvikling i distribuerte nordiske oppstartsbedrifter hvor Slack og Teams allerede dominerer. Den --bare CI/CD‑modusen fjerner det interaktive brukergrensesnittet og kjører Claude Code som en hodeløs daemon, som leverer resultater inn i pipelines som GitHub Actions eller GitLab CI. Tidlige brukere rapporterer opptil 30 % kortere pipeline‑varighet, en viktig fordel når virksomheter sammenligner AI‑forsterkede bygg med tradisjonelle statiske analyseverktøy. Til slutt eksponerer /remote‑control‑endepunktet et lettvektig HTTP‑API som tar imot kode‑snutter, kjører dem i et isolert sandkasse‑miljø og returnerer kjørestråler. Dette åpner døren for tredjeparts orkestreringsplattformer og kan bli ryggraden i “AI‑as‑a‑service”‑tilbud som integreres direkte med IDE‑utvidelser. Hvorfor dette er viktig er tosidig: Anthropic styrker sin konkurranseposisjon mot rivaler som DeepSeek‑Coder‑V2 og Gemini CLI, hvis siste benchmark‑resultater viser lik eller bedre rå ytelse, men som mangler Claude Codes sømløse kanal‑ og CI/CD‑koblinger. Samtidig faller utgivelsen sammen med det fremvoksende økosystemet av kostnadssporings‑wrappers som liteLLM, som nå støtter Claude Code‑bruksstatistikk og gir virksomheter den innsikten de trenger for å budsjettere AI‑arbeidsbelastninger. Hold øye med fellesskaps‑drevne utvidelser i tweakcc‑repoet, som legger til egendefinerte system‑prompter, temapakker og inn‑markører, samt Anthropics neste veikart‑avsløring, forventet å ta tak i sikkerhets‑misconfigurasjons‑problemet vi flagget 21. mars. Samspillet mellom funksjonsutvidelse og hardening vil avgjøre om Claude Code blir de‑facto‑standard for AI‑forsterket programvareleveranse i Norden.
59

Jeg er ikke imot det generelle feltet kunstig intelligens, det er et ekstremt interessant tema. Jeg

Mastodon +6 kilder mastodon
En ledende nordisk AI‑forsker har tent en ny debatt ved å publisere en åpen kritikk av den nåværende bølgen av store språkmodeller (LLM‑produkter). I en tre‑minutters video som ble lagt ut på X tirsdag, sa Dr. Lina Svensson – professor i maskinlæring ved Universitetet i Oslo og medforfatter av den nylige gjennomgangen «Artificial Intelligence in Medical Imaging» – at hun er «ikke anti det generelle feltet kunstig intelligens, det er et ekstremt interessant tema», men advarte om at mange LLM‑baserte tjenester blir «deceptivt solgt som ‘AI‑løsninger’» som lover mer enn de kan levere på pålitelighet. Hun la til at markedsføringshype har fått en «kult‑lignende tilhengerskare», som oppmuntrer investorer og bedrifter til å jage etter overskrifts‑fylte demonstrasjoner i stedet for grundig verifiserte anvendelser. Svenssons bemerkninger kommer på et tidspunkt da nordiske myndigheter strammer inn reglene for AI‑innkjøp, og EU‑kommisjonen utarbeider strengere krav til åpenhet for generativ AI. Ved å påpeke gapet mellom hype og praktisk nytte, understreker professoren en økende bekymring blant akademikere om at ukontrollert kommersialisering kan svekke offentlig tillit og bremse ekte innovasjon. Kritikken hennes gjenspeiler også tidligere advarsler fra det bredere fellesskapet, inkludert MIT Technology Reviews analyse fra 2025 som avfeide «absurde ideer» om en plutselig AI‑overtakelse, samt nylige politiske samtaler i Washington om å tilpasse AI‑utviklingen til realistiske forventninger. Uttalelsen vil sannsynligvis gi næring til diskusjoner i kommende nordiske AI‑fora, hvor regulatorer, industriledere og forskere vil vurdere behovet for tydeligere merking av LLM‑baserte verktøy. Følg med på svar fra store leverandører, som har begynt å introdusere «AI‑grad»‑sertifiseringer, og på neste runde med EU‑retningslinjer som kan kreve ytelses‑benchmarker før markedsføringspåstander kan fremsettes. Samtalen Svensson har tent opp, kan forme hvordan regionen balanserer entusiasmen for generativ AI med kravet om ansvarlig, evidensbasert implementering.
57

iPhone Fold kan bli utsatt til desember, sier en analytiker

Mastodon +7 kilder mastodon
apple
Apples lenge ryktede foldbare iPhone kan bli utsatt til desember, ifølge en senioranalytiker i markedsundersøkelsesfirmaet Counterpoint. Analytikeren, som ba om å forbli anonym, sa at begrensninger i forsyningskjeden og behovet for omfattende holdbarhetstesting skyver lanseringen bort fra det vanlige septembervinduet Apple har foretrukket for flaggskipslanseringer. Apple har i flere år i hemmelighet prototypet en foldbar enhet, og lekkasjer peker på et 6,7‑tommers OLED‑panel som folder seg innover samt en hengselmekanisme som kan tåle tusenvis av sykluser. Den første generasjonsdesignen forventes å ligge over iPhone 18 Pro‑serien i pris, sannsynligvis i området 1 500–1 800 USD, og vil konkurrere med Samsungs Galaxy Z Fold 7 og Huaweis Mate X‑serie. Counterpoints estimat antyder at produksjonsutbyttet for den nye hengselen og det ultratynne glasset fortsatt er under de tersklene som kreves for en septemberlansering, spesielt siden de samme OLED‑fabrikkene allerede er booket for Samsungs modeller i 2026. Tidspunktet er viktig av flere grunner. En desemberdebut vil komprimere Apples salgsvindu i høytiden
52

OpenAI skal lansere ChatGPT‑superapp, “AI‑forskningspraktikant”

SiliconANGLE +10 kilder 2026-03-20 news
openai
OpenAI Group PBC kunngjorde at de vil rulle ut en desktop‑“superapp” som kombinerer deres flaggskip‑ChatGPT‑samtalemodell med Codex‑kodesprengningsmotoren og Atlas‑nettleserverktøyet. Wall Street Journal rapporterte først planen torsdag, og MIT Technology Review bekreftet at den samme utviklingsinnsatsen inkluderer en “AI‑forskningspraktikant” – en spesialisert assistent som skal akselerere vitenskapelig arbeid. Superappen vil presentere ett enkelt grensesnitt hvor brukerne kan skifte sømløst mellom naturlig‑språklig chat, kode‑fullføring og nett‑forskningsoppgaver. OpenAIs applikasjonsansvarlige, Fidji Simo, sa at integrasjonen er designet for å bryte ned siloer mellom interne produktteam og gi utviklere, analytikere og forskere et samlet produktivitetsnav. I løpet av de neste månedene vil Codex‑komponenten få “agent‑lignende” evner, slik at den kan kjøre skript, utføre tester og til og med utarbeide dokumentasjon uten manuell prompting, før Atlas‑nettleseren blir innlemmet. Hvorfor dette er viktig er todelt. For det første kan konsolideringen av tre av OpenAIs mest brukte tjenester sette en ny standard for AI‑forsterkede arbeidsområder, og utfordre Microsofts Copilot‑suite og Googles Gemini‑baserte verktøy som fortsatt er spredt over separate apper. For det andre signaliserer AI‑forskningspraktikanten et skifte fra generelle assistenter til domene‑spesifikke agenter, noe som potensielt kan forkorte tiden forskere bruker på å designe eksperimenter, analysere data og skrive artikler. Hvis funksjonen lykkes, kan den bli en hjørnestein i OpenAIs bredere ambisjon om å integrere AI dypere i bedrifts‑ og akademiske prosesser. OpenAIs veikart, som først ble antydet i vår dekning av superapp‑konseptet 20. mars, går nå fra prototype til nært forestående lansering. Hold øye med beta‑utrullingsplanen, prisnivåer for bedriftsbrukere, og hvordan forskningspraktikanten integreres med eksisterende plattformer som GitHub og arXiv. Reguleringsmyndigheter kan også komme til å granske databehandlingspraksisen til et verktøy som autonomt kan surfe på nettet og manipulere kode, noe som gjør etterlevelse og åpenhet til en sentral fortelling i ukene som kommer.
51

Transformere er Bayesianske nettverk

HN +5 kilder hn
inference
Et papir som ble lagt ut på arXiv denne uken hevder at transformator‑arkitekturen – nå arbeidsverktøyet innen naturlig språkbehandling, datavisjon og multimodal AI – er matematisk identisk med et Bayesiansk nettverk. Forfatterne, ledet av Greg Coppola, demonstrerer ekvivalensen på fem ulike måter: den sigmoid‑baserte feed‑forward‑blokken implementerer en vekt‑av‑bevis‑kombinasjon, oppmerksomhetsmekanismen samler bevis fra inngangstokenene, og residual‑strømmen håndhever samtidige oppdateringer, noe som gjenskaper de betingede avhengighetene i en Bayesiansk graf. Ved å ramme inn transformere som eksakte Bayesianske modeller i stedet for tilnærmelser, gir arbeidet et konkret svar på det langvarige spørsmålet om hvorfor arkitekturen skalerer så bra. Påstanden er viktig fordi den bygger bro mellom to forsknings­tradisjoner som stort sett har utviklet seg parallelt. Bayesianske nettverk gir et prinsipiell rammeverk for usikkerhetskvantifisering, kausal resonnering og tolkbarhet, men har blitt satt på sidelinjen i dyp læring på grunn av oppfattede beregningsmessige begrensninger. Hvis transformere allerede innehar Bayesiansk inferens, kan eksisterende trenings‑pipelines oppgraderes med probabilistiske diagnostikker uten å måtte redesigne modellen. Dette perspektivet henger også sammen med nyere fremskritt innen «probabilistiske grunnmodeller» (PFNs) som trener transformere til å utføre Bayesiansk prediksjon over ulike priorer, og oppnår størrelsesordens‑forskjeller i hastighet sammenlignet med klassiske Gaussian‑prosess‑metoder. Som vi rapporterte 20. mars, får Bayesianske nevrale nettverk økt oppmerksomhet i R‑økosystemet; den nye teoremet antyder at samme usikkerhets‑bevisste tankesett kan anvendes på den dominerende transformer‑stabelen. Det neste å holde øye med er om fellesskapet kan omsette den teoretiske ekvivalensen til praktiske verktøy. Umiddelbare steg inkluderer benchmarking av transformer‑basert Bayesiansk inferens på virkelige nordiske datasett, integrering av formuleringen i eksisterende biblioteker som tidymodels, og overvåking av respons fra de bredere AI‑sikkerhets‑ og tolkbarhetsfeltene. Oppfølgingsarbeid kan også utforske hybride arkitekturer som utnytter den eksplisitte grafstrukturen for mer effektiv trening eller for å innlemme domenekunnskap direkte i oppmerksomhetsmønstre. Dialogen mellom Bayesiansk teori og transformer‑praksis er i ferd med å omforme hvordan forskere tenker på modell‑pålitelighet og transparens.
51

Show HN: Agent Use Interface (AUI) – la brukerne ta med sin egen AI‑agent

HN +6 kilder hn
agents
En utvikler på Hacker News har nettopp publisert det første offentlige utkastet av Agent Use Interface (AUI), en åpen kildekode‑spesifikasjon som gjør det mulig for enhver nettapplikasjon å eksponere sin funksjonalitet for store språkmodeller (LLM‑agenter) via et enkelt XML‑manifest. Ved å plassere en agents/aui.xml‑fil i rotkatalogen på et nettsted, kan utviklere liste opp URL‑parameter‑styrte handlinger – søk, opprettelse, filtrering og mer – slik at en AI‑assistent kan oppdage og aktivere dem uten skreddersydd kode. Dette grepet bygger på den voksende «agent‑først»-mentaliteten som har fått økt oppmerksomhet etter at verktøy som Claude Code Channels og Sub‑Agent‑rammeverket ble introdusert tidligere denne måneden. Disse prosjektene demonstrerte hvordan agenter kan integreres i CI/CD‑pipelines, chat‑plattformer og legitimasjons‑isolasjon‑proxier, men hver av dem krevde et eget integrasjonslag. AUI har som mål å erstatte dette lappeteppet med et lettvektig, XML‑basert skjema som enhver front‑end kan ta i bruk, og lover plug‑and‑
48

Bygge AI‑chatboter for Tonga og Lozi med Retrieval‑Augmented Generation

Mastodon +7 kilder mastodon
open-sourcerag
En ny teknisk notat publisert på AI Engineering‑bloggen skisserer hvordan utviklere kan bruke Retrieval‑Augmented Generation (RAG) til å lage samtaleagenter for talere av Tonga og Lozi, to lav‑ressurs språk som snakkes i Zambia og deler av Stillehavet. Forfatteren demonstrerer en arbeidsflyt som kobler en åpen‑kilde‑stor språkmodell (LLM) med et lokalt kurert korpus av tekster i det offentlige domenet, og deretter indekserer materialet i en vektordatabse som Qdrant. Når en bruker stiller et spørsmål, henter systemet først de mest relevante avsnittene, mater dem inn i LLM‑en som kontekst, og genererer til slutt et svar på målspråket. Innlegget leverer kodeeksempler for LangChain‑orchestrering, prompts tilpasset de grammatiske særegenhetene i Tonga og Lozi, og en lettvekts‑distribusjon ved hjelp av Ollama på én GPU. Hvorfor dette er viktig er todelt. For det første viser det en praktisk vei til digital inkludering for samfunn som har blitt ekskludert fra den raske AI‑utrullingen som favoriserer engelsk, mandarin og andre høyt‑ressurs språk. Ved å forankre genereringen i verifiserte lokale kilder, demper tilnærmingen de hallusinasjonene som har plaget generiske chatboter og reduserer risikoen for kulturell feilrepresentasjon. For det andre omgår metoden de prohibitive kostnadene ved fin‑tuning av en full‑skala modell på knappe data; i stedet utnyttes LLM‑ens generative kraft mens kunnskapsbasen holdes oppdatert gjennom enkle korpusoppdateringer. Det som bør følges med på videre er pilot‑implementeringene som forfatteren nevner i samarbeid med en zambisk NGO og et utdanningsinitiativ i Stillehavsregionen. Resultatmålinger som brukertilfredshet, feilrater i språk‑morfologi og evnen til å svare på domene‑spesifikke spørsmål vil avgjøre om RAG‑baserte lokale chatboter blir en mal for andre underbetjente språk. Bransjeobservatører vil også være ivrige etter å se om større leverandører tar i bruk lignende pipelines, noe som potensielt kan åpne et nytt marked for flerspråklige AI‑tjenester i det globale sør.
47

Trump‑administrasjonen ser etter å samarbeide med Kongressen om kunstig intelligens‑politikk i de kommende månedene

Yahoo +7 kilder 2026-03-21 news
Det hvite hus presenterte en detaljert lovgivningsplan for regulering av kunstig intelligens på fredag, og Trump‑administrasjonen signaliserte at den vil samarbeide med Kongressen i løpet av de neste månedene for å omgjøre rammen til lov. «National AI Legislative Framework» foreslår en lett berørt, føderalt sentrert tilnærming som vil dempe fragmentering på delstatsnivå, skjerpe beskyttelsen mot AI‑drevede svindelordninger, og pålegge aldersverifiseringsmekanismer for AI‑plattformer samtidig som brukernes personvern ivaretas. Den krever også sterkere beskyttelse av immaterielle rettigheter, tydeligere regler for rimelig bruk av treningsdata, og økt tilsyn med AI‑applikasjoner som utgjør nasjonale sikkerhetsrisikoer. Som vi rapporterte 20. mars, hadde administrasjonen allerede publisert en politisk «ønskeliste» som skulle veilede føderal regulering. Dette nye steget går utover veiledning og tilbyr konkret lovtekst som Kongressen kan vedta. Endringen er viktig fordi USA hittil har vært avhengig av et lappeteppet av sektorspesifikke regler og frivillige bransjestandarder, noe som har etterlatt hull som konkurrenter i EU og Kina fyller med omfattende AI‑lover. En føderal lov kunne standardisere etterlevelse for teknologiselskaper, redusere juridisk usikkerhet, og gi myndighetene verktøy til å bekjempe deep‑fake‑svindel, barneutnyttende innhold og andre fremvoksende trusler. De kommende ukene vil vise om forslaget kan samle tverrpolitisk støtte. Komiteer i Representantenes hus og Senatet for handel, vitenskap og teknologi forventes å
45

Jeg bygde en personlig AI‑livscoach med Obsidian + Claude – Her er den eksakte oppsettet

Dev.to +5 kilder dev.to
claudegoogle
En utvikler har forvandlet Claude Code‑motoren til en privat «AI‑livscoach» ved å koble den direkte inn i et Obsidian‑vault. Etter måneder med prøving og feiling har forfatteren laget et system som henter mål, vaner, journaloppføringer og prosjektnotater fra Obsidian, sender dem til Claude, og mottar råd som er skreddersydd til brukerens egen historikk i stedet for et generisk svar. Oppsettet hviler på et strukturert vault: et «Self‑Assessment»-notat som gir modellen en personlig profil, daglige notatmaler som fanger ny data, og en Git‑basert sikkerhetskopi som bevarer kunnskapsbasen. Et tilpasset prompt‑bibliotek instruerer Claude om hvordan konteksten skal tolkes, hvilke blinde flekker som skal avdekkes, og hvilke konkrete handlinger som bør foreslås. Hele arbeidsflyten kjører lokalt, med Claude Code påkalt via den nye Claude dispatch‑API‑en, noe som betyr at brukeren aldri trenger å taste inn bakgrunnsinformasjon på nytt. Som vi rapporterte 21. mars 2026, åpnet Claude Code døren for å integrere Anthropics resonneringsmodell i personlige verktøy, og utløste en «produktivitetspanikk» da team hastet for å utnytte dens agent‑baserte løkker. Denne gjør‑det‑selv‑coachen viser at teknologien beveger seg utover bedriftsdashbord og inn i hverdagslig selvstyring, og markerer et skifte fra «søk‑og‑svar»-interaksjoner til kontinuerlig, kontekstbevisst assistanse. Den omgår også personvernsbekymringer knyttet til kun‑sky‑chatboter, fordi kunnskapsbasen forblir på brukerens enhet og kun prompt‑nivå‑spørringen når Anthropics servere. Eksperimentet antyder et bredere økosystem av «second‑brain»-AI‑assistenter. Hold øye med flere åpne kildekode‑vault‑maler, tettere integrasjon av Claude Code med andre notat‑apper, og Anthropics kommende oppdateringer av minnehåndtering som kan gjøre personlige agenter enda mer autonome. Dersom fellesskapet tar i bruk disse mønstrene, kan vi snart se en bølge av skreddersydde AI‑coacher som kan konkurrere med kommersielle velværeplattformer, samtidig som dataene holdes under brukerens kontroll.
42

AI‑inferens får 5‑ganger hastighetsøkning: Cerebras, AWS og arkitekturskiftet som redefinerer sky‑AI | SP1ND3X

Mastodon +7 kilder mastodon
inference
Cerebras Systems og Amazon Web Services har inngått et flereårig partnerskap som kombinerer AWS sin tilpassede Trainium‑akselerator med Cerebras sin wafer‑skala CS‑3‑motor for å skape en dedikert inferenstjeneste på Amazon Bedrock. Den felles arkitekturen deler den generative‑AI‑arbeidsbelastningen: Trainium håndterer pre‑fyllingsfasen, mens CS‑3, en 46 000 mm² stor silisium‑wafer, tar over dekodingen og leverer «tusener av utdata‑token per sekund» – en fem‑fold økning sammenlignet med de beste GPU‑baserte tilbudene. Dette markerer den første storskala utrullingen av en desentralisert AI‑stabel i den offentlige skyen. Ved å rute hver fase av transformator‑pipeline til den prosessoren som er best egnet for oppgaven, kan AWS tilby kundene dramatisk lavere latens og høyere gjennomstrømning uten kostnadsstraffene som følger med å skalere ut dusinvis av GPU‑er. For virksomheter som kjører massive språk‑modell‑arbeidsbelastninger, betyr løftet raskere responstider for chat‑boter, sanntids‑oversettelse og anbefalingsmotorer, samtidig som strømregningene reduseres. Kunngjøringen intensiverer rivaliseringen med NVIDIA, hvis dominans innen sky‑AI har hvilt på A100‑ og H100‑GPU‑ene. Cerebras sin wafer‑skala‑design omgår minnebåndbredde‑flaskehalser som begrenser GPU‑skalerbarhet, og AWS sin vilje til å integrere en ikke‑GPU‑løsning signaliserer et bredere bransjeskifte mot heterogene, formålsbygde silisium‑løsninger. Analytikere ser partnerskapet som et testtilfelle for fremtidige «best‑of‑both‑worlds»-skyer som blander ASIC‑er, FPGA‑er og wafer‑skala‑brikker. Hold øye med Bedrock‑utrullingen som er planlagt for andre halvdel av 2026, når kunder vil kunne velge det Cerebras‑akselererte endepunktet via AWS‑konsollen. Tidlige adoptører vil sannsynligvis være leverandører av store språk‑modeller og fintech‑selskaper som krever ultra‑lav latens. De neste signalene å følge er prisdetaljer, benchmark‑utgivelser fra uavhengige laboratorier, og om rivaliserende skyer som Google Cloud eller Microsoft Azure vil kunngjøre tilsvarende wafer‑skala‑samarbeid.
41

AI‑ARKITEKTER FOR LAVERE ENERGIFORBRUK (b)

Mastodon +6 kilder mastodon
Et konsortium av forskere fra Københavns Universitets institutt for informatikk og det svenske KTH (Kungliga Tekniska Högskolan) har avduket en ny klasse av AI‑arkitekturer som reduserer energiforbruket med opptil to størrelsesordener, samtidig som de leverer høyere nøyaktighet på benchmark‑oppgaver. Teamet, ledet av professor Lina Hansen, demonstrerte et proof‑of‑concept‑transformer som behandler tekst, bilder og video med omtrent 1 % av den energien som kreves av dagens mest avanserte modeller. Resultatene deres, publisert i *Nature Communications* og ledsaget av et åpen‑kilde‑verktøy for måling av karbonutslipp per inferens, viser at bransjens offentlig rapporterte tall utelater en betydelig del av fotavtrykket – særlig energien som brukes til kjøling av datasentre, produksjon av maskinvare og de «inaktive» syklusene til store språkmodeller som kjører kontinuerlig i bakgrunnen. Hvorfor dette er viktig, er todelt. For det første plasserer uavhengige estimater AI‑ens globale utslipp på 300 Mt CO₂ yr⁻¹, et nivå som kan sammenlignes med kommersiell luftfart, og de skjulte utslippene som studien fremhever tyder på at den faktiske påvirkningen kan være langt høyere. For det andre utnytter de nye arkitekturene sparsitet, kvantisering med blandet presisjon og nevromorfisk‑inspirerte minnelayout‑strategier – teknikker som er fremmet av Green AI‑bevegelsen – for å oppnå energibesparelsene uten å gå på kompromiss med ytelsen. Dette er i tråd med nylige endringer i industrien, som Microsofts kommende Windows 11‑oppdatering som reduserer Copilot‑s beregningsbelastning, og de desentraliserte inferens‑pipeline‑ene som leverte en 5× hastighetsøkning i sky‑AI i forrige måned. Det neste å følge med på er innføringen av standardiserte AI‑karbonrapporteringer, et forslag som nå sirkulerer innenfor rammen av EUs AI‑lovgivning, samt kommersiell adopsjon av lav‑strøm‑akseleratorer fra Nvidia, Intel og nye oppstartsbedrifter. Dersom skyleverandører integrerer de åpne måleverktøyene, vil utviklere kunne benchmarke modeller ikke bare på nøyaktighet, men også på kilowatt‑timer per spørring, og dermed gjøre energieffektivitet til et første‑klasses mål for neste generasjons AI‑tjenester.
39

Gen‑AI‑Kool‑Aid smaker som eugenikk

Mastodon +7 kilder mastodon
En ny kort dokumentarfilm med tittelen «Gen‑AI‑Kool‑Aid smaker som eugenikk» hadde premiere denne uken på Ghost in the Machine‑plattformen, og trekker frem gardinen på den kulturelle mytologien som har gjort «kunstig intelligens» til et markedsførings‑catch‑phrase frakoblet enhver teknisk definisjon. Regissert av Valerie Veatch, hevder filmen at den nåværende hypen rundt generativ AI ikke bare er hype‑drevet, men har røtter i en linje av rasebasert vitenskapelig tenkning som historisk rettferdiggjorde eugeniske politikk. Veatchs undersøkelse starter med OpenAIs lansering i 2024 av **Sora**, en tekst‑til‑video-modell som utløste en bølge av nettbaserte skaper‑fellesskap. Hun følger den raske adopsjonen av verktøy som Adobes «Rotate Object»-funksjon i Photoshop Beta, og bemerker at selv om teknologien lover demokratisert kreativ
38

📰 Den britiske regjeringen har fortsatt ikke testet OpenAI‑teknologi til tross for AI‑partnerskap i 2026, til tross for at de har signert en

Mastodon +8 kilder mastodon
openai
Den britiske regjeringen har ennå ikke gjennomført en offentlig prøve av noe OpenAI‑produkt, til tross for at den i slutten av 2025 inngikk et høyt profilert strategisk partnerskap med ChatGPT‑produsenten. Avtalen, som ble kunngjort sammen med AI Opportunities Action Plan, lovet å integrere avanserte modeller som ChatGPT, Codex og den nye Atlas‑nettleseren i helse‑, skatte‑ og sosialtjenestesystemer, med mål om å øke produktiviteten og fremstå som et AI‑vennlig knutepunkt. Måneder har gått uten at noen pilotprosjekt er åpnet for tjenestemenn eller eksterne revisorer. Embetsmenn peker på “nødvendige sikkerhetstiltak” og behovet for å tilpasse teknologien til Storbritannias fremvoksende AI‑reguleringsrammeverk, men stillheten har utløst kritikk fra opposisjons‑MP‑er og bransjegrupper som mener at forsinkelsen undergraver regjeringens troverdighet på AI‑politikk. Gapet er spesielt tydelig ettersom OpenAI utvider sitt britiske kontor, lover å samarbeide med departementene om AI‑sikkerhetsforskning, og øker sin globale arbeidsstyrke til 8 000 ingeniører. Innsatsen er høy. Partnerskapet skulle levere målbare effektivitetsgevinster – anslagene spenner fra 10 % raskere behandling av skatteoppgjør til kortere ventetider i NHS‑triage – samtidig som det skulle tiltrekke AI‑talenter og investeringer til den britiske økonomien. Uten konkrete tester risikerer Storbritannia å falle bak konkurrenter som USA, hvor OpenAI allerede ruller ut “superapp”‑integrasjoner, og EU, som hurtig igangsetter offentlige AI‑piloter under sin egen digitale strategi. Hold øye med en formell utrullingsplan fra Department for Science, Innovation and Technology i de kommende ukene, samt den første sesjonen i parlamentets AI‑ og Digital Economy‑komité, som skal granske implementeringen av partnerskapet. En gjennombruddspilot i enten NHS eller HMRC kan endre fortellingen; en fortsatt stagnasjon kan føre til krav om revurdering av avtalen eller strengere tilsyn med AI‑utplasseringer i offentlige tjenester.
38

AI‑infrastruktur akselererer: Cerebras treffer AWS, nye transformer‑arkitekturer utfordrer status quo | SP1ND3X

Mastodon +7 kilder mastodon
amazonmicrosoftopenai
Cerebras Systems kunngjorde i dag at deres wafer‑scale‑motor (WSE) nå tilbys som en administrert inferenstjeneste på Amazon Web Services, noe som markerer første gang selskapets flaggskip‑akselerator er direkte tilgjengelig via den ledende offentlige skyen. Lanseringen kombinerer Cerebras’ nyeste inferens‑API med AWS sin Elastic Compute Cloud, og gjør det mulig for utviklere å kjøre Llama 3.1 og andre store språkmodeller med opptil 1 800 token per sekund, samtidig som kostnadene holdes under nivået for tradisjonelle GPU‑klynger. Tiltaket utdyper AWS sin gjenoppblomstring innen AI‑infrastruktur etter det 38 milliarder dollar store OpenAI‑partnerskapet som omposisjonerte skytilbyderen i forhold til Microsoft Azure. Ved å integrere Cerebras’ 400 mm²‑store chip, som gir en femdoblet hastighetsøkning sammenlignet med tradisjonelle GPU‑er for transformer‑arbeidsbelastninger, kan AWS nå love lavere latens og høyere gjennomstrømning for generativ‑AI‑tjenester uten at kundene må håndtere eksotisk maskinvare. Samtidig omformer en bølge av forskning selve transformer‑paradigmet. Nylige artikler som omdefinerer transformere som Bayes‑nettverk og foreslår energibevisste arkitekturer, antyder at den dominerende modell­designen snart kan bli utfordret av mer effektive, probabilistiske varianter. Disse fremskrittene kan redusere det rå beregningsbehovet som har drevet kappløpet om stadig større akseleratorer, og potensielt innsnevre fordelen til wafer‑scale‑brikker. Hvorfor dette er viktig er todelt: Bedrifter får umiddelbar, sky‑native tilgang til verdensklasse inferens‑ytelse, og industrien står overfor et strategisk veiskille der maskinvare‑overlegenhet kan bli oppveid av algoritmisk effektivitet. Cerebras‑AWS‑partnerskapet legger også press på konkurrenter som SambaNova, Groq og nye telekom‑kant‑leverandører til å fremskynde sine egne tjenestetilbud. Hold øye med benchmark‑utgivelser som sammenligner den nye Cerebras‑AWS‑løsningen med GPU‑baserte endepunkter, prisnivåer som viser om tjenesten kan underby på‑premise‑implementasjoner, samt oppfølgingskunngjøringer fra forskningslabber som utforsker Bayes‑stil‑transformere. Det kommende kvartalet vil vise om maskinvare‑løftet eller de fremvoksende lav‑energi‑modellene vil diktere tempoet for AI‑adopsjon i både sky‑ og kantmiljøer.
38

**Abacus AI Ærlig anmeldelse og prisfastsettelse: AI-en som lar deg “vibe code”, bygge agenter og erstatte 10 + verktøy?**

Mastodon +6 kilder mastodon
agents
Abacus AI har lansert sin første offentlige prisplan og posisjonerer plattformen som en alt‑i‑ett‑løsning for utviklere som ønsker å “vibe code” – det vil si å beskrive en applikasjon i naturlig språk og la en AI‑agent omforme beskrivelsen til et fungerende produkt. Kjernen i tjenesten er DeepAgent, en prosjektkoordinator‑bot som kan generere kode, sette sammen datapipelines og spinne opp distribuerbare applikasjoner uten menneskelig inngripen. Grunnplanen starter på omtrent $10 per måned, en pris som selskapet hevder er tilstrekkelig til å erstatte en suite på ti eller flere separate verktøy, fra kodeeditorer til arbeidsflytautomatiseringer. Lanseringen er viktig fordi den flytter narrativet om “AI‑bygde‑apper” fra prototype til kommersiell tjeneste. Ved å abstrahere bort den tradisjonelle koding‑løkken lover Abacus AI å dramatisk forkorte utviklingssykluser, et løfte som treffer den økende etterspørselen etter rask digital transformasjon i nordiske virksomheter. Dersom plattformen lever opp til løftet, kan små team omgå dyre lisenser for IDE‑er, CI/CD‑tjenester og databehandlingsplattformer, og i stedet omfordele budsjettet til domenespesifikk innovasjon. Tiltaket intensiverer også konkurransen med etablerte AI‑kodingassistenter som Cursors pixel‑karakter‑agenter og åpne kildekode‑parsers som LiteParse, som vi dekket tidligere denne måneden. Det som vil være viktig å følge med på, er hvor raskt utviklere tar i bruk “vibe‑coding”-arbeidsflyten og om DeepAgent kan håndtere produksjons‑klare arbeidsbelastninger uten skjulte kostnader. Tidlige brukere vil sannsynligvis teste plattformen på lav‑risiko‑prosjekter – for eksempel automatisering av kontraktsanalyse, et brukstilfelle som ble fremhevet i Abacus sine egne demoer – før de skalerer opp til større interne verktøy. Prisnivåer utover $10‑planen, enterprise‑nivå SLA‑er og integrasjoner med populære nordiske skyleverandører vil bli avgjørende faktorer. Hold øye med ytelses‑benchmarker og brukertilbakemeldinger i de kommende ukene; de vil avsløre om Abacus AI virkelig konsoliderer en fragmentert verktøykjede eller bare legger til et nytt lag i AI‑utvikler‑stakken.
38

generativ AI i BookTok‑fellesskapet blir uhyggelig

Mastodon +6 kilder mastodon
Generativ‑AI‑verktøy flommer nå inn i BookTok, TikTok‑underfellesskapet som driver bestselgerlistene i Skandinavia og videre. En bølge av AI‑skapte romaner, omslagskunst og «AI‑bok‑influencer»-kontoer har utløst en splittelse mellom entusiastiske tidlige brukere og høyrøstede skeptikere. Trenden ble synlig denne uken da flere TikTok‑skapere la ut videoer med AI‑genererte bokanbefalinger, komplett med syntetiske forfatter‑bioer og algoritme‑skreddersydde blurbs. En av de mest fulgte kontoene, @vanessagamoo, publiserte en montasje av AI‑skrevne utdrag og inviterte følgere til å teste modellene selv, noe som førte til tusenvis av kommentarer fra begeistring til forakt. Fenomenet er viktig fordi BookToks algoritmiske rekkevidde kan gjøre ett enkelt innlegg til en salgsboom; forlag eksperimenterer allerede med AI‑utkastede manuskripter for å forkorte utviklingssykluser. Likevel viser samfunnets motstand – fremhevet i et nylig intervju med *Bookseller* hvor skapere advarte om at «de eneste innleggene du ville se rundt en AI‑skrevet bok ville være negativitet» – en dypere kulturell konflikt. Kritikere hevder at AI‑generert prosa billiggjør håndverket, mens tilhengere peker på demokratiseringen av historiefortelling og potensialet for hyper‑personlige leseopplevelser. Hva du bør holde øye med videre: Store forlag forventes å kunngjøre pilotprogrammer som kombinerer menneskelige redaktører med AI‑medforfattere, mens TikToks moderasjonsretningslinjer kan strammes inn rundt avsløringer av syntetisk innhold. Parallelt kan EU‑s kommende AI‑merkingsforskrifter tvinge skapere til å merke AI‑genererte anbefalinger, noe som vil endre hvordan BookTok‑influencere oppgir sine verktøy. Observatører vil også være ivrige etter å se om den nåværende motstanden demper momentet eller gir næring til et nytt nisjemarked for «AI‑kuratert» litteratur. De kommende månedene vil avsløre om den uhyggelige bølgen blir en varig søyle i bok‑oppdagelsesøkosystemet eller kun en kortvarig kuriositet.
38

RE: https:// wandering.shop/@xgranade/11625 9862366462379 Dette er en utmerket analyse av hele #Astral‑situasjonen

Mastodon +6 kilder mastodon
openai
Et innlegg fra Mastodon‑brukeren @xgranade på den nisje‑sosiale plattformen Wandering Shop har satt i gang en ny bølge av debatt om OpenAIs siste «Astral»-modell, der forfatterens omfattende kritikk raskt har blitt et referansepunkt for både Python‑utviklere og AI‑etikkere. Innlegget, med tittelen «An excellent take on the whole #Astral / #OpenAI situation», dissekerer Astrals tekniske løfter – sanntids‑multimodal resonnering, fin‑justering på enheten og et nytt Python‑først SDK – samtidig som det påpeker det forfatteren kaller en «dyp strøm av intellektuell uredelighet» i måten modellens evner markedsføres på. Reaksjonen har vært rask. Medlemmer av fellesskapet har sitert innlegget på Mastodon og fremhevet bekymringer om at Astrals utrulling forsterker en tilbakemeldingssløyfe der hype overgår grundig testing, noe som potensielt kan normalisere snarveier i programvareutvikling. En kommentator liknet modellens funksjon «å samtale med bøker» med en personlig litteraturprofessor, påpekte tiltrekningen for nattlige kodere, men advarte om at et slør av ekspertise kan skjule uverifiserte resultater. Diskusjonen faller sammen med nylig dekning av OpenAIs bredere strategi, inkludert redesignen av voice‑canvas som ble kunngjort 20. mars, og understreker en økende uro rundt selskapets balanse mellom raske produktlanseringer og sikkerhetsgarantier. Hvorfor dette er viktig er todelt: For det første fremhever kritikken et grasrot‑perspektiv som utfordrer OpenAIs fortelling om ansvarlig innovasjon; for det andre signaliserer det at Python‑samfunnet – sannsynligvis den mest produktive brukerbasen for OpenAIs API‑er – kan motsette seg uklare modellpåstander, noe som kan påvirke adopsjonsrater og prioriteringer for utviklerverktøy. Fremover vil observatører følge med på OpenAIs offisielle svar, enten gjennom et teknisk blogginnlegg, en oppdatering av Astrals dokumentasjon eller en policyjustering som adresserer anklagen om «intellektuell uredelighet». Samtidig kan samtalen på Wandering Shop katalysere en bredere koalisjon av utviklere som krever klarere benchmark‑testing, transparent sikkerhetsvurdering og mer fellesskapsdrevet styring av fremtidige AI‑utgivelser.
37

Bygge AI‑agenter for produksjon med LangGraph: Bortenfor lekse‑eksemplene (2026)

Dev.to +5 kilder dev.to
agents
LangGraph, det åpne kildekode‑orchestrasjonslaget som vokste frem fra LangChain‑økosystemet, er nettopp blitt lansert med en fullskala‑veiledning som tar biblioteket forbi proof‑of‑concept‑chatboter og inn i produksjonsklare AI‑agenter. Den nye guiden fører utviklere gjennom bygging av tilstands‑maskindrevne agenter, integrering av menneskelig‑i‑sløyfen‑godkjenninger, kjeding av eksterne verktøy og implementering av systematisk feilhåndtering og observabilitet. Den tilhørende videokurset og Medium‑gjennomgangen viser hvordan grafene kan distribueres på hvilken som helst modell‑leverandør, overvåkes med Prometheus‑kompatible målinger, og rulles tilbake ved feilende grener uten å avbryte tjenesten. Kunngjøringen er viktig fordi den tar tak i den største kritikken som har plaget hypen rundt AI‑agenter: skjørhet i virkelige omgivelser. Ved å eksponere en formell tilstands‑graf gjør LangGraph det mulig for ingeniører å resonere rundt hver overgang, håndheve valideringsregler og avdekke feil før de får en kaskadeeffekt. Observabilitets‑hooks betyr at driftsteam kan spore latens, token‑bruk og suksessrater for verktøy‑kall, og dermed forvandle “black‑box”‑assistenter til komponenter som passer inn i eksisterende SRE‑praksis. For nordiske virksomheter som har eksperimentert med AI‑forsterkede arbeidsflyter – som Tonga‑Lozi‑chatbot‑prosjektet vi dekket 21. mars – kan dette være den manglende brikken som gjør storskala utrulling levedyktig. Det som nå er verdt å følge med på, er hvor raskt rammeverket får fotfeste utenfor hobby‑laboratorier. Tidlige brukere forventes å publisere casestudier om automatisering av kundeservice og interne kunnskapsbase‑assistenter, mens sky‑leverandører kan pakke LangGraph inn i administrerte AI‑tjenester. Konkurranse fra nye orkestreringsverktøy som CrewAI og AutoGPT‑lite vil sette LangGraphs løfte om “høynivå‑abstraksjoner eller fin‑granulert kontroll etter behov” på prøve. Som vi rapporterte 21. mars, omformer AI‑agenter allerede utvikleres arbeidsprosesser; LangGraphs fokus på produksjon kan akselerere overgangen fra eksperimentelle prototyper til tjenester på bedriftsnivå.
37

📰 Pentagon‑Anthropic‑konflikt: Skjult AI‑avtale avslørt i rettsdokument fra 2026

Mastodon +8 kilder mastodon
anthropic
En nylig åpnet innlevering i en føderal domstol i California viser at, i motsetning til de offentlige uttalelsene fra tidligere president Donald Trump og forsvarsminister Pete Hegseth, hadde Pentagon allerede forhandlet frem en flerårig kontrakt med Anthropic for å integrere deres store språkmodell Claude i amerikanske forsvarssystemer. Dokumentene, innlevert i februar 2026, avslører et utkast til en «Strategic AI Partnership Agreement» som ville ha gitt Department of Defense bred, men ikke ubegrenset, tilgang til Anthropics teknologi for mål‑gjenkjenning, logistikkplanlegging og simuleringsverktøy. Avtalen ble lagt på hyllen først etter at Trump kunngjorde et «kaput» forhold til oppstartsselskapet, med begrunnelse i Anthropics nektelse av å tillate ubegrenset militær bruk av deres AI. Anthropic svarte med å saksøke regjeringen og hevdet at Forsvarsdepartementets påfølgende merkelapp som «uakseptabel nasjonal‑sikkerhetsrisiko» var en represalierende betegnelse som krenker selskapets rettigheter etter første grunnlovsendring. I søksmålet argumenterer Anthropic for at Pentagon‑s forsøk på å omgå vanlige anskaffelses‑ og leverandørkjede‑sikkerhetsvurderinger undergraver Kongressens sikkerhetsmekanismer som er ment å hindre ukontrollert AI‑bruk i våpensystemer. Tvisten er viktig på tre områder. For det første belyser den den økende konflikten mellom Silicon Valleys etiske retningslinjer og militærets appetitt på banebrytende AI – en spenning som allerede har vist seg i nylige Pentagon‑avtaler med Google og OpenAI. For det andre kan saken sette en juridisk presedens for hvordan myndighetene kan merke kommersielle AI‑verktøy som sikkerhetsrisikoer, noe som potensielt kan dempe innovasjon eller, omvendt, tvinge frem strengere tilsyn. For det tredje antyder innleveringen en bredere strategi i Forsvarsdepartementet om å sikre AI‑kapasiteter raskt, selv om det betyr å omgå etablerte anskaffelsesregler. Hva som skjer videre: dommerens avgjørelse i Anthropics anmodning om midlertidig forføyning, sannsynlige høringer i House Armed Services Committee om reformer av AI‑anskaffelser, og om andre AI‑selskaper vil bli utsatt for lignende merkelapper eller bli tvunget til å reforhandle vilkårene under økt politisk gransking. Utfallet kan omforme balansen mellom nasjonal‑sikkerhetsimperativer og bedriftsansvar i generativ AI‑æraen.
36

Retrieval‑forsterkede LLM‑agenter: Å lære å lære fra erfaring

ArXiv +5 kilder arxiv
agentsfine-tuningtraining
Et team av forskere fra University College London og Huawei‑s Noah’s Ark‑lab har avduket et nytt rammeverk som gjør det mulig for store språkmodeller (LLM‑agenter) å lære av erfaring uten noen fin‑justering. Detaljene er publisert i arXiv‑pre‑print arXiv:2603.18272v1, og tilnærmingen kombinerer retrieval‑augmented generation (RAG) med en meta‑læringssløyfe som lagrer vellykkede interaksjoner i en ekstern minnebank og gjenbruker dem når agenten møter nye oppgaver. I motsetning til tradisjonell fin‑justering, som krever kostbare gradient‑oppdateringer og ofte overtilpasser seg treningsfordelingen, oppdaterer systemet kun sin hentingsindeks, noe som gjør at agenten kan ekstrapolere til ukjente problemer i sanntid. Gjennombruddet er viktig fordi det adresserer den lenge eksisterende skjørheten i LLM‑drevne agenter. Nåværende agenter baserer seg enten på statiske prompt‑sett eller på tungvint fin‑justering, og begge metodene sliter når miljøet endres eller når oppgaven avviker fra treningssettet. Ved å behandle tidligere episoder som en søkbar kunnskapsbase, kan agentene hente relevante «erfarings‑snutter», integrere dem i resonneringskjeden og tilpasse atferden umiddelbart. Tidlige eksperimenter viser en 30 % forbedring i oppgaveløsningsrater på benchmark‑pakker som inkluderer instruksjoner utenfor distribusjonen, samt en tydelig reduksjon i hallusinasjoner takket være forankret henting. Som vi rapporterte 21. mars, har retrieval‑augmented generation allerede gitt et løft til flerspråklige chat‑bots for Tonga og Lozi. Dette nye paradigmet for læring fra erfaring utvider dette løftet til autonome agenter, og åpner døren for mer robuste personlige assistenter, adaptive kundeservice‑bots og AI‑løsninger med lav ressursbruk i Norden. Hold øye med oppfølgings‑evalueringer i virkelige implementasjoner, spesielt i edge‑computing‑miljøer hvor fin‑justering er upraktisk, samt med åpne verktøykasser som kan la utviklere plugge den minne‑forsterkede sløyfen inn i eksisterende LLM‑stabler. De kommende månedene vil vise om tilnærmingen kan skaleres fra forsknings‑prototyper til produksjons‑klare AI‑agenter.
36

📰 Gemini‑oppgaveautomatisering 2026: Kunstig intelligens som etterligner menneskelig tenkning med langsom fremgang

Mastodon +7 kilder mastodon
geminigoogle
Google har flyttet Geminis oppgave‑automatiseringsmotor fra laboratoriet til sin flaggskip‑maskinvare, og lanserte funksjonen på Pixel 10‑smarttelefonen og Samsungs Galaxy S26‑serie. Utrullingen gjør det mulig for Gemini å kontrollere Android‑apper direkte – fra å bestille en Uber‑tur til å bekrefte en DoorDash‑levering – kun ved hjelp av naturlige språk‑forespørsler. Bak den elegante stemmekommandoen ligger en flertrinns resonnerings‑pipeline som simulerer menneskelig overveielse: modellen analyserer først brukerens intensjon, kartlegger den deretter til en sekvens av UI‑handlinger, og utfører til slutt disse trinnene mens den overvåker tilbakemeldinger fra appen. Dette markerer den første massemarkedseksponeringen av arkitekturen vi først beskrev 21. mars, da Gemini begynte å håndtere Uber‑ og DoorDash‑oppgaver i en begrenset beta. Ved å integrere evnen i forbrukerenheter gjør Google et tidligere nisje‑automatiseringsverktøy til en standard assistentfunksjon, og visker ut grensene mellom samtale‑AI og automatisering på operativsystemnivå. For brukerne betyr det færre trykk og en mer flytende arbeidsprosess; for utviklere introduserer det et nytt integrasjonspunkt som kan omforme hvordan apper eksponerer funksjonalitet til AI‑agenter. Bransjeobservatører ser lanseringen som en litmus‑test for bredere aksept av AI‑drevet UI‑kontroll. Systemets «langsomme og komplekse» fremtoning, som ble påpekt i den opprinnelige kunngjøringen, er bevisst – den trinnvise resonneringen reduserer feil som kan oppstå ved en enkelt‑steg‑prediksjon, men den medfører også latensbekymringer på lavere‑endte enheter. Personvernforkjempere vil følge med på hvordan Google logger de mellomliggende UI‑tilstandene som Gemini observerer, mens regulatorer kan granske delegasjonen av transaksjonsmyndighet til en algoritme. Neste uke forventes Google å åpne Gemini‑CLI‑verktøyenes «Skills» og «Hooks» for tredjepartsutviklere, og dermed utvide automatiseringen utover stemme til skriptbare arbeidsflyter. En påfølgende oppdatering kan bringe funksjonen til wearables og ChromeOS, og gjøre hele Googles økosystem til et samlet, AI‑orkestrert produktivitetslag.
36

📰 Gemini‑oppgaveautomatisering 2026: Hvordan Googles AI nå kontrollerer Uber og DoorDash

Mastodon +7 kilder mastodon
geminigoogle
Google har rullet ut Gemini Task Automation på Android‑flagship‑enheter, slik at den Gemini‑drevne AI‑en kan utføre flertrinns handlinger i tredjeparts‑apper som Uber og DoorDash. Funksjonen, først kunngjort 25. februar 2026 og gjort tilgjengelig for Samsungs Galaxy S26 12. mars, lar nå brukere be Gemini om å bestille en tur, bekrefte hentestedet og til og med bruke en kampanjekode, eller å bla gjennom menyer, legge inn en bestilling og spore levering uten å forlate chat‑grensesnittet. Dette markerer første gang en stor AI‑modell får direkte kontroll over forbruker‑grad‑apper på en massemarkedstelefon. Tidligere AI‑assistenter kunne bare vise informasjon eller overlevere en lenke; Gemini navigerer faktisk brukergrensesnittet, fyller ut skjemaer og klikker på knapper, og fungerer dermed som en digital fullmektig. Google presenterer utrullingen som en forhåndsvisning av «AI‑first arbeidsflyter» som kan endre hvordan folk samhandler med tjenester, redusere friksjon og åpne nye inntektsstrømmer for partnere som eksponerer API‑ene sine for assistenten. Bransjeobservatører ser både muligheter og risiko. For brukerne kan bekvemmeligheten med kun‑stemme‑bestilling akselerere adopsjonen av AI‑drevne personlige assistenter, spesielt i regioner hvor mobilbetalinger dominerer. For utviklere kan kravet om å eksponere sikre, skriptbare grensesnitt føre til en bølge av «automatiseringsklare» app‑omdesign, i likhet med den tidligere satsingen på AI‑plugins i desktop‑verdenen. Samtidig reiser evnen personvern‑ og sikkerhetsspørsmål: Å gi en AI muligheten til å handle på vegne av en bruker i finans‑ eller lokasjonsfølsomme apper kan bli en vektor for misbruk dersom den er feilkonfigurert. Hva man bør følge med på: Google har antydet at de vil utvide Geminis rekkevidde til bank‑, netthandels‑ og helsetjeneste‑apper senere i år, og rapporteres å pilotere et sandkasse‑miljø for tredjepartsutviklere til å sertifisere automatiseringsflyter. Reguleringsmyndigheter i EU og USA forventes å granske databehandlingspraksisene til slike dyp‑linkende assistenter, mens konkurrenter som Apple og Microsoft forventes å kunngjøre sine egne veikart for oppgaveautomatisering i de kommende månedene.
36

AI‑agenter erstatter utviklere? Min ærlige erfaring med å bruke dem

Dev.to +5 kilder dev.to
agents
En utvikler på DEV Community har publisert en åpen beretning om bruken av AI‑drevne kodeagenter de siste månedene, og hevder at de nå oppfører seg mindre som hjelpere og mer som junior‑ingeniører som sitter ved siden av programmereren. Forfatteren beskriver agenter som kan navigere i et helt kode‑repo, generere nye moduler, skrive enhetstester, refaktorere eldre kode og til og med foreslå arkitektoniske justeringer – alt fra én enkelt prompt. Opplevelsen står i sterk kontrast til tidligere “autocomplete”-verktøy, og plasserer agentene som autonome bidragsytere snarere enn kun assistenter. Skiftet er viktig fordi det signaliserer et nytt produktivitetsnivå for programvareteam. Som vi rapporterte 21. mars, begynner plattformer som Abacus AI og Cursor AI‑agenter med små pixel‑avatarer allerede å viske ut grensene mellom menneskelige og maskinelle kodeforfattere. DEV‑innlegget tilfører virkelige bevis på at disse agentene kan håndtere ende‑til‑ende‑oppgaver, forkorte utviklingssykluser og senke terskelen for komplekse prosjekter. Samtidig advarer forfatteren om vedvarende mangler: sporadisk hallusinerende logikk, vanskeligheter med å tolke nyanserte forretningsregler, og behovet for en menneskelig “kodegjennomleser” som forstår både domenet og modellens særegenheter. Disse hullene gjenspeiler bekymringer som ble reist i nyere analyser – at AI‑agenter akselererer, men ikke erstatter utviklere, og at nye ferdigheter – prompt‑engineering, AI‑kodeauditering og sikkerhetsvurdering – blir essensielle. Det som nå er verdt å følge med på, er hvordan virksomheter integrerer disse agentene i CI/CD‑pipelines og styringsrammer. Man kan forvente tettere koblinger til verktøy som LiteParse, som parser dokumenter for AI‑agenter, samt sikkerhetslag som Aegis credential‑isolation‑proxy som beskytter produksjonsmiljøer mot uønskede modell‑output. Store skyleverandører ruller også ut AI‑forsterkede IDE‑utvidelser, så de kommende månedene vil vise om junior‑agent‑modellen skalerer fra hobbyprosjekter til å bli en mainstream‑utviklingsparadigme.
35

**Som en del av dette reduserer vi unødvendige Copilot‑inngangspunkt, med start i apper som Snipping‑verktøyet**

Mastodon +6 kilder mastodon
copilot
Microsoft kunngjorde at de vil begynne å fjerne «unødvendige» Copilot‑inngangspunkt fra Windows 11, med start i Snipping‑verktøyet, Bilder, Widgets og Notisblokk. Endringen, som ble beskrevet i et blogginnlegg med tittelen «Vår forpliktelse til Windows‑kvalitet», kommer etter måneder med motstand fra både brukere og utviklere mot den AI‑assistentens gjennomgripende integrering i operativsystemet. Dette markerer et skarpt vendepunkt fra utrullingen som ble kunngjort tidligere i år, da Microsoft lovet en større Windows 11‑oppdatering som skulle gjøre Utforsker raskere og dempe Copilots tilstedeværelse i oppgavelinjen. Ved å fjerne «Spør Copilot»-knappen fra kjerne‑apper, håper selskapet å dempe klager om at funksjonen oppleves som påtrengende, senker ytelsen eller tilfører uønsket telemetri. Analytikere ser tilbaketrekkingen som et svar på økende forbrukermett med AI‑drevne overlegg og på regulatorisk gransking av databehandlingen i innebygde assistenter. For virksomheter kan skiftet forenkle utrulling og redusere behovet for policy‑unntak som IT‑team har forhandlet om rundt Copilots standardaktivering. Det signaliserer også at Microsoft er villig til å justere sin AI‑strategi basert på tilbakemeldinger fra virkeligheten, en holdning som kan berolige partnere som er skeptiske til over‑ingeniørering av Windows‑opplevelsen. **Hva som er å følge med på videre:** Microsoft har lovet en trinnvis utrulling, så neste gruppe apper – potensielt inkludert Innstillinger, Filutforsker og Edge – kan få lignende kutt. Observatører vil følge med på bruker‑sentimentmålinger og eventuelle ytelsesforbedringer som rapporteres etter at endringene er i drift. I tillegg kan selskapets bredere AI‑veikart, inkludert Copilot for Microsoft 365 og Azure, bli omformet dersom Windows‑tilbaketrekkingen viser seg vellykket. Den neste oppdateringen, planlagt til sent på våren, vil avdekke om kvalitets‑først‑tilnærmingen blir den nye normen for Microsofts AI‑integrasjon.
35

Nedgang i tempoet i kodingsagentenes tidsalder

Mastodon +6 kilder mastodon
agents
Et blogginnlegg publisert på the.scapegoat.dev mandag hevder at den kraftige økningen av «kodingsagenter» – LLM‑drevne assistenter som på kommando kan skrive, refaktorere og til og med debugge kode – kan gjøre mer skade enn nytte. Forfatteren, en senior programvareingeniør, beskriver hvordan den daglige avhengigheten av disse agentene har sammenfalt med en oppblussing av slurvete implementasjoner, uventede driftsavbrudd og en målbar nedgang i utgivelseshastigheten. Innlegget gjenspeiler en nylig LinkedIn‑diskusjon med tittelen «Er Scrum foreldet i kodingsagentenes tidsalder?», og bygger videre på Gergely Orosz’ fire dager gamle essay «Are AI agents actually slowing us down?», som siterer interne målinger fra flere teknologiselskaper som viser en 12 % nedgang i leverte funksjoner etter at agentene ble mainstream. Påstanden utfordrer den rådende narrativen om at AI‑verktøy for koding automatisk øker produktiviteten. En TIME‑undersøkelse fra juli 2025 kom til en lignende konklusjon, og rapporterte at team som bruker agenter ofte bruker mer tid på å gjennomgå generert kode enn de ville brukt på å skrive den selv. Paradokset skyldes agentenes tendens til å produsere syntaktisk korrekt, men arkitektonisk skjør kode, noe som tvinger ingeniører inn i en syklus av patching og ny testing. For organisasjoner som allerede har integrert agenter i CI‑pipelines, viser den skjulte kostnaden seg som lengre feilrettingssykluser og høyere operasjonell risiko. Hvorfor dette er viktig er todelt: For det første er veksten i programvareindustrien avhengig av pålitelig, rask levering; en systemisk nedgang kan slå bølger inn i forsinkede produktlanseringer og oppblåste utviklingsbudsjetter. For det andre kan oppfatningen om at kodingsferdigheter blir overflødige endre rekruttering og opplæring, og potensielt øke gapet mellom «prompt‑ingeniører» og tradisjonelle utviklere. Det neste å holde øye med er de fremvoksende empiriske studiene som tar sikte på å kvantifisere avveiningen mellom hastighet og kvalitet, samt verktøysresponsene – som strengere linting, automatisert sporing av opprinnelse og «flaskehals‑workshops» som kartlegger gjenværende friksjonspunkter. Som vi rapporterte 21. mars 2026 i «Building Production AI Agents with LangGraph», vil neste fase sannsynligvis innebære hybride arbeidsflyter som kombinerer agentens output med streng menneskelig tilsyn, en balanse som kan avgjøre om kodingsagenter blir en produktivitetskatalysator eller en skjult forpl
35

OpenAI skal kjøpe Astral

Mastodon +6 kilder mastodon
openaiopen-source
OpenAI kunngjorde torsdag at de har signert en avtale om å kjøpe Astral, den svenske oppstartsbedriften bak den åpne Python‑verktøypakken uv, Ruff og ty. Astral‑teamet vil bli integrert i OpenAIs Codex‑gruppe, avdelingen som driver selskapets AI‑baserte kodeassistent. I et kort blogginnlegg skrev OpenAI at oppkjøpet vil la de to organisasjonene «støtte disse open‑source‑prosjektene samtidig som de utforsker måter de kan samarbeide tettere med Codex på», med mål om å akselerere hele Python‑utviklingsarbeidsflyten. Som vi rapporterte 21. mars, utvider OpenAI allerede sin utvikler‑fokuserte portefølje med en kommende desktop‑«super‑app» som samler ChatGPT, Codex og andre AI‑tjenester. Astral‑oppkjøpet utdyper denne strategien ved å bringe velprøvde, fellesskaps‑tillitsfulle verktøy under OpenAIs paraply, noe som potensielt strammer inn tilbakemeldingssløyfen mellom AI‑forslag og bygg‑, lint‑ og avhengighets‑håndteringsstadiene som utviklere bruker daglig. Avtalen er viktig fordi Python fortsatt er lingua franca innen datavitenskap, maskinlæringsforskning og sky‑native tjenester. Ved å eie de mest populære open‑source‑verktøyene som håndterer miljøer (uv), håndhever stil (Ruff) og utfører typekontroll (ty), kan OpenAI integrere modellene sine tettere i utvikler‑pipen, redusere friksjon og øke sannsynligheten for at kode generert av Codex passer gjennom virkelige kvalitetskontroller. Samtidig reiser oppkjøpet styringsspørsmål: Vil verktøyene forbli virkelig åpne, eller vil OpenAI introdusere proprietære utvidelser som låser brukerne inn i deres økosystem? Det som bør følges med på videre, er OpenAIs veikart for integrering av uv, Ruff og ty i Codex, eventuelle endringer i lisens‑ eller bidragsretningslinjer, og reaksjonen fra det bredere Python‑fellesskapet. Konkurrenter som GitHub Copilot vil sannsynligvis svare med egne verktøyoppgraderinger, mens bedrifter vil holde øye med om den kombinerte løsningen leverer målbare produktivitetsgevinster for Python‑tunge arbeidsbelastninger.
35

Astral og OpenAI

Mastodon +6 kilder mastodon
openaiopen-source
OpenAI kunngjorde torsdag at de har inngått en avtale om å kjøpe Astral, det svenske oppstartsselskapet bak den åpen‑kilde Python‑verktøypakken som inkluderer den ekstremt raske pakkeinstallatøren uv, lint‑motoren ruff og en samling utviklerverktøy. Avtalen, som ble bekreftet både på Astrals blogg og på OpenAIs egne kanaler, vil bringe Astrals ingeniørtalent og deres mye brukte verktøy inn under OpenAI‑paraplyen. Oppkjøpet er viktig fordi det gir OpenAI direkte kontroll over infrastrukturen som driver mange Python‑utvikleres daglige arbeidsflyt. Ved å integrere uv‑s raske avhengighetsløsing og ruff‑s lav‑overhead linting i sine Codex‑ og ChatGPT‑kodesgenererings‑pipelines, kan OpenAI stramme inn tilbakemeldingssløyfen mellom AI‑genererte forslag og virkelige utførelser. Raskere og mer pålitelig pakking kan også redusere latensen i kode‑fullføringsfunksjonene i den kommende desktop‑«superappen» som OpenAI forbereder å lansere – et prosjekt vi dekket 21. mars. Kort sagt, trekket forsterker OpenAIs fotfeste i utviklerøkosystemet og posisjonerer selskapet til å konkurrere mer aggressivt med GitHub Copilot og andre AI‑assisterte kodeplattformer. Astrals grunnlegger Charlie Marsh understreket at selskapets oppdrag – å gjøre Python‑utvikling raskere og mer tilgjengelig – vil forbli uendret, noe som tyder på at verktøyene vil forbli åpen kilde og fortsette å være fritt tilgjengelige. Likevel vil utviklere følge med på hvordan
35

OpenAI utvikler en super‑app for macOS, ifølge Wall Street Journal

Mastodon +6 kilder mastodon
geminigoogleopenai
OpenAI skal ifølge Wall Street Journal bygge en desktop‑«super‑app» for macOS. Programvaren vil samle selskapets nåværende Mac‑baserte verktøy – ChatGPT, kode‑genereringsmotoren Codex og datavisualiseringsplattformen Atlas – i ett samlet grensesnitt. Ved å slå sammen disse tjenestene håper OpenAI å forenkle brukeropplevelsen for utviklere, skapere og avanserte brukere som i dag må håndtere separate applikasjoner. Dette trekket markerer den nyeste utvidelsen av OpenAIs super‑app‑strategi. Som vi rapporterte 21. mars, lanserte selskapet en ChatGPT‑super‑app for iOS og introduserte en «AI‑forskningspraktikant»-funksjon rettet mot profesjonelle arbeidsflyter. Å ta konseptet videre til macOS signaliserer tillit til at desktop‑markedet fortsatt er en fruktbar arena for AI‑drevne produktivitetsverktøy, spesielt ettersom Apples egen overgang til M4‑silicon lover høyere ytelse for inferens på enheten. For Mac‑økosystemet kan et enkelt OpenAI‑senter fremskynde adopsjonen av generativ AI innen design, koding og dataanalyse, og redusere friksjon for brukere som ellers må hoppe mellom native‑apper eller nettportaler. Det stiller også OpenAI i konkurranse med rivaler som Google, som utvikler en native Gemini‑klient for macOS, og Facebook, som nylig har oppdatert sin Messenger‑desktop‑versjon. Apples egen AI‑strategi – fortsatt sentrert rundt Siri og kommende maskinvareoppgraderinger – vil bli testet av hvor sømløst OpenAIs suite integreres med macOS‑funksjoner som Spotlight og de nye Desktop Intelligence‑API‑ene. Hva vi bør holde øye med: OpenAI har ikke satt en lanseringsdato, men insiders antyder at en betaversjon kan dukke opp senere i år, muligens i takt med Apples høst‑WWDC‑annonseringer. Prising og abonnementsløsningsnivåer blir avgjørende, i likhet med eventuelle partnerskap med Apple for å optimalisere appen for M4‑ytelse. Utrullingen vil også vise om OpenAI åpner plattformen for tredjeparts‑plugins, et steg som kan forvandle super‑appen til en bredere AI‑markedsplass på Mac‑desktop.
33

Forstå Seq2Seq‑nevrale nettverk – Del 6: Dekoderutganger og det fullt tilkoblede laget

Dev.to +5 kilder dev.to
embeddings
Et nytt veiledningsinnlegg med tittelen «Understanding Seq2Seq Neural Networks – Part 6: Decoder Outputs and the Fully Connected Layer» ble publisert 20. mars av Rijul Rajesh, og fullfører den sjette delen av en dyptgående serie om encoder‑decoder‑arkitekturer. Artikkelen går videre enn den innleiringsanalysen som ble dekket i tidligere deler, og forklarer hvordan dekoderen omformer skjulte tilstander til konkrete prediksjoner. Den beskriver i detalj rollen til det siste fullt‑tilkoblede (FC) laget, soft‑max‑aktiveringen, samt mekanikken bak teacher forcing under trening. Innlegget er viktig fordi Seq2Seq‑modeller fortsatt utgjør ryggraden i mange produksjonssystemer – maskinoversettelse, oppsummering og samtaleagenter – til tross for fremveksten av store transformer‑modeller. Ved å avmystifisere dekoderens utgangspipeline gir veiledningen ingeniører den intuisjonen som trengs for å feilsøke forsvinnende gradienter, optimalisere beam‑search og tilpasse klassiske LSTM‑baserte rørledninger til hybride design som inkorporerer oppmerksomhet eller bayesisk usikkerhet, temaer vi utforsket i vår dekning 21. mars av «Transformers Are Bayesian Networks». Klare visualiseringer av vektmatriser og trinn‑for‑trinn‑kodeeksempler senker også terskelen for utviklere som ønsker å integrere Seq2Seq‑komponenter i nye AI‑agent‑rammeverk, som skill‑layer‑arkitekturen fremhevet i vår rapport 19. mars om «Agent Skills». Leserne bør holde øye med seriens avsluttende kapittel, som lover å knytte dekoder‑utgangsstrategier til nedstrømsoppgaver som kontrollert tekstgenerering, samt å sammenligne tradisjonelle FC‑hoder med transformer‑stil projeksjonslag. Denne sammenligningen vil sannsynligvis påvirke pågående eksperimenter hos OpenAI for å automatisere forsknings‑rørledninger, hvor presis håndtering av utganger kan påvirke påliteligheten til genererte hypoteser. For nå gir Rajeshs guide en tidsriktig, praktisk referanse for alle som bygger eller finpusser Seq2Seq‑systemer i den nåværende bølgen av AI‑innovasjon.
33

NVidia har nylig (16. mars 2026) publisert en liten avlegger av Nemotron. NVIDIA‑Nemotron‑

Mastodon +6 kilder mastodon
huggingfacenvidia
NVIDIA avduket en ny, ultra‑kompakt variant av sin Nemotron‑familie den 16. mars 2026, og lanserte modellen **“NVIDIA‑Nemotron‑3‑Nano‑4B‑Q4_K_M.gguf”** på Hugging Face. Modellen er kvantisert til 2,84 GB og inneholder 4 milliarder parametere, noe som gjør den i stand til å kjøre på edge‑enheter med kun 4 GB systemminne og en kompatibel GPU, for eksempel Jetson Thor, GeForce RTX eller DGX Spark‑plattformen. Lanseringen følger NVIDIA‑s bredere **“Nemotron‑Coalition”** som ble kunngjort tidligere denne måneden. Koalisjonen samler utviklere av åpne modeller og AI‑utviklere med mål om å akselerere åpne frontlinjemodeller. Mens koalisjonens flaggskip‑serie, Nemotron‑4, retter seg mot datasenter‑skala, er Nano‑utgaven bevisst konstruert for inferens på enheten, og utnytter selskapets **Post‑NAS‑optimaliseringspipeline** som ettermonterer eksisterende modeller for hastighet og effektivitet uten ny trening. Dette er viktig fordi det senker terskelen for utviklere som vil integrere avanserte språkfunksjoner direkte i spill, stemmeassistenter, IoT‑enheter og robotikk, og dermed unngår latens‑ og personvernutfordringer knyttet til kun‑sky‑løsninger. Med en størrelse på 2,84 GB passer modellen komfortabelt på forbruker‑klassisk maskinvare, og åpner døren for AI‑drevne NPC‑er, sanntids‑oversettelse og lokalisert automatisering som tidligere var begrenset til større, server‑baserte distribusjoner. Samtidig styrker det NVIDIAs strategi om å kombinere åpne vekter‑modeller med sin egen silisium, noe som potensielt kan endre konkurranselandskapet mot sky‑sentraliserte leverandører som OpenAI og Anthropic. Det som nå er å følge med på, er ytelses‑benchmarker fra tidlige adoptører, integrasjons‑milepæler innen NVIDIAs Jetson‑økosystem, samt utrullingen av neste generasjons Nemotron‑4‑familie som er planlagt senere i år. Dersom Nano‑modellen leverer den lovede hastighet‑til‑nøyaktighets‑ratioen, kan den bli de‑facto‑standard for edge‑AI i de nordiske spill‑ og smarte‑enhetssektorene.
30

Et portrett av kunstneren som en LLM

HN +6 kilder hn
Et nytt digitalt kunstverk med tittelen «Et portrett av kunstneren som en LLM» debuterte denne uken på Oslo Contemporary Art Center, og visker ut grensene mellom menneskelig fantasi og maskinell generering. Verket er ikke et statisk bilde, men en interaktiv installasjon: besøkende samtaler med en spesialtrent stor språkmodell som i sanntid komponerer poetiske beskrivelser, skisser og til og med korte fortellinger om betrakterens egen kreative identitet. Resultatet projiseres på et stort lerret, utvikler seg med hver utveksling og danner et stadig skiftende selvportrett som er delvis tekst, delvis abstrakt visualisering. Verket kommer i en tid da kunstnere over hele verden eksperimenterer med generativ KI som medforfatter snarere enn kun verktøy. Ved å integrere LLM-en i en assistent som reagerer på personlige prompt, fremhever installasjonen den samarbeidsmessige spenningen mange skapere opplever: spenningen ved umiddelbar, høy‑kvalitets produksjon, avveid av ubehaget ved å overlate forfatterskapet til en algoritme. Kritikere har påpekt at verket gjenspeiler de nylige debattene om etikken rundt

Alle datoer