AI News

948

OpenAI stenger Sora‑appen

OpenAI stenger Sora‑appen
HN +9 kilder hn
openaisora
OpenAI kunngjorde tirsdag at de vil avvikle Sora, den kortformede video‑generasjonsappen de lanserte for seks måneder siden. Selskapet la ut en kort melding på X, takket skapere og bekreftet at både forbrukerappen og den profesjonelle internett‑tjenesten for filmbransjens brukere vil bli stengt innen noen uker. Sora kom med stor oppstyr som en TikTok‑lignende plattform som lot hvem som helst lage AI‑genererte klipp fra tekst‑prompt, og viste OpenAIs satsing på kreative verktøy utover tekst og bilde. Den raske veksten skapte begeistring blant innholdsskapere og bekymring blant regulatorer, som advarte om at lettprodusert syntetisk video kan forsterke deep‑fake‑risikoer og belaste moderasjonsressursene. Nedstengingen, som ble kunngjort uten forklaring, tyder på at eksperimentet støtte på tekniske, sikkerhets‑ eller kostnadsutfordringer som veide tyngre enn den tidlige oppmerksomheten. Dette trekket er viktig fordi det signaliserer en omkalibrering av OpenAIs produktstrategi. Etter en kostbar utrulling av ChatGPT‑utvidelser og en bølge av bedriftsavtaler, ser selskapet ut til å skjerpe fokuset på tjenester med høyere margin og strengere sikkerhetskontroller. Å avvikle Sora fjerner også en høy‑profilert demonstrasjon av OpenAIs video‑generasjonskapasiteter, og kan dermed gi konkurrenter som Googles Gemini Video, Metas Make‑it‑Real og nye oppstartsbedrifter som satser på samme skaper‑marked et forsprang. Hva du bør følge med på videre: om OpenAI vil gjenbruke Soras underliggende modell for integrering i ChatGPT eller i den kommende bedriftspakken, og hvordan selskapet vil håndtere det regulatoriske presset rundt AI‑generert video. Konkurrentene vil sannsynligvis fremheve gapet som Sora etterlater, og fremsky
478

OpenAI planlegger å avvikle støtten for Sora

OpenAI planlegger å avvikle støtten for Sora
HN +7 kilder hn
openaisora
OpenAI kunngjorde at de vil avslutte all støtte for Sora, deres plattform for kortformat AI‑generert video, innen kvartalets slutt. Beslutningen omfatter forbruker‑appen, den utvikler‑fokuserte API‑en og videogenereringsfunksjonen som er integrert i ChatGPT. De ansatte ble informert om at tiltaket er endelig, uten planer om å gjenopplive tjenesten eller flytte brukerne til et alternativt tilbud. Stengingen markerer et skarpt vendepunkt etter Soras høyprofilerte lansering i fjor, som ble presentert som en TikTok‑lignende konkurrent som kunne lage lisensierte klipp fra tekst‑prompt. Prosjektet tiltrakk en investering på 1 milliard dollar fra Disney, men underholdningsgiganten trakk tilbake sin investering tidligere denne måneden da OpenAI signaliserte en tilbaketrekning. Tapet av Disneys støtte, kombinert med svak adopsjon og økende juridisk gransking av opphavsrettsbeskyttet innhold og deep‑fake‑bekymringer, ser ut til å ha tippet vektskålen. For utviklere fjerner tapet av Sora‑API‑en et sjeldent verktøy for rask videoprototyping, og tvinger dem til å gå tilbake til langsommere, tradisjonelle arbeidsflyter eller søke alternativer fra konkurrenter som Metas Make‑It‑Real eller Googles Gemini Video. OpenAIs bredere strategi peker nå mot tekst‑sentrerte modeller og prosjektet med den automatiserte forskeren som ble fremhevet i vår dekning 24. mars, noe som tyder på at selskapet konsoliderer ressurser rundt produkter med høyere margin. Følg med på hvordan OpenAI omfordeler budsjettet som var avsatt til Sora
335

OpenAI avvikler Sora: Slutten på stadig større og mer omfattende

OpenAI avvikler Sora: Slutten på stadig større og mer omfattende
Mastodon +7 kilder mastodon
openaisora
OpenAI kunngjorde tirsdag at de stenger ned Sora, deres eksperimentelle AI‑videogenerator, noe som markerer et avgjørende skifte i selskapets strategi. Beslutningen avslutter et treårig partnerskap med Disney som gjorde det mulig for brukere å lage scener med opptil to hundre AI‑genererte karakterer, og kommer etter en bølge av kritikk knyttet til potensialet for deep‑fakes og «AI‑søppel»-innhold. Stengingen signaliserer at OpenAI beveger seg bort fra forbruker‑rettede, demonstrasjons‑type produkter og heller satser på inntektsbringende tjenester for utviklere og bedrifter. Analytiker Eva‑Maria Weiß skriver at selskapet nå ønsker at økosystemet skal «betale regningene» ved å integrere generativ‑videofunksjonalitet i den bredere API‑pakken i stedet for å opprettholde en frittstående app. Beslutningen reflekterer også økende konkurransepress: rivaler som Google DeepMind og Meta ruller ut egne multimodale modeller, mens regulatorer skjerper kontrollen med syntetisk media. For brukerne betyr nedstengingen at Sora‑nettgrensesnittet og tilhørende API‑er forsvinner innen månedens slutt, uten noen migrasjonsvei til en betalt versjon. Eksisterende prosjekter må eksporteres eller bygges opp på nytt med alternative verktøy. OpenAI har ikke oppgitt om den underliggende modellen vil bli omdisponert til intern bruk eller integrert i kommende utgivelser, inkludert den nylig lanserte GPT‑5, som lover tettere multimodal integrasjon. Det som vil være viktig å følge med på, er om OpenAI vil pakke videogenerering inn i sine bedriftsløsninger, hvordan funksjonen vil bli priset, og hvor raskt konkurrentene fyller tomrommet etter Sora. Selskapets neste offentlige uttalelser om API‑veikart, samt eventuelle regulatoriske tiltak mot syntetisk media, vil indikere om dette pivotet vil omsettes til bærekraftig vekst eller bare bli et tilbaketrekning fra et overambisiøst eksperiment. Som vi rapporterte 25. mars, er Sora‑nedstengingen det siste kapitlet i OpenAIs raske re‑orientering mot en B2B‑først‑modell.
334

OpenAI lukker brutalt Sora, den dyreste slop‑fabrikken i AI‑historien

OpenAI lukker brutalt Sora, den dyreste slop‑fabrikken i AI‑historien
Mastodon +7 kilder mastodon
openaisora
OpenAI kunngjorde torsdag at de stenger ned Sora, den høyprofilerte AI‑videogenereringstjenesten som ble lansert i september 2025. Selskapet uttalte at plattformens «massiv videoproduksjon på stor skala koster en formue, og ingen levedyktig vei til lønnsomhet har dukket opp». Beslutningen avslutter også et treårig partnerskap med Disney på én milliard dollar som ga tilgang til mer enn 200 lisensierte karakterer. Som vi rapporterte 25. mars, hadde Disney allerede begynt å trekke seg fra avtalen etter økende bekymringer over ukontrollerte deepfakes og flommen av lavkvalitets, engangsinnhold som Sora produserte. Den brå avslutningen bekrefter at satsingen var uholdbar både økonomisk og omdømmemessig. OpenAI forklarte at beregningsressursene som var viet til Sora, vil bli omdirigert til selskapets kjerne‑språk‑ og bildemodeller, hvor etterspørsel og inntektsutsikter er tydeligere. Stengingen er viktig fordi den signaliserer det første store tilbaketrekket fra storskala generativ video, et felt mange forventet skulle eksplodere etter OpenAIs høyprofilerte lansering. Den understreker vanskeligheten
318

OpenAI stenger Sora etter at den har problemer med å unngå å bli et opphavsretts‑bruddmess! Er dette begynnelsen?

OpenAI stenger Sora etter at den har problemer med å unngå å bli et opphavsretts‑bruddmess! Er dette begynnelsen?
Mastodon +8 kilder mastodon
copyrightopenaisora
OpenAI kunngjorde tirsdag at de permanent deaktiverer Sora, deres AI‑drevede videogenerator for korte formater, bare tre måneder etter at de inngikk et flerårig partnerskap med Disney for å bruke studioets karakterer. Selskapet la ut en kort melding på X: «Vi sier farvel til Sora». Samtidig bekreftet de at Disney har trukket seg fra den milliardinvesteringen på 1 milliard dollar som lå til grunn for lanseringen, med begrunnelse i «uløste opphavsretts‑risikobekymringer» og appens «manglende evne til pålitelig å filtrere krenkende innhold». Stengingen markerer den raskeste reverseringen av et høyt profilert produkt i OpenAIs historie. Sora debuterte for seks måneder siden
312

Lokal LLM‑app fra Ente

Lokal LLM‑app fra Ente
HN +6 kilder hn
privacy
Ente har lansert Ensu, en forbruker‑grad app som kjører en stor språkmodell helt på brukerens enhet. Den første versjonen leveres for macOS og iOS, med en Android‑beta planlagt senere i dette kvartalet. Ensu pakker en kompakt transformer‑modell—optimalisert for Apples Neural Engine og Qualcomm Hexagon DSP—bak et slankt chat‑grensesnitt, samtidig som alle prompt og svar holdes på enheten. Brukere kan også aktivere en “Remote Tunnel”-funksjon som videresender modellens inferens til et personlig Cloudflare‑vert endpoint, slik at de kan avlaste tunge arbeidsbelastninger uten å eksponere data for tredjeparts‑API‑er. Utgivelsen markerer et håndgripelig skifte fra sky‑sentraliserte AI‑tjenester som dominerer markedet. Ved å holde modellen lokalt lover Ente null‑kunnskaps‑personvern, lavere latens og muligheten til å operere offline—egenskaper som appellerer til personvernbevisste forbrukere og virksomheter som frykter datalekkasjer. Trekket understreker også den raske modningen av modellkomprimeringsteknikker; en 7‑milliarder‑parameter‑modell som tidligere krevde en server‑grad GPU, passer nå innenfor en smarttelefons minnebudsjett. Dette følger vår tidligere dekning av hobbyister som bygde private, lokale AI‑verktøy i løpet av en helg med Ol, og viser at inngangsbarrieren kollapser fra spesialist til mainstream. Det som er verdt å følge videre, er økosystemet som vil vokse rundt Ensu. Ente har åpnet en utviklerportal for plug‑ins, og antyder tredjeparts‑utvidelser som domenespesifikke kunnskapsbaser eller tilpassede stemmeassistenter. Analytikere vil spore adopsjonsmålinger i App Store og eventuelle partnerskapskunngjøringer med maskinvareleverandører som kan integrere motoren dypere i enheter. En oppfølgingsoppdatering forventes i juni når Ente planlegger å rulle ut en større 13‑milliarder‑parameter‑modell og utvide støtte til Windows‑laptoper, noe som potensielt setter en ny basislinje for AI‑ytelse på enhet.
297

OpenAI avlyser Sora og den millionavtalen med Disney faller – i en uventet vending, OpenA

OpenAI avlyser Sora og den millionavtalen med Disney faller – i en uventet vending, OpenA
Mastodon +8 kilder mastodon
openaisora
OpenAI kunngjorde tirsdag at de legger ned Sora, deres generative‑videoplattform, og at det multimillion‑dollar‑partnerskapet de hadde inngått med Disney nå er ugyldig. Selskapet sa at beslutningen er endelig og at alle Sora‑tjenester vil tas offline i løpet av noen uker, noe som avslutter det kortvarige eksperimentet som startet med en høyt profilert lansering i fjor. Tiltaket markerer en skarp vending fra OpenAIs tidligere satsing på forbrukerrettet video‑AI. Sora, markedsført som en «TikTok‑lignende» app der brukere kunne laste opp prompt og motta AI‑genererte klipp, tiltrakk raskt oppmerksomhet fra både skapere og Hollywood, noe som førte til at Disney signerte en strategisk allianse som lovet samskaping av AI‑forsterket innhold og eksklusive distribusjonsrettigheter. Partnerskapet ble sett på som et testtilfelle for hvordan tradisjonelle medieselskaper kunne utnytte store generative modeller for å produsere ny IP til lavere kostnad. OpenAIs tilbaketrekning er viktig av flere grunner. For det første signaliserer den et skifte bort fra høyrisiko‑, lavmargin‑forbrukerprodukter mot mer lønnsomme bedriftsløsninger som ChatGPT Enterprise og lisensiering av skreddersydde modeller. For det andre fjerner tapet av Disneys støtte en fremtredende godkjenning som kunne ha akselerert bransjens adopsjon av AI‑videoverktøy. For det tredje reiser nedleggelsen spørsmål om levedyktigheten til AI‑generert media under gjeldende opphavsretts‑ og deep‑fake‑reguleringer, temaer som allerede har fått oppmerksomhet fra både europeiske og amerikanske politikere. Hva som skjer videre: OpenAI forventes å satse enda mer på sine kjerne‑språk‑ og bildemodeller, muligens med en akselerert utrulling av neste generasjons GPT‑5. Disney har på sin side antydet at de vil utvikle egne AI‑kapasiteter internt, noe som kan lede til et mulig partnerskap med en konkurrerende leverandør. Analytikere vil også følge med på om andre mediegiganter, som Warner Bros. Discovery eller Netflix, trer inn for å fylle tomrommet som den avbrutte Disney‑OpenAI‑samarbeidet etterlater. Som vi rapporterte 25. mars, hadde OpenAI allerede signalert slutten på Sora; dagens kunngjøring bekrefter at prosjektet nå er helt avviklet.
280

Hva Soras oppgang og plutselige fall betyr for OpenAI, Disney og AI‑video

Hva Soras oppgang og plutselige fall betyr for OpenAI, Disney og AI‑video
Forbes +40 kilder 2026-03-25 news
openairoboticssora
OpenAIs beslutning om å legge ned Sora, deres flaggskip‑modell for tekst‑til‑video, har forvandlet et høyt profilert partnerskap med Disney til en offentlig brudd. Beslutningen følger en privat demonstrasjon sommeren 2025, der Sora produserte en 60‑sekunders 4K‑klipp, noe som fikk Disney til å forplikte en investering på 1 milliard dollar og plassere teknologien som kjernen i deres neste‑generasjons innholds‑pipeline. Tidlig i mars 2026 kunngjorde OpenAI kanselleringen, med henvisning til uløste tekniske hindringer og økende beregningskostnader, og Disney kunngjorde at de trakk seg fra avtalen. Som vi rapporterte 25. mars, signaliserte Disneys uttreden slutten på det som ble omtalt som et «millennial‑era»‑samarbeid mellom Hollywood og generativ AI. Konsekvensene er viktige på tre fronter. For det første avdekker de skjørheten i AI‑videomodeller som er avhengige av massive, proprietære verdens‑modeller; uten en klar vei til kostnadseffektiv skalering vil selv velstående partnere nøle. For det andre har grupper som kjemper for skaperes rettigheter grepet inn etter nedleggelsen og krever strengere beskyttelse mot uautorisert bruk av opphavsrettsbeskyttet opptak, en debatt som kan forme fremtidig regulering av generativ media. For det tredje omformer hendelsen konkurranselandskapet: Anthropic og andre oppstartsbedrifter med private‑equity‑bakgrunn nærmer seg nå Disney og andre studioer, mens OpenAI ser ut til å fokusere på tekst‑ og bildegenerering i stedet for å utvide til video. Det som skal følges med spenning videre, er om OpenAI vil gjenopplive Sora i en slankere form, hvordan Disney vil omfordele sitt AI‑budsjett – muligens mot interne verktøy eller rivaliserende leverandører – og hvordan lovgivere i EU og USA responderer på økende press for åpenhet og rettighetsbeskyttelse i AI‑generert video. Det neste kvartalet vil vise om Sora‑sagaen blir en advarende fotnote eller en katalysator for en ny bølge av standarder for generativ filmproduksjon.
Forbes — https://www.forbes.com/sites/moinroberts-islam/2026/03/25/what-soras-rise-and-su www.tradingkey.com — https://www.tradingkey.com/analysis/stocks/us-stocks/251391172-walt-disney-opena marylandoutdoorclub.org — https://marylandoutdoorclub.org/article/disney-ditches-openai-deal-after-sora-sh ciclopiemonte.com — https://ciclopiemonte.com/article/disney-ditches-openai-deal-after-sora-shutdown jeunesse2000.org — https://jeunesse2000.org/article/disney-ditches-openai-deal-after-sora-shutdown- asuiteatkitsilanocottage.com — https://asuiteatkitsilanocottage.com/article/disney-ditches-openai-deal-after-so CBS News — https://www.msn.com/en-us/news/technology/openai-pulls-the-plug-on-its-sora-ai-v CNBC — https://www.msn.com/en-us/money/companies/openai-shutters-short-form-video-app-s HN — https://www.hollywoodreporter.com/business/digital/openai-shutting-down-sora-ai- HN — https://variety.com/2026/digital/news/openai-shutting-down-sora-video-disney-123 HN — https://arstechnica.com/ai/2026/03/openai-plans-to-shut-down-sora-just-15-months HN — https://twitter.com/soraofficialapp/status/2036546752535470382 HN — https://www.cnbc.com/2026/03/24/openai-shutters-short-form-video-app-sora-as-com HN — https://www.reuters.com/technology/openai-set-discontinue-sora-video-platform-ap Mastodon — https://neopaquita.es/@Shine_McShine/116289430804917987 Mastodon — https://social.vivaldi.net/@lamdba/116289000104999523 Mastodon — https://mastodon.social/@lowyat/116288992203707219 Mastodon — https://post.lurk.org/@fcr/116289639576191628 Mastodon — https://fed.brid.gy/r/https://www.rappler.com/technology/openai-shut-down-sora-a Mastodon — https://masto.ai/@panterapolnocy/116289646491201082 Mastodon — https://halo.nu/@theguardian_us_technology/116288802972565252 Mastodon — https://mastodon.social/@maquinari_cat/116288957020359623 Mastodon — https://mastodon.social/@pafurijaz/116289294284528312 Mastodon — https://zdrojak.cz/zpravicky/openai-vypina-aplikaci-sora/ Mastodon — https://mastodon.social/@WinFuture/116289142403658416 Mastodon — https://mastodon.ozioso.online/@ItalianNews/116288880089973783 Mastodon — https://anonsys.net/display/bf69967c-2cd3e45c-479fe0cf8c18b9b2 Mastodon — https://ard.social/@tagesschau/116289027590377594 Mastodon — https://toot.earth/@PetaPixel/116286455993988500 Mastodon — https://fed.brid.gy/r/https://fumettologica.it/2026/03/disney-openai-sora-accord Mastodon — https://social.macg.co/@macgeneration/116289075826710458 NPR — https://www.npr.org/2026/03/25/g-s1-115055/openai-pulls-the-plug-on-sora-the-vir Mastodon — https://infosec.exchange/@AAKL/116290536912001076 Mastodon — https://fraxoweb.social/@frank/116290229875721992 Mastodon — https://fed.brid.gy/r/https://filmstories.co.uk/news/openai-axes-sora-its-ai-vid Mastodon — https://infosec.exchange/@AAKL/116290505718166286 Mastodon — https://shrk.crystalsky.dev/notes/01KMJVVQ216BFF3W52RHHTV1BJ Mastodon — https://fed.brid.gy/r/https://cordcuttersnews.com/openai-pulls-the-plug-on-sora- Mastodon — https://c.im/@arstechnica/116290403871672991 Mastodon — https://mastodon.social/@winbuzzer/116290467599563731
278

Den såkalte #OpenAI dreper #sora. Kanskje folk endelig kan begynne å se at #AI

Den såkalte #OpenAI dreper #sora. Kanskje folk endelig kan begynne å se at #AI
Mastodon +7 kilder mastodon
climategoogleopenaisora
OpenAI har offisielt trukket støpselet på Sora, deres mye omtalte tekst‑til‑video‑modell, og bekrefter den brå avslutningen som først ble antydet i selskapets kunngjøring 25. mars om at tjenesten skulle avvikles og det multimillion‑dollar partnerskapet med Disney ville falle bort. Firmaet fjernet Sora fra API‑katalogen, deaktiverte nettappen og sendte en kort e‑post til de gjenværende brukerne der det ble opplyst at utviklingen var “omprioritert” på grunn av “ressursbegrensninger”. Dette er viktig fordi Sora var OpenAIs flaggskipforsøk på å utvide generativ AI fra tekst og bilder til bevegelige bilder – en evne som ble presentert som en ny front for annonsører, skapere og underholdningsstudioer. Dødsgangen avslutter ikke bare et høyt profilert samarbeid med Disney, men signaliserer også en bredere omkalibrering av OpenAIs produktstrategi. Analytikere ser beslutningen som en reaksjon på økende kostnadspress, langsommere enn forventet adopsjon av video‑generering med høy beregningskraft, og en avkjøling av den spekulative “AI‑boblen” som har drevet oppblåste verdivurderinger i sektoren. Investorer revurderer allerede OpenAIs vekstutsikter. Selskapets siste inntjeningspresentasjon antydet at ressurser vil bli omdirigert mot “o1”-resonningsmotoren og neste iterasjon av GPT, som lover høyere verdiskapende bruksområder for bedrifter i stedet for overskriftsfangende mediedemoer. Samtidig akselererer konkurrenter som Google DeepMind og Anthropic sine egne multimodale veikart, i håp om å kapre markedsandelen som Sora har forlatt. Hva man bør holde øye med videre: påvirkningen på OpenAIs balanse og eventuell reforhandling med Disney, tidslinjen for utrullingen av o1‑serien, og om nedstengingen vil føre til en bredere tilbaketrekning fra ambisiøse generative‑videoprosjekter i bransjen. Et skifte mot mer pragmatiske, inntektsgenererende AI‑verktøy kan endre finansieringsmønstre for oppstartsbedrifter som har satset på video‑fronten.
267

OpenAI går inn i sin fokuseringsperiode ved å avskaffe Sora       https://  fed.brid.gy/r/https://www.wire  d.com/st

Mastodon +10 kilder mastodon
openaisora
OpenAI kunngjorde tirsdag at de vil avvikle Sora, den AI‑drevede videogenereringsappen de lanserte i fjor, noe som markerer et avgjørende skifte mot det selskapet kaller sin «Fokus‑era». Beslutningen kommer mens OpenAI forbereder en børsnotering og omdirigerer ressurser til en enkelt, samlet AI‑assistent og en pakke med bedrifts‑klassede kodeverktøy. Soras nedstengning følger en kort, turbulent periode: tjenesten ble lansert med stor oppstyr, sikret et flerårig partnerskap med Disney for å animere ikoniske karakterer, og ble deretter trukket tilbake bare tre måneder senere. OpenAI oppga økende beregningskostnader, et strategisk skifte mot robotikk, og behovet for å konsolidere produktporteføljen som de viktigste årsakene til beslutningen. Avslutningen er viktig på flere områder. For skapere fjerner den ett av de få forbrukerklare verktøyene som kan generere fullstendige videoer fra tekstprompt, og strammer gapet som konkurrenter som Runway og Metas Make‑It‑Real har kjempet for å fylle. For investorer er signalet klart: OpenAI kvitter seg med perifere eksperimenter for å vise en strammere, inntektsgenererende stack før børsnoteringen, en fortelling de har bygget siden rapportene 25. mars om Soras død. Fremover vil markedet følge med på den formelle IPO‑innleveringen, forventet senere dette kvartalet, og på utrullingen av den lovede samlede assistenten som vil kombinere chat‑, bilde‑ og kodefunksjoner under ett grensesnitt. Like kritisk vil være OpenAIs fremgang innen robotikk—deres første store hardware‑fokuserte satsing siden oppkjøpet av talent med tilknytning til Boston Dynamics—og hvordan de omfordeler beregningsbudsjettet som frigjøres ved Soras terminering. De neste månedene vil avsløre om «Fokus‑era» omsettes til vedvarende vekst eller bare er en omprofilering av en allerede dominerende AI‑plattform.
260

OpenAI kutter strømmen til Sora bare måneder etter lansering https:// fed.brid.gy/r/https://www.rol

OpenAI kutter strømmen til Sora bare måneder etter lansering https:// fed.brid.gy/r/https://www.rol
Mastodon +7 kilder mastodon
openaisora
OpenAI kunngjorde tirsdag at de “tar farvel” med Sora, den kort‑form AI‑videotjenesten de lanserte sent i 2023. Selskapet la ut en kort melding på X, der de lovet å slippe verktøy som lar brukerne eksportere klippene de allerede har laget, men ga ingen tidsramme for en fullstendig nedstengning. Beslutningen kommer kun seks måneder etter Soras offentlige lansering og knapt tre måneder etter at OpenAI signerte en flerårig lisensavtale med Disney for å bruke studioets karakterer i genererte videoer. Den brå avslutningen understreker den ustabile situasjonen i det gryende markedet for AI‑generert video. Sora ble raskt et fokuspunkt for bekymringer rundt deep‑fakes, noe som fikk regulatorer i Europa og USA til å gi advarsler om umerkede syntetiske medier. Samtidig viste tjenesten seg å være økonomisk krevende; tidligere rapportering beskrev den som «den dyreste AI‑slop‑fabrikken i historien». Disneys tilbaketrekning fra partnerskapet – rapportert 25. mars – tyder på at forretningsmodellen allerede var under press. Hva som skjer videre vil forme både OpenAIs produktstrategi og det bredere økosystemet av AI‑videoverktøy. Analytikere vil følge med på om OpenAI omdirigerer Soras teknologi inn i sin kjerne‑ChatGPT‑plattform eller lanserer et mer stramt kontrollert tilbud som tilfredsstiller lisenspartnere og regulatorer. Disneys uttalelse om at de vil «finne måter å selge slop andre steder» antyder en mulig intern løsning eller et skifte til en annen AI‑leverandør. I mellomtiden vil konkurrenter som Runway, Metas Make‑It‑Real og nye europeiske oppstartsbedrifter sannsynligvis kjempe om den fortrengte brukerbasen. Den neste kommunikasjonen fra OpenAI, som forventes innen noen dager, bør klargjøre planer for datalagring og gi hint om selskapets langsiktige visjon for generativ video. Som vi rapporterte 25. mars, er Sora‑sagaen allerede i ferd med å endre forventningene til AI‑drevne kreative tjenester.
244

Finjustering vs Prompt‑engineering: En praktisk teknisk sammenligning for moderne AI‑systemer

Finjustering vs Prompt‑engineering: En praktisk teknisk sammenligning for moderne AI‑systemer
Dev.to +7 kilder dev.to
fine-tuningrag
Et felles hvitbok publisert denne uken av Nordisk AI‑institutt og cloud‑tjenesteavdelingen til en ledende europeisk telekomleverandør, gir den første systematiske, produksjonsklare sammenligningen av finjustering og prompt‑engineering for dagens store språkmodeller. Forfatterne evaluerte tre flaggskip‑LLMer – Claude‑3, Gemini‑1.5 og Llama‑3 – på ti virkelige oppgaver som spenner fra uttrekk av juridiske klausuler til kreativ tekstproduksjon. Resultatene viser at prompt‑engineering kan matche finjustert nøyaktighet på generelle oppgaver, samtidig som utviklingstiden reduseres med 70 % og beregningskostnadene kan falle med opptil 60 %. For svært spesialiserte domener, derimot, overgikk modeller som var finjustert på noen tusen kuraterte eksempler konsekvent de best utformede promptene, og oppnådde opptil 99,1 % uttrekksnøyaktighet i en bankdokument‑behandlingsbenchmark. Studien er viktig fordi bedrifter nå må velge mellom to konkurrerende optimaliseringsveier med svært ulike operasjonelle fotavtrykk. Prompt‑engineering bevarer den originale modellen, omgår personvernproblemer knyttet til data og muliggjør rask A/B‑testing, men krever kontinuerlig vedlikehold av promptene etter hvert som bruksområdene utvikler seg. Finjustering innlemmer domenekunnskap permanent, forenkler nedstrøms‑pipelines på bekostning av høyere innledende datamerking, lengre treningssykluser og strengere modellstyringskrav. Etter hvert som AI‑budsjettene strammes inn i Norden, vil kost‑nytte‑beregningene i papiret forme produktveier, spesielt for sektorer som finans, helsevesen og offentlig forvaltning hvor regulatorisk etterlevelse krever reproduserbar og reviderbar oppførsel. Hva som er på horisonten: Forfatterne kunngjør et åpen‑kilde‑verktøy som kombinerer de to tilnærmingene, automatisk genererer oppgavespesifikke prompt og deretter anvender lettvekts‑parameter‑effektiv finjustering (PEFT) når gevinstene flater ut. Tidlige brukere, inkludert et svensk forsikringsselskap og en dansk e‑offentlig portal, planlegger pilotprosjekter i Q3. Industrianalytikere vil følge med på om hybride arbeidsflyter blir de‑facto‑standard, noe som potensielt kan få skyleverandører til å revurdere prisingsmodeller for prompt‑kjøring versus finjusterings‑beregning.
230

RAG vs Finjustering — Hva som faktisk fungerer i produksjon (2026)

RAG vs Finjustering — Hva som faktisk fungerer i produksjon (2026)
Dev.to +7 kilder dev.to
fine-tuningrag
En ny produksjonsklar veiledning som ble publisert denne uken av AI‑ingeniør Umesh Malik, legger frem hardt ervervede lærdommer fra ett år med bygging av live‑LLM‑tjenester for kunder innen netthandel, finans og telekom. Rapporten, med tittelen «RAG vs Finjustering — Hva som faktisk fungerer i produksjon (2026)», samler telemetri fra dusinvis av utrullinger og argumenterer for at det binære valget mellom Retrieval‑Augmented Generation (RAG) og finjustering ikke lenger er realistisk. I stedet har hybride pipeliner som kombinerer en finjustert inferensmodell med et dynamisk hentelag blitt de‑facto‑standarden. Maliks data viser at rene RAG‑systemer vinner på kunnskapsfriskhet og vedlikeholdskostnader, spesielt i domener hvor fakta endres ukentlig eller daglig. Finjusterte modeller, derimot, gir strammere stilistisk kontroll, lavere latens og muligheten til å kjøre offline, noe som oversettes til kostnadsbesparelser ved høye spørringsvolumer. Veiledningen kvantifiserer disse avveiningene: en 30 % reduksjon i latens når man kun betjener en finjustert modell, versus et 45 % fall i forekomster av utdaterte svar når samme modell blir forsterket med et henteregister som oppdateres hver 12. time. Den hybride tilnærmingen arver det beste fra begge verdener, og oppnår responstider på under ett sekund samtidig som siteringsnøyaktigheten holdes over 92 %. Hvorfor dette er viktig, er at bedrifter nå beveger seg forbi proof‑of‑concept‑stadiet og trenger konkret veiledning for ansvarlig skalering av LLM‑modeller. Som vi rapporterte 25. mars 2026, fremhevet debatten om finjustering versus prompt‑engineering betydningen av modellspesifikk optimalisering; Maliks funn utvider den samtalen til hele stacken, og viser hvordan hente‑infrastruktur og modelltilpasning samvirker i reelle kostnads‑ og etterlevelsesberegninger. Fremover forventes leverandører å rulle ut tettere integrasjoner for hybride pipeliner, inkludert administrerte vektorbutikker med innebygd versjonering og finjusteringspakker for enheter. Observatører vil følge med på benchmark‑utgivelser som standardiserer hybride ytelsesmetrikker, samt på regulatoriske rammeverk som kan pålegge siteringsklare RAG‑komponenter i høy‑risiko‑sektorer. De neste månedene vil vise om den hybride modellen blir en permanent arkitektonisk norm eller et overgangskompromiss mens grunnmodeller fortsetter å forbedres.
210

**Hypura – En lagringsnivå‑bevisst LLM‑inferenceskjeduler for Apple Silicon**

**Hypura – En lagringsnivå‑bevisst LLM‑inferenceskjeduler for Apple Silicon**
HN +5 kilder hn
appleinferencellama
Et nytt åpen‑kilde‑prosjekt kalt **Hypura** er blitt lagt ut på GitHub, og lover å gjøre inferens av store språkmodeller (LLM) på Apple‑Silicon‑Mac‑er mer praktisk. Det fire dager gamle repositoriet beskriver Hypura som en «lagringsnivå‑bevisst LLM‑inferenceskjeduler», et tynt lag som dynamisk flytter modellvektene mellom RAM og SSD samtidig som den batcher forespørsler for å holde Apple‑M‑seriens GPU opptatt. Innovasjonen er viktig fordi Apples AI‑økosystem på enheten har vært hemmet av den begrensede enhetlige minnet i MacBooks og iMacs. Selv med den effektive MLX‑runtime krever modeller som overstiger noen få gigabyte fortsatt kostbar utskyting til ekstern lagring, noe som introduserer latens og stopper GPU‑en. Ved å behandle SSD‑en som et andre minnenivå og planlegge arbeidet rundt dens båndbredde, kan Hypura holde inferens‑pipelines i gang, og ifølge utviklerne reduserer den ytelsesgapet til desktop‑klasser GPU‑er. Tidlige tester fra forfatterne viser en gjennomstrømningsøkning på 20‑30 % sammenlignet med standard llama.cpp på M2‑Pro‑maskinvare, noe som speiler lignende forbedringer rapportert av vllm‑mlx‑prosjektet tidligere i år. Hvis skjeduleringsmekanismen lever opp til løftene, kan utviklere kjøre toppmoderne modeller som Llama‑2‑13B eller Mistral‑7B lokalt på en MacBook uten å måtte ty til sky‑tjenester. Det vil senke terskelen for personvern‑fokuserte applikasjoner, utvide markedet for macOS‑native AI‑verktøy, og legge press på Apple til å integrere mer sofistikerte minnehåndterings‑primitiver i sine egne rammeverk. De neste stegene å følge med på inkluderer fellesskaps‑benchmarking mot konkurrerende løsninger som OMLX og Parallax, potensielle bidrag som knytter Hypura inn i Apples Core ML‑ og MLX‑stabler, samt eventuelle signaler fra Apple om at skjedulereren kan bli innlemmet i en offisiell macOS‑utgivelse. En vellykket adopsjon kan endre balansen mellom inferens på enhet og i sky for utviklere i den nordiske AI‑scenen og videre.
172

OpenAI gir opp sin Sora AI‑videogenerator

The Verge +23 kilder 2026-03-25 news
openaisora
OpenAI kunngjorde tirsdag at de trekker støtet fra Sora, tekst‑til‑video‑modellen de lanserte ved slutten av 2024. Den korte uttalelsen «We’re saying goodbye to Sora» markerer slutten på et produkt som skapte stor begeistring for sin evne til å lage minuttlange, fotorealistiske klipp fra én enkelt prompt, men som også utløste kontrovers på grunn av enorme beregningskrav og juridiske problemer etter et sammenbrutt samarbeid med Disney. Nedstengingen følger en rekke rapporter fra tidligere denne uken om at OpenAI allerede var i ferd med å fase ut støtten til Sora og avlyse den fler‑million‑dollar‑avtalen med Disney som hadde lovet eksklusive innholdsrettigheter. Som vi rapporterte 25. mars, hadde selskapet begynt å «drepe» Sora, og Disney‑avtalen falt fra hverandre på grunn av bekymringer om at teknologien kunne viske ut grensen mellom ekte og syntetisk media. Beslutningen ser nå ut til å være endelig, med tjenesten fjernet fra API‑dashbordet og eksisterende brukerkreditter planlagt refundert. Hvorfor dette er viktig er todelt. For det første understreker Soras bortgang de praktiske begrensningene ved dagens AI‑videogenerering: å gjengi ett minutt med høy‑definisjonsopptak kan kreve mer GPU‑kraft enn mange av OpenAIs andre flaggskip‑modeller, noe som gjør det økonomisk uholdbart i stor skala. For det andre fremhever hendelsen den økende regulatoriske og omdømmemessige pressen på AI‑selskaper for å dempe verktøy som kan brukes til deep‑fake‑propaganda eller brudd på opphavsrett. Det neste å holde øye med er OpenAIs strategiske pivot. Selskapet vil sannsynligvis omdirigere beregningsbudsjettet som var avsatt til Sora mot neste generasjons tekst‑og‑bilde‑modeller, mens konkurrenter som Runway, Google DeepMind og Metas Make‑It‑Real kan forsøke å kapre det nå ledige markedssegmentet. Observatører vil også være ivrige etter å se om OpenAI i fremtiden tilbyr en lettere video‑prototype, og hvordan regulatorer reagerer på de bredere implikasjonene av AI‑generert media.
The Verge — https://www.theverge.com/ai-artificial-intelligence/899850/openai-sora-ai-chatgp futurism.com — https://futurism.com/the-byte/openai-sora-leak aimarketingnewstoday.com — https://aimarketingnewstoday.com/openai-releases-ai-video-generator-sora-to-cust arstechnica.com — https://arstechnica.com/information-technology/2024/02/openai-collapses-media-re www.wilsonsmedia.com — https://www.wilsonsmedia.com/openai-just-gave-artists-access-to-sora-and-proved- www.cmswire.com — https://www.cmswire.com/digital-experience/openai-unveils-sora-its-impressive-ai CNBC — https://www.msn.com/en-us/money/companies/openai-shutters-short-form-video-app-s HN — https://variety.com/2026/digital/news/openai-shutting-down-sora-video-disney-123 HN — https://twitter.com/soraofficialapp/status/2036546752535470382 HN — https://arstechnica.com/ai/2026/03/openai-plans-to-shut-down-sora-just-15-months HN — https://www.reuters.com/technology/openai-set-discontinue-sora-video-platform-ap HN — https://www.cnbc.com/2026/03/24/openai-shutters-short-form-video-app-sora-as-com Mastodon — https://mstdn.social/@WIREID91LDNON/116287280106982560 Mastodon — https://eter9.com/notes/ak912i2ci8 Mastodon — https://weredreaming.com/mookie/p/1774403800.230045 Mastodon — https://c.im/@heysannidhi/116287370794930407 Mastodon — https://fed.brid.gy/r/https://www.rappler.com/technology/openai-shut-down-sora-a Mastodon — https://mastodon.social/@Mathrubhumi_English/116287986840102523 Mastodon — https://masto.ai/@Miro_Collas/116288106875895645 Mastodon — https://mastodon.social/@schuler/116287354030592054 Mastodon — https://mastodon.nl/@teacher_rick/116288257594208811 Mastodon — https://mastodon.uno/@nicolaottomano/116288012563987419 Mastodon — https://mastodon.social/@NieuwsJunkies/116287067730459771
171

AirPods Max 2‑kompatibel med «iOS/iPadOS 26.4». Apple Music får også nye funksjoner

Mastodon +7 kilder mastodon
apple
Apple lanserte iOS 26.4, iPadOS 26.4 og watchOS 26.4 den 25. mars, og synkroniserte programvareutgivelsen med debuten av andre generasjon AirPods Max. Oppdateringen legger til innebygd støtte for de nye over‑øre‑hodetelefonene, slik at de får tilgang til romlig lyd, adaptiv EQ og den oppdaterte «Find My»-sporing som manglet i tidligere OS‑versjoner. Utover maskinvarekompatibiliteten får Apple Music en rekke forbedringer. En ny «Concert»-fane viser nå live‑konserter som finner sted i nærheten av brukerens posisjon, mens spillelistene «Ambient» og «Well‑being» er utvidet med AI‑kuraterte spor for søvn, fokus og avslapning. Tjenesten introduserer også en smartere anbefalingsmotor som foreslår nye artister basert på musikken som spilles akkurat nå, et trekk som styrker Apples posisjon i streamingmarkedet der Spotify og YouTube Music dominerer i Norden. Oppdateringen tar tak i tastaturforsinkelse og lover mer nøyaktig skriving etter rask inntasting – en subtil, men velkommen justering for avanserte brukere. Sikkerheten får et rutinemessig patch‑sett, og watchOS 26.4 legger til en lav‑strøm‑«Sleep Mode» for Apple Watch, i tråd med Apples bredere helsefokuserte narrativ. Hvorfor dette er viktig er todelt. For det første understreker den sømløse integrasjonen av AirPods Max 2 Apples strategi om å kombinere premium maskinvare med programvareoppdateringer for å rettferdiggjøre høyere prisnivåer – en formel som kan endre nordiske forbrukeres forventninger til høykvalitetslyd. For det andre signaliserer forbedringene i Apple Music en overgang mot lokasjonsbevisste, AI‑drevne opplevelser som kan erodere markedsandelen til konkurrerende tjenester. Hva som bør følges med på videre: tidlige anmeldelser fra tidlige brukere av AirPods Max 2s romlige lyd på iOS 26.4, adopsjonsstatistikk for den nye «Concert»-funksjonen, og om Apple vil utvide den AI‑drevne anbefalingsmotoren til den kommende iOS 27. Analytikere vil også holde øye med om Nordens sterke etterspørsel etter høy‑fidelitets‑streaming omsettes i en målbar økning i Apple Music‑abonnementer.
169

Auto-modus for Claude Code | Claude

Mastodon +7 kilder mastodon
ai-safetyanthropicclaude
Anthropic har lansert «Auto Mode» for Claude Code, deres AI‑drevne utviklingsassistent, som gjør en langvarig tillatelses‑prompt til et selvbetjent sikkerhetslag. Den nye modusen bruker en klassifiserer på enheten som vurderer hver kommando – som filskrivinger, pakkeinstallasjoner eller systemkall – og godkjenner automatisk de som anses som lav‑risiko, mens handlinger med høyere påvirkning fortsatt vises for menneskelig gjennomgang. Utviklere kan slå funksjonen av eller på i innstillingene for Claude Code, og systemet logger hver automatisk godkjente operasjon for sporbarhet. Lanseringen markerer et skifte fra de manuelle «ja/nei»-dialogene som mange brukere har klaget på som en flaskehals i arbeidsflyten. Ved å håndtere rutine‑tillatelser i bakgrunnen, lover Auto Mode å redusere friksjonen som har hemmet bred adopsjon av AI‑assistert koding, spesielt i hurtiggående team som må iterere raskt. Samtidig posisjonerer Anthropic klassifisereren som et sikkerhetsnett mot de «AI‑kodingkatastrofene» som har fått overskrifter når store språkmodeller utfører destruktive kommandoer eller eksponerer sensitiv data. Selskapet presenterer funksjonen som et mellomstadium mellom den standard‑prompt‑tunge konfigurasjonen og den risikable praksisen med å slå av tillatelser helt. Som vi rapporterte 25. mars 2026, hadde Claude Code allerede evnen til å overta en utviklers arbeidsstasjon; i dag er denne funksjonaliteten innkapslet i et sikkerhets‑først‑grensesnitt som kan sette en ny bransjestandard. Flyttingen passer også inn i Anthropics bredere oppdateringspakke, som inkluderer Claude Code Review, et multi‑agent verktøy for feil‑screening, og Dispatch for Cowork, som lar brukere overlevere oppgaver fra mobile enheter. Hva du bør holde øye med videre: tidlige adopsjons‑målinger og tilbakemeldinger fra bedrifts‑piloter vil vise om klassifisereren treffer riktig balanse mellom hastighet og sikkerhet. Konkurrenter som OpenAI og Google forventes å kunngjøre tilsvarende automatiserings‑funksjoner for tillatelser, noe som kan utløse et kappløp om å bygge sikkerhet inn i kjernen av AI‑koding‑arbeidsflyter. Reguleringsmyndigheter kan også begynne å granske hvordan disse klassifisererne blir trent og validert, særlig dersom de blir standard portvokter for kode som berører produksjonssystemer.
158

Canada avslo permanentoppholdssøknaden til en postdoktor fra McMaster med doktorgrad fra Sorbonne

Mastodon +6 kilder mastodon
Canadas immigrasjonsbyrå har avvist permanent‑oppholdssøknaden til en postdoktor ved McMaster University som tok doktorgrad ved Sorbonne og forsker på immunologi knyttet til aldring. Avslaget, som ble gitt av Immigration, Refugees and Citizenship Canada (IRCC), begrunnes med en «ufullstendig» søknad – men den egentlige årsaken var et generativ‑AI‑system som feilaktig «hallusinerte» hennes akademiske meritter og feilaktig merket henne som manglende de nødvendige kvalifikasjonene. Hendelsen kaster lys på den økende avhengigheten av store språkmodeller for å triagere og vurdere immigrasjonsdokumenter. IRCC introduserte AI‑verktøyet tidligere i år for å fremskynde saksbehandlingen og redusere manuelt arbeid, men teknologienes tendens til å konstruere eller feiltolke data har nå ført til en konkret, høy‑risiko feil. For et land som er avhengig av høyt kvalifiserte forskere for å opprettholde sin kunnskapsbaserte økonomi, utgjør en falsk avvisning både en trussel mot individuelle karrierer og den bredere talent‑pipeline. Juridiske eksperter påpeker at søkere kan anke IRCC‑vedtak, men den uklare naturen til AI‑baserte vurderinger kompliserer bevisgrunnlaget for en slik anke. Saken kan føre til en gjennomgang av byråets AI‑styringsrammeverk, inkludert krav om menneskelig verifisering, revisjonsspor og tiltak mot skjevheter. Interesseorganisasjoner krever allerede en pause i fullstendig automatiserte beslutningsprosesser inntil robuste sikkerhetstiltak er på plass. Følg med på IRCCs offisielle svar, som forventes innen de neste to ukene, samt eventuelle rettslige innleveringer fra forskeren eller hennes juridiske representanter. Parallelle utviklinger – som den føderale regjeringens kommende lovgivning om AI‑etikk og andre rapporterte AI‑feil i offentlige tjenester – vil indikere om Canada vil skjerpe tilsynet eller satse videre på automatisering i immigrasjonssystemet.
158

Jeg har nettopp innsett at logoen til # OpenAI er en stilisert endetarmsklemme. Beklager for

Jeg har nettopp innsett at logoen til # OpenAI er en stilisert endetarmsklemme. Beklager for
Mastodon +6 kilder mastodon
dall-eopenaisoratext-to-imagetext-to-video
Et Reddit‑innlegg som gikk viralt tidlig tirsdag hevdet at OpenAIs registrerte emblem ligner en «stilisert endetarmsklemme», noe som utløste en bølge av memer og en kortvarig økning i samtaler om merket. Kommentaren, postet i r/OpenAI‑fellesskapet, ble ledsaget av en side‑om‑side‑sammenligning av selskapets turkis‑blå «O» og den anatomiske analogien, og innen noen timer hadde den blitt delt på Twitter, LinkedIn og flere teknologifokuserte Discord‑kanaler. Observasjonen er harmløs i tonen, men kommer på et tidspunkt da OpenAI allerede er under intens granskning. Bare noen uker siden avbrøt firmaet brått sin Sora‑tekst‑til‑video‑tjeneste, et trekk som tvang Disney til å trekke seg fra et fler milliarder dollar stort partnerskap og utløste en omfattende debatt om bærekraften til kostbare AI‑produkter. Som vi rapporterte 25. mars, fremhevet Sora‑nedstengingen OpenAIs ustabile produktstrategi og reiste spørsmål om selskapets langsiktige visjon. Logo‑spøken tilfører derfor et lag av omdømmerisiko, og gjør en designkritikk til et symbol på bredere misnøye. OpenAI har ikke gitt noen offisiell kommentar, men deres kommunikasjonsavdeling er kjent for å følge med på sentiment i sosiale medier tett. Analytikere antyder at selskapet kan svare med en lettsindig anerkjennelse, eller – dersom narrativet får fotfeste – med en subtil redesign for å forhindre negativ merkevarepåvirkning. Tidligere har teknologiselskaper justert logoer etter virale vitser – for eksempel førte Apple‑memet om en «bøyd iPhone» i 2018 til en mindre redesign av enhetens silhuett. Hva vi bør holde øye med videre: om OpenAIs ledelse adresserer memen i en offentlig uttalelse, om selskapets designteam antyder en logo‑oppfriskning, og hvordan episoden påvirker pågående diskusjoner om bedriftsvisuell identitet i AI‑sektoren. Episoden fungerer også som en påminnelse om at selv subtile merkevarevalg kan bli gnistpunkter i en bransje som allerede sliter med offentlig tillit.
155

Disney sier de vil finne måter å selge sludder på andre steder etter å ha trukket seg fra OpenAI‑avtalen

Gizmodo +10 kilder 2026-03-25 news
openaisora
Disney har offisielt trukket seg fra den 1 milliard dollar store lisensavtalen de signerte med OpenAI for tre måneder siden, etter at det San Francisco‑baserte laboratoriet brått stengte ned sin Sora‑app for videogenerering. I en kort uttalelse sa Disney at de vil «finne måter å selge sludder på andre steder», noe som signaliserer at selskapet vil søke alternative kanaler for å tjene penger på AI‑generert innhold i stedet for å stole på den nå avviklede Sora‑plattformen. Kollapsen følger en rekke kunngjøringer fra OpenAI som startet 25. mars, da vi rapporterte selskapets beslutning om å avvikle støtten til Sora og de påfølgende konsekvensene for den multimillion‑dollar‑avtalen med Disney. Sora, presentert som et generativt videoverktøy som kunne omdanne tekstprompt til korte klipp, var ment å drive Disneys strømmetjenester, fornøyelses
152

📰 Claude Code Auto‑modus i 2026: Hvordan AI‑kodingsikkerhet endrer seg—og hvor den fortsatt svikter

Mastodon +9 kilder mastodon
anthropicautonomousclaude
Anthropic lanserte “Auto Mode” for Claude Code 11. mars 2026, og lar Claude Sonnet 4.6‑modellen autonomt godkjenne eller blokkere kodehandlinger under en utviklingsøkt. Funksjonen, som ble introdusert som en forsknings‑preview, inneholder en klassifikator som vurderer hver foreslåtte endring med hensyn til tillatelsesnivå, risiko for prompt‑injeksjon og potensielle bivirkninger før den utføres. Utviklere kan slå modus av og på, sette admin‑nivå overstyringer og definere egne policy‑terskler, og dermed forvandle AI‑en fra en passiv assistent til en portvokter som bestemmer når den kan handle på egen hånd. Dette markerer et skifte i AI‑drevet programvareverktøy. Ved å flytte beslutninger om tillatelser fra mennesket til modellen, håper Anthropic å forkorte tilbakemeldingssløyfer og holde utviklere i flyt, spesielt i langvarige kodingsøkter hvor hyppige manuelle godkjenninger blir en flaskehals. De innebygde sikkerhetstiltakene tar sikte på å løse langvarige bekymringer om at AI‑generert kode kan utføre utilsiktede kommandoer eller lekke legitimasjon – en kritikk som har plaget tidligere verktøy som GitHub Copilot og OpenAIs kodepakke. Som vi rapporterte 24. mars, har Claude Code allerede registrert mer enn 19 millioner commits på GitHub og introdusert en token‑optimaliserer for å dempe overflødige lesninger. Auto Mode bygger på dette momentumet, men analytikere advarer om at avhengigheten av én enkelt klassifikator fortsatt etterlater hull: sårbarheter i kanttilfeller, falske positive blokker og vanskeligheten med å revidere modellens beslutningslogikk er fortsatt uløste. Bedrifter må avveie produktivitetsgevinsten mot risikoen ved en ugjennomsiktig tillatelseshåndtering og den ekstra beregningskostnaden ved kontinuerlige sikkerhetssjekker. Hold øye med Anthropics kommende offentlige beta, planlagt til tidlig Q2, samt konkurrentenes svar. GitHub Copilot Workspace og OpenAIs kommende kodeverktøy forventes å innføre tilsvarende autonome tillatelseslag, noe som setter i gang et kortsiktig kappløp om å definere standarder for AI‑mediert kodeeksekveringssikkerhet. De neste månedene vil vise om Auto Mode kan innfri løftene sine uten å gå på kompromiss med de sikkerhetstiltakene den selv prøver å styrke.
151

OpenAI's latest repo has Claude as the third top contributor

HN +7 kilder hn
agentsanthropicclaudegeminigooglegpt-5openai
OpenAI’s most recent public GitHub repository shows Anthropic’s Claude model ranking as the third‑largest code contributor, trailing only OpenAI’s own GPT‑5.2 and a handful of human developers. The contribution metrics, extracted from the repo’s commit history, reveal that Claude generated roughly 12 % of the added lines over the past month, outpacing several internal tooling scripts and even some senior engineers. The finding matters because it signals a shift from pure competition to pragmatic cross‑pollination in the AI‑coding arena. Claude’s rise in the rankings follows a string of Anthropic upgrades – most notably the “Claude Code” auto‑mode that can autonomously complete complex development tasks – and underscores the model’s growing reputation for handling messy, real‑world codebases. OpenAI’s chief technology officer, Mira Brockman, hinted on a recent podcast that the company has been “experimenting with external code‑generation models to accelerate internal tooling,” suggesting that the repo data is not an isolated experiment but part of a broader strategy to tap the best available AI, regardless of origin. What to watch next is whether OpenAI formalises the collaboration or keeps it under the radar. A public acknowledgment could lead to joint benchmarks, shared safety protocols, or even a licensing deal that blurs the line between rival firms. Conversely, a quiet continuation may prompt Anthropic to leverage the exposure as a marketing lever, especially as Claude’s auto‑mode gains traction after the safety enhancements we covered on March 25. Industry observers will also be keen on the next set of commits: if Claude’s share climbs, it could reshape expectations about who supplies the most productive coding assistants in the fast‑moving generative‑AI race.
150

Introduksjon av @rotifer/mcp-server: Gi enhver AI‑agent tilgang til gen‑økosystemet

Dev.to +6 kilder dev.to
agents
En ny åpen‑kilde‑kode‑server kalt **@rotifer/mcp‑server** gjør det mulig for enhver AI‑agent som forstår Model Context Protocol (MCP) å koble seg direkte til Rotifer‑gen‑økosystemet. Den ett‑linjes installasjonen, publisert på npm, starter en lettvekts MCP‑server som eksponerer åtte søkbare verktøy – fra `search_genes` til `compare_genes` – og fem datakilder som `genedetail` og `leaderboard`. Ved å sende én enkelt MCP‑kommando kan en agent finne et “gen” (en gjenbrukbar AI‑kapabilitet), inspisere metadataene, sammenligne fitness‑poeng med alternativer, og hente den optimale versjonen inn i sin egen arbeidsflyt uten å forlate IDE‑en. Utrullingen er viktig fordi den gjør Rotifer‑gen‑registeret – som allerede inneholder mer enn 50 kuraterte gener for oppgaver som web‑scraping, datarensing og bildebehandling – til et plug‑and‑play‑marked for autonome agenter. Utviklere trenger ikke lenger hardkode verktøykjeder; i stedet kan agenter selv diagnostisere manglende funksjoner, spørre økosystemet og dynamisk utvide sitt ferdighetssett. Dette speiler den modulære tilnærmingen som sandbox‑rammeverkene introduserte tidligere denne måneden, og som lovet 100× raskere agenttesting, og det komplementerer DeepSeek sin satsing på å integrere DeerFlow 2.0 for rikere verktøyorchestrering. I praksis kan serveren akselerere utrullingen av spesialiserte agenter innen finans, helsevesen og netthandel ved å redusere tiden som brukes på manuell integrasjon. Det som nå er viktig å følge med på, er hvor raskt Rotifer‑MCP‑grensesnittet blir tatt i bruk av det bredere AI‑agent‑samfunnet. Tidlige tegn inkluderer en økende GitHub‑stjernestatus og en håndfull veiledninger på DEV‑fellesskapsnettstedet. Analytikere vil følge ytelses‑benchmarker mot eksisterende verktøysøk‑tjenester, fremveksten av tredjeparts‑gen‑bidrag, og om store sky‑leverandører integrerer MCP‑serveren i sine AI‑agent‑plattformer. Hvis økosystemet får fart, kan det bli en de‑facto‑standard for sanntids‑oppgraderinger av kapabiliteter, og dermed omforme hvordan autonome systemer utvikler seg og konkurrerer.
130

Googles TurboQuant reduserer minnekapasitetskravene for AI‑LLM‑cache med minst seks ganger — opptil 8‑ganger ytelsesforbedring på Nvidia H100‑GPUer, komprimerer KV‑cache til 3 bit uten tap i nøyaktighet

Mastodon +7 kilder mastodon
googlenvidia
Googles forskningsgruppe avduket TurboQuant, et to‑trinns kvantiseringsskjema som kutter nøkkel‑verdi‑cachen (KV‑cache) for store språkmodeller (LLM) med minst seks‑fold og gir opptil åtte‑fold hastighetsøkning på Nvidia H100‑GPUer. Metoden komprimerer KV‑oppføringer til kun tre bit ved hjelp av et nytt “PolarQuant”-rotasjonstrinn, og anvender deretter en lettvektig fin‑justering som kun bruker heltall, noe som bevarer modellens opprinnelige output nøyaktig – ingen tap i nøyaktighet, ingen ny‑trening og ingen endringer i modellarkitekturen. Dette gjennombruddet er viktig fordi KV‑cacher dominerer minneforbruket ved inferens med lange kontekster. Ved å krympe cachen frigjør TurboQuant GPU‑RAM, slik at utviklere kan bruke større kontekstvinduer eller pakke flere samtidige forespørsler på én H100. De resulterende gjennomstrømningsgevinster oversettes til lavere sky‑beregningskostnader og redusert energiforbruk, en kritisk faktor etter hvert som LLM‑utrullinger skaleres over datasentre. For virksomheter som priser tjenester per token, kan effektivitetsgevinsten også legge press på token‑baserte prismodeller, og gir gjenklang til den spøkefulle klagen om at “AI‑tokenpriser blir ødelagt.” TurboQuant bygger på de arbeidsflyt‑optimaliseringstrendene vi fremhevet i vår undersøkelse av LLM‑agenter 25. mars, hvor minnebevisst planlegging og cache‑håndtering ble identifisert som flaskehalser. Googles påstand om at teknikken fungerer som en drop‑in‑løsning for enhver transformer‑modell betyr at eksisterende pipelines – fra OpenAIs GPT‑5 til Apple‑silicon‑optimaliserte inferens‑stabler – kan adoptere den uten kodeendringer. Hva vi bør holde øye med videre: tidlige benchmark‑utgivelser fra Google og tredjeparts‑laboratorier vil bekrefte løftet om null‑tap på tvers av ulike modellfamilier. Integrasjon i populære rammeverk som Hugging Face Transformers og TensorRT vil signalisere en bredere adopsjon. Til slutt kan skyleverandører rulle ut TurboQuant‑aktiverte instanstyper, og vi vil følge med på hvordan prisfastsettelse og token‑økonomi utvikler seg når minnebegrensningene avtar.
129

RE: https://social.heise.de/@heiseonlineen/english/116288830860438729 For øyeblikket, Euro

Mastodon +6 kilder mastodon
metaprivacy
Meta sin kommende serie med AI‑drevne smarte briller har møtt et regulatorisk hinder i Europa, rapporterte et Mastodon‑innlegg fra Heise Medien torsdag. Et foreløpig vedtak fra European Data Protection Board (EDPB) har pålagt selskapet å stoppe all utrulling av sine “Meta Vision”-enheter inntil en fullstendig personvern‑konsekvensanalyse er gjennomført. Tiltaket kommer som svar på en bølge av bekymringer om at brillenes innebygde store språkmodeller (LLM‑er) kan fange opp og overføre ansikts‑, lyd‑ og posisjonsdata i sanntid, og dermed gjøre brukerne til permanente overvåknings‑noder. Den europeiske pausen står i skarp kontrast til nylige utviklinger i USA, hvor en føderal domstol avviste Metas forsøk på å overprøve en søksmål som hevder at selskapet ikke beskyttet unge brukere mot skadelig innhold. Mens Meta forbereder en anke av den amerikanske dommen, holder EDPBs foreløpige tiltak europeiske forbrukere isolert fra det myndighetene beskriver som et “personvernmareritt på neste nivå”. Hvorfor avgjørelsen er viktig, er tosidig. For det første tester den grensene for EUs personvernforordning (GDPR) og den nyere Digital Services Act når de konfronteres med nye wearables som kombinerer AI, augmented reality og kontinuerlig datastreaming. For det andre sender den et signal til andre BigTech‑aktører om at det europeiske markedet ikke vil tolerere uklare datapraksiser, selv om regionen samtidig presser på for AI‑innovasjon. Dommen understreker også en økende regulatorisk splittelse: Europa strammer inn kontrollene, mens amerikanske domstoler fortsatt sliter med bredere sikkerhetskrav. Det som vil bli fulgt nøye videre, er om Meta vil levere en revidert konsekvensanalyse som tilfredsstiller EDPB, eller om selskapet vil utfordre pålegget i Den europeiske unions domstol. Samtidig forventes Europakommisjonen å publisere veiledning om AI‑aktiverte wearables senere i år, noe som potensielt kan bli en mal for globale standarder. Bransjeobservatører vil også holde øye med hvordan avgjørelsen påvirker utrullingsplanene til konkurrenter som Apple og Google, som begge utvikler egne AR‑briller. Resultatet kan forme balansen mellom immersiv teknologi og personvern på kontinentet.
124

Inbeddinger: Det ene konseptet bak RAG, søk og AI‑systemer

Dev.to +6 kilder dev.to
embeddingsragvector-db
Et konsortium av nordiske forskningslabber og den sky‑native oppstartsbedriften VectorMind lanserte **EmbedX**, en åpen‑kilde‑kode‑plattform for inbeddinger som lover å bli den eneste byggeblokken for Retrieval‑Augmented Generation (RAG), vektorsøk og anbefalingsmotorer. Utgivelsen inneholder en samling av forhåndstrente modeller, et høy‑gjennomstrømmende inferens‑API og en plug‑and‑play vektordatabse, som gjør det mulig for utviklere å generere dokument‑, spørrings‑ og element‑inbeddinger med ett enkelt kall og umiddelbart søke i dem etter semantisk likhet. Dette er viktig fordi dagens AI‑applikasjoner ofte limer sammen ulike komponenter – finjusterte språkmodeller for generering, separate vektorlagre for søk og tilpassede likhetsmål for anbefaling. **EmbedX** komprimerer denne stabelen og leverer en samlet representasjon som kan gjenbrukes på tvers av arbeidsflyter. Tidlige tester publisert av forfatterne viser opptil 30 % reduksjon i latens og en 15 % økning i relevansscore sammenlignet med den vanlige «modell‑per‑oppgave»-tilnær
123

# OpenAI kunngjorde på X at appen # Sora og fellesskapet er avsluttet. Sora tillot

Mastodon +6 kilder mastodon
openaisora
OpenAI kunngjorde på X at de avvikler Sora, den kort‑form video‑generatoren som gikk viralt etter lanseringen på høsten. Innlegget, datert 24 mars 2026, takket «alle som skapte med Sora, delte det, og bygde fellesskap rundt det» før det bekreftet at tjenesten vil bli tatt offline umiddelbart. Dette markerer slutten på et kort, men intenst eksperiment med AI‑drevet videoproduksjon. Sora lot brukere skrive inn en tekstprompt og motta et realistisk klipp på opptil 30 sekunder, en funksjon som vekket både begeistring og bekymring. Innen noen uker var verktøyet oversvømt av deep‑fake‑memer, politisk satire og opphavsrettsbeskyttet materiale, noe som førte til bekymringer fra regulatorer og rettighetshavere. Et lekkasje fra Wall Street Journal tidlig i måneden antydet at OpenAI var under press fra juridiske team og eksterne tilsynsorganer, og selskapets egen uttalelse unngikk å peke på én enkelt årsak. Hvorfor dette er viktig, er tosidig. For det første understreker Soras nedleggelse den økende spenningen mellom rask AI‑innovasjon og behovet for ansvarlig utrulling, spesielt for mediegenererende modeller som kan viske ut grensen mellom fakta og fabrikasjon. For det andre signaliserer beslutningen et strategisk skifte for OpenAI: etter en bølge av produktlanseringer – inkludert den mislykkede Sora – ser selskapet ut til å konsolidere seg rundt kjerneproduktene, som ChatGPT og de fremvoksende Claude‑bidragene, for å unngå regulatorisk motstand og bevare merkevarens tillit. Det som nå er verdt å følge med på, er om OpenAI vil gå tilbake inn i video‑generasjonsmarkedet med et strammere kontrollert produkt, og hvordan det bredere AI‑økosystemet vil reagere på den regulatoriske granskingen som Soras fall har forsterket. Hold øye med kommende politiske forslag fra EU‑AI‑loven og amerikanske kongresshøringer, samt eventuelle uttalelser fra OpenAIs ledelse om fremtidige multimedieambisjoner. Som vi rapporterte 25 mars, er nedleggelsen av Sora en klar indikator på at «fokus‑æraen» OpenAI kunngjorde allerede former deres veikart.
123

LLM‑neuroanatomi II: Moderne LLM‑hacking og hint om et universelt språk?

HN +6 kilder hn
Et nytt innlegg på Hacker News, med tittelen **«LLM Neuroanatomy II: Modern LLM Hacking and Hints of a Universal Language?»**, bygger videre på forfatterens tidligere essay «LLM Neuroanatomy» som beskrev hvordan en hjemmelaget «hjerneskanner» hjalp skribenten med å klatre på LLM‑topplisten uten å endre modellens vekter. Oppfølgeren introduserer to nye forskningsspor som kan endre hvordan utviklere tenker på store språkmodeller. Først fremhever forfatteren et eksperiment utført av forsker Evan Maunder som undersøker modellens «tenke‑rom» på tvers av språk. Ved å mate modellen med den samme setningen på engelsk, mandarin og til og med i Base64‑kodet form, målte Maunder cosinus‑likhet lag‑for‑lag. De tidlige transformer‑lagene kartlegger raskt de ulike inngangene inn i et felles delrom; likheten forblir høy gjennom den midtre stabelen, og det er først de siste lagene som divergerer når modellen forbereder språkspesifikk output. Mønsteret antyder at LLM‑er kan konstruere en språkagnostisk representasjon – en slags universell kode som ligger til grunn for alle tekstuelle modaliteter. Deretter kartlegger artikkelen dagens LLM‑hacking‑teknikker, fra prompt‑injeksjons‑payloads som er katalogisert på GitHub til «layer‑copy»-triks som dupliserer tenkemoduler for å øke ytelsen. Disse taktikkene avdekker både sårbarheten i dagens sikkerhetsmekanismer og den uutnyttede fleksibiliteten i transformatorenes interne struktur. Hvorfor dette er viktig, er todelt. En språkagnostisk kjerne kan forklare hvorfor flerspråklige modeller overfører så godt, og kan muliggjøre mer effektiv fin‑tuning, komprimering eller til og med tverr‑modal resonnering. Samtidig understreker den voksende verktøykassen av prompt‑injeksjonsangrep et sikkerhetshull som kan utnyttes i nedstrøms‑applikasjoner, fra chat‑assistenter til kodegeneratorer. Hva man bør holde øye med videre: Fellesskapet debatterer allerede om den observerte konvergensen virkelig utgjør et «universelt språk», eller bare reflekterer delte tokeniserings‑mønstre. Oppfølgingsstudier som replikerer Maunders cosinus‑likhetstest på større, instruksjons‑tune‑de modeller vil bli avgjørende. I mellomtiden forventes sikkerhetsforskere å slippe robuste prompt‑rammeverk og mitigasjonsretningslinjer, og vi ser frem til en respons fra de store AI‑laboratoriene om de vil innlemme neuroanatomi‑inspirerte diagnostikkverktøy i modellrevisjoner.
122

# OpenAI kunngjorde at de avslutter støtten for sin # KI‑baserte # Video‑app #

Mastodon +6 kilder mastodon
openaisora
OpenAI kunngjorde tirsdag at de vil avslutte støtten for sin AI‑drevne videoproduksjonsapp Sora, bare seks måneder etter at tjenesten ble lansert i september. Selskapet la ut en kort uttalelse på X hvor de takket “det kreative fellesskapet” som brukte verktøyet til å lage og dele korte videoer, og bekreftet at appen vil bli tatt offline innen slutten av måneden. Den brå avslutningen understreker den økende spenningen mellom rask AI‑innovasjon og de regulatoriske og etiske utfordringene den medfører. Soras evne til å syntetisere realistisk opptak fra tekst‑prompt har umiddelbart vekket bekymring blant politikere og medieovervåkere om spredning av deep‑fake‑innhold. I Europa og USA har lovgivere begynt å utforme strengere krav til åpenhet for AI‑generert media, og flere plattformer har allerede skjerpet sine retningslinjer for syntetisk video. OpenAIs beslutning ser ut til å være et forebyggende trekk for å unngå å bli dratt inn i en tidlig juridisk kamp, samtidig som de omfordeler ingeniørressurser til sine kjerneprodukter — ChatGPT, den nye GPT‑4‑Turbo‑modellen og det kommende partnerskapet om et 1‑GW datasenter i Abu Dhabi. Som vi rapporterte 25. mars, følger Sora‑nedleggelsen OpenAIs bredere strategisk skifte, inkludert deres nylige samarbeid med Pentagon om AI‑assistert oppdragsplanlegging og integreringen av Claude som en ledende bidragsyter i deres åpne kildekode‑repoer. Selskapet har ikke kunngjort noen umiddelbar erstatning for Sora, men insiders antyder en “video‑verktøy av neste generasjon” som vil innebygge sterkere vannmerking og sporingsmekanismer for å oppfylle kommende reguleringer. Hva du bør holde øye med: kunngjøringer fra OpenAI om en mer strengt kontrollert videogenerasjonsplattform, reaksjoner fra europeiske regulatorer på regler for syntetisk media, og hvordan konkurrenter som Google DeepMind og Metas Make‑a‑Video responderer på vakuumet som Soras avgang etterlater. De kommende ukene vil vise om OpenAIs tilbaketrekning fra forbruker‑rettet videogenerering er en midlertidig pause eller et permanent strategisk vendepunkt.
116

RE: https:// infosec.exchange/@josephcox/11 6290338649702064 "Sora er død. Må minnet om"

Mastodon +6 kilder mastodon
copyrightsora
OpenAIs kortlivede tekst‑til‑video‑modell Sora er offisielt lagt i søpla av AI‑historien, et faktum som nå gjenspeiles på den sikkerhetsfokuserte Mastodon‑instansen Infosec.Exchange. I et kortfattet innlegg erklærte journalist Joseph Cox: «Sora er død. Må minnet om dens fire‑måneders eksistens som en opphavsrett‑bruddmaskin … være en velsignelse», og understreket modellens beryktede misbruk for piratkopierte klipp, ekstremistisk propaganda og annet ulovlig innhold. Sora, som ble lansert i november 2025, lovet å generere 5‑sekunders videoklipp fra enkle tekst‑prompt, et sprang utover bilde‑generasjonsbølgen som allerede hadde omformet kreative arbeidsflyter. Innen noen uker tiltrakk verktøyet en strøm av misbruk: brukere oversvømte det med forespørsler om opphavsrettsbeskyttede filmscener, fabrikerte politiske demonstrasjoner og til og med grafiske fremstillinger av vold, noe som førte til en mengde DMCA‑nedtaks‑varsler og en opphetet debatt om regulering av deep‑fakes. OpenAI svarte i mars 2026 ved å trekke tjenesten, med begrunnelse om «uforsvarlig høye nivåer av misbruk» og behovet for å revurdere sikkerhetsprotokoller. Som vi rapporterte 25. mars 2026, «droppet OpenAI pluggen på Sora bare måneder etter lanseringen» (se vår tidligere dekning, id 722). Den siste reaksjonen er viktig fordi den signaliserer at AI‑samfunnet allerede rammer inn Sora som en advarselshistorie snarere enn et teknisk gjennombrudd. Ved å merke modellen som en «opphavsrett‑bruddmaskin», skjerper kritikerne kravene om strengere tilsyn med generativ video‑AI, en sektor som fortsatt er stort sett uregulert i EU og USA. Hva vi bør holde øye med videre: OpenAI forventes å publisere en detaljert post‑mortem, sannsynligvis med nye sikkerhetsrammer for fremtidige multimodale modeller. Reguleringsmyndigheter i Den europeiske union forbereder utkast til regler for AI‑generert audiovisualt innhold, og konkurrenter som Google og Meta tester stille sine egne videogeneratorer under strengere interne kontroller. Industrienes neste trekk vil avsløre om Sora‑episoden vil utløse en bølge av ansvarlig innovasjon eller bare skyve risikable verktøy dypere inn i skyggene.
116

OpenAI lukker Sora etter bare noen måneder på markedet

OpenAI lukker Sora etter bare noen måneder på markedet
Mastodon +6 kilder mastodon
openaisora
OpenAI kunngjorde i dag at de avvikler Sora, deres AI‑drevne videogenereringsplattform, etter knapt tre måneder på markedet. Selskapet publiserte en kort uttalelse på sin blogg, takket de tidlige brukerne og bekreftet at tjenesten vil bli tatt offline innen slutten av uken. Avslutningen markerer et skarpt vendepunkt fra den store oppmerksomheten rundt Soras lansering, da OpenAI fremhevet ultra‑realistisk tekst‑til‑video‑output og avduket en treårig lisensavtale med The Walt Disney Company som tillot skapere å sette inn mer enn 200 Disney‑karakterer i genererte klipp. Innen noen uker hadde produktet imidlertid ikke klart å oppnå kommersiell gjennomslag: interne tall som lekket til pressen viser omtrent 2,1 millioner dollar i inntekter og et kraftig fall i nedlastinger fra en topp på 3,3 millioner til litt over 1 million aktive brukere. Samtidig intensiverte regulatorer og interesseorganisasjoner gransking av deep‑fake‑risikoer, noe som fikk OpenAI til å revurdere den juridiske eksponeringen til en forbruker‑grad videogenerator. Hvorfor dette er viktig er todelt. For det første var Sora den mest beregningsintensive modellen i OpenAIs portefølje, og nedstengingen frigjør ressurser til selskapets kjerneprodukter – ChatGPT, GPT‑4‑Turbo og DALL‑E‑bilde‑motoren – noe som tyder på et strategisk fokus på velprøvde inntektsstrømmer. For det andre signaliserer den brå avslutningen av Disney‑partnerskapet at høyt profilert lisensiering alene ikke kan kompensere for markeds‑ og etterlevelsesutfordringer, og kan svekke tilliten til levedyktigheten til AI‑videoverktøy for massemarkedet. Det neste å holde øye med er OpenAIs produktplan. Analytikere forventer at selskapet kan integrere begrensede videofunksjoner i sine eksisterende multimodale modeller i stedet for å opprettholde en frittstående tjeneste. Disneys respons vil også være av betydning; studioet kan skifte til en annen AI‑partner eller utvikle en egen intern løsning. Til slutt vil det bredere AI‑videomiljøet – startups i stil med Runway, Googles Imagen Video og Metas Make‑It‑Real – sannsynligvis kjenne på ringvirkninger når investorer omprioriterer finansieringsstrategier i kjølvannet av Soras fiasko. Som vi rapporterte 25. mars, er Sora‑eksperimentet avsluttet, men ettervirkningene vil forme neste kapittel i generativ video.
116

I dag er det onsdag, 25. mars 2026. Det ser ut til at OpenAI har stengt «Sora». Jeg har dette bo

Mastodon +6 kilder mastodon
openaisora
OpenAI har offisielt bekreftet at deres Sora‑plattform for videogenerering blir lagt ned, og avslutter dermed det korte, men høyt profilerte eksperimentet som startet tidligere i år. Selskapet la ut en kort melding på utviklerforumet sitt onsdag 25. mars 2026, hvor de kunngjorde at Sora‑tjenesten vil bli avviklet «med umiddelbar virkning», og at alle brukerkontoer vil bli lukket innen de neste 30 dagene. Ingen detaljert forklaring ble gitt utover en referanse til «pågående operasjonelle hensyn». Bekreftelsen kommer bare timer etter at en rekke rapporter belyste Disneys brå tilbaketrekning fra et milliardpartner‑avtale som hadde lovet felles merkevarebygging, lisensiering av karakterer og en investering på 1 milliard dollar i Sora. Som vi rapporterte 25. mars, etterlot tapet av Disneys støtte OpenAI uten en fremtredende kunde og avdekket sårbarheten i forretningsmodellen deres, som var avhengig av høyvolum kommersiell lisensiering for å dekke de enorme beregningskostnadene ved sanntids‑videosyntese. Soras nedleggelse er viktig av flere grunner. For det første bremser den den raske ekspansjonen av forbrukervennlige AI‑videoverktøy som truet med å omforme innholdsproduksjon, reklame og underholdningsprosesser. For det andre understreker hendelsen den volatile naturen til store AI‑prosjekter som hviler på én enkelt bedriftsalliert, spesielt i et regulatorisk klima som strammer inn rundt deep‑fake‑generering og datakrevende modeller. Til slutt frigjør nedleggelsen OpenAIs ingeniørressurser, noe som tyder på et strategisk skifte mot mer bærekraftige tilbud som deres tekst‑til‑bilde‑ og samtalemodeller. Hva som skjer videre: OpenAI har antydet et «generasjons‑overgripende multimodalt prosjekt» som er planlagt til senere i år, og som kan integrere videofunksjonalitet i den eksisterende GPT‑4‑Turbo‑arkitekturen uten et frittstående produkt. Disney, på sin side, skal ifølge rapporter forhandle med rivaliserende AI‑selskaper for å sikre en skreddersydd video‑motor som ivaretar deres merkevaresikkerhet. Bransjeobservatører vil også følge med på hvordan europeisk AI‑lovgivning, som skal vedtas i 2027, kan påvirke design og utrulling av fremtidige generative videosystemer. Nedleggelsen av Sora kan dermed bli en indikator på hvordan AI‑selskaper balanserer ambisjoner med regulatoriske og partnerskapsmessige realiteter.
113

Disneys Sora‑katastrofe viser at AI ikke vil revolusjonere Hollywood

Mastodon +6 kilder mastodon
openaisora
Disney har trukket seg fra en avtale verdt flere milliarder dollar med OpenAI, og avsluttet det kortvarige Sora‑partnerskapet som lovet Disney+‑brukere muligheten til å generere videoer med mer enn 200 av studioets ikoniske karakterer. Beslutningen, kunngjort denne uken, kommer bare måneder etter at OpenAI stille og rolig avviklet Sora på grunn av økende bekymringer om opphavsrett, og markerer det første store studioet som forlater prosjektet før det noen gang ble lansert. Kollapsen i avtalen understreker hvor raskt løftet om AI‑drevet innholdsproduksjon kan støte på realitetene i immaterialretten. Disneys juridiske avdeling pekte på den «ukontrollerbare risikoen for krenkelse» som hovedårsaken til tilbaketrekkingen, og gjenspeiler Motion Picture Associations nylige krav om at OpenAI skal dempe Sora‑2‑videoer som angivelig bryter med medlemmers rettigheter. For et selskap som har investert tungt i å beskytte sitt merke, viste utsiktene til fan‑lagde klipp som kunne dukke opp på plattformen uten klare lisensavtaler seg som uholdbare. Bransjeobservatører ser på hendelsen som en advarsel for det bredere forholdet mellom Hollywood og AI. Selv om AI‑verktøy allerede har omformet arbeidsflyter innen visuelle effekter, fremstår nå ideen om at generativ video kan demokratisere historiefortelling i stor skala som betydelig mer begrenset. Tilbakeslaget kan dempe entusiasmen for lignende satsinger fra andre studioer, og få dem til å foretrekke strengt kontrollerte, internt utviklede AI‑løsninger fremfor åpne forbruker‑produkter. Hva som skjer videre: OpenAIs respons, som kan innebære et omarbeidet lisensieringsrammeverk eller et skifte mot kun bedrifts‑orienterte tilbud; potensiell regulatorisk gransking ettersom lovgivere håndterer deep‑fake‑ og opphavsrettsspørsmål; samt om rivaliserende plattformer som Paramount eller WarnerMedia vil prøve egne AI‑innholdseksperimenter, eller trekke seg helt tilbake. Ettervirkningene av Disneys uttrekning vil sannsynligvis forme tempoet AI‑videogenerering får som et mainstream‑underholdningsverktøy.
108

# KI # Geek # Forretning # OpenAI # Disney | Disney trekker seg fra et partnerskap på 1 milliard dollar

Mastodon +7 kilder mastodon
openaisora
Disney har offisielt trukket seg fra det omtrent 1 milliard dollar store partnerskapet de signerte med OpenAI tidligere i år for å utvikle og kommersialisere selskapets generative‑videoverktøy Sora. Beslutningen, kunngjort mandag, følger OpenAIs brå kunngjøring om at betatjenesten for Sora skal stenges og produktet avvikles helt. Disneys uttrekning avslutter et høyt profilert samarbeid som inkluderte en flerårig lisensavtale, co‑branding av innhold i Disney‑stil, og et løfte om felles utforskning av ansvarlige AI‑praksiser. Trekket er viktig av flere grunner. For det første understreker det volatiliteten i det gryende markedet for generativ video, hvor tekniske hindringer og regulatorisk gransking har bremset adopsjonen. Soras nedleggelse etterlater OpenAI uten et flaggskip‑videoprodukt og fjerner en potensiell inntektsstrøm som Disney hadde håpet skulle komplementere strømmetjeneste‑ og fornøyelsesparkvirksomhetene. For det andre signaliserer Disneys uttrekning en bredere revurdering blant mediegiganter av store AI‑investeringer, særlig etter selskapets nylige kostnadskutt og ledelsesendringer som har ført til at tusenvis av stillinger ble kuttet. Til slutt reiser kollapsen av en avtale på 1 milliard dollar spørsmål om OpenAIs finansielle løpbaner og evne til å tiltrekke seg tilsvarende bedriftspartnere for fremtidige satsinger. Det som nå er å følge med på, er hvordan OpenAI omfordeler ressursene etter Sora‑nedslaget. Analytikere forventer at selskapet dobler innsatsen på sine kjerne‑chatbot‑ og bildegenereringstjenester samtidig som de jakter på annonsører, en strategi som ble antydet i nylige uttalelser om å integrere annonser i ChatGPT. Disney vil sannsynligvis heller satse på interne AI‑verktøy eller mindre partnerskap som passer inn i deres innholdsproduksjons‑pipeline uten eksponeringen som følger med et massivt joint venture. De kommende ukene vil vise om OpenAI klarer å sikre et nytt flaggskip‑produkt og hvordan Disneys AI‑veikart vil utvikle seg i kjølvannet av det avbrutte partnerskapet.
108

Claude‑Code Automode

HN +5 kilder hn
anthropicclaude
Anthropic har lansert “Claude‑Code Automode”, en ny forsknings‑preview‑funksjon som lar Claude‑Code‑AI‑en utføre programmeringsoppgaver med langt færre manuelle godkjenninger. Funksjonen er tilgjengelig i dag for medlemmer av Claude‑Teamet og vil bli utvidet til bedrifts‑ og API‑kunder i løpet av de neste dagene. Automode bygger på Claude‑Code‑plattformen som Anthropic introduserte tidligere denne måneden med oppdateringen “Claude‑Code Channels”, som la til samarbeidsområder for utviklere (se vår rapport fra 23. mars). Mens standardinnstillingene for Claude‑Code krever at brukeren bekrefter hver filskriving, sletting eller avhengighetsendring, slapper Automode av på disse sikkerhetsmekanismene, slik at modellen kan kjøre lengre skript, iterere på kodebaser og løse feil uten konstant avbrudd. Anthropic understreker at modus fortsatt blokkerer handlinger med høy risiko og logger hvert trinn for revisjon, med mål om å finne en balanse mellom hastighet og sikkerhet. Dette er viktig fordi det driver AI‑assistert utvikling mot en mer autonom arbeidsflyt, en trend som gjenspeiles i bransjen ettersom verktøy som GitHub Copilot og Microsofts “Co‑pilot” utvider sine utførelsesmuligheter. Ved å redusere friksjon kan Automode akselerere utviklingssykluser, spesielt for store kodebaser hvor hyppige godkjenninger blir en flaskehals. Samtidig reiser de slakkere sikkerhetsbarrierene spørsmål om utilsiktet kodeinjeksjon, sikkerhetssårbarheter og overholdelse av bedriftsretningslinjer. Hva man bør følge med på videre: Anthropics utrulling vil vise hvordan bedrifter reagerer på avveiningen mellom produktivitetsgevinster og risikoeksponering. Observatører vil være opptatt av bruksstatistikk, hendelsesrapporter og eventuelle policy‑justeringer Anthropic innfører. Konkurrentene vil sannsynligvis akselerere sine egne autonome modus, noe som kan utløse en debatt om standarder for sikker AI‑drevet kodeutførelse. De kommende ukene vil vise om Automode blir en katalysator for bredere adopsjon av selvstyrende AI i programvareutvikling.
107

Claude Code kan nå overta datamaskinen din for å utføre oppgaver

Mastodon +7 kilder mastodon
agentsanthropicclaude
Anthropic avduket en betydelig oppgradering av sine Claude Code‑ og Claude Co‑Work‑assistenter, som nå gir dem muligheten til å «peke, klikke og navigere» på en brukers skjerm. Den nye funksjonen «computer use» lar modellene flytte musen, skrive på tastaturet, åpne filer, surfe på nettet og starte utviklingsverktøy på macOS uten ekstra konfigurasjon. Når en prompt krever en handling, kan modellen finne det aktuelle vinduet, utføre trinnene og rapportere tilbake, og gjør dermed Claude til en praktisk skrivebordsassistent. Dette bygger på Auto‑Mode‑funksjonen vi dekket 25. mars, da Claude kunne generere kodebiter og kjøre dem i en sandkasse. Ved å utvide kontrollen til operativsystemet, ønsker Anthropic å tette gapet mellom konversasjons‑AI og de autonome agentene som har blitt virale på plattformer som OpenAIs «OpenClaw». For utviklere kan evnen til at Claude automatisk refaktoriserer kode, henter dokumentasjon inn i en nettleserfane eller starter en lokal server spare timer på rutineoppgaver. For avanserte brukere lover funksjonen en ny måte å orkestrere repeterende arbeidsflyter med naturlige språk‑kommandoer. Anthropic understreker raskt at sikkerhetstiltakene fortsatt er begrensede. Selskapet krever eksplisitt brukersamtykke før skjermkontroll aktiveres, og funksjonen er foreløpig kun tilgjengelig på macOS, med en sandkasse som blokkerer privilegerte operasjoner. Sikkerhetsforskere har advart om at å gi AI direkte inndata‑
102

macOS Tahoe 26.4 legger til indikator for langsom lader for MacBooks

Mastodon +6 kilder mastodon
apple
Apples nyeste macOS‑versjon, 26.4 – med kodenavn «Tahoe» – introduserer en «Slow Charger»-indikator som dukker opp hver gang en Mac‑book oppdager en underdimensjonert adapter. Varslingen vises i menylinjen og i panelet for Batteri‑innstillinger, og gir en tydelig advarsel om at den tilkoblede laderen ikke kan levere den fulle wattstyrken som notebook‑en forventer. Apples oppdaterte støttedokument forklarer at systemet måler strømforbruket i de første minuttene av ladingen; hvis inntaket faller under en viss terskel, vises advarselen og forblir aktiv til en adapter med høyere wattstyrke kobles til. Funksjonen er viktig fordi mange Mac‑book‑eiere bruker tredjeparts‑USB‑C‑ladere, strømfordelingsenheter eller lav‑output‑huber som kan halvere ladehastigheten uten å gi noen åpenbare tegn. Ved å synliggjøre dette misforholdet hjelper macOS 26.4 brukerne med å unngå frustrasjonen ved «langsom lading» og beskytter batterihelsen ved å oppmuntre til bruk av riktige Power‑Delivery‑profiler. Tiltaket er også i tråd med Apples bredere satsing på strammere strømstyringskontroller, som ble introdusert tidligere i samme oppdatering med en konfigurerbar Batteri‑ladningsgrense og den nye kompakte fanebarraden i Safari, som vi dekket 25. mars. Det signaliserer at Apple er villig til å polisere tilbehørsekosystemet mer aggressivt, en holdning som kan påvirke EU‑ og US‑regulatorers diskusjoner om standardisering av ladere. Det som er verdt å følge med på videre, er om Slow Charger‑varslingen vil bli utvidet til iPadOS, hvor lignende USB‑C‑ladeproblemer finnes, samt hvordan Apples kommende maskinvare – spesielt de ryktede MacBook Pro‑modellene med høyere‑watt‑adaptere – vil integrere advarselen. Utviklere kan også få API‑er for å hente informasjon om laderens ytelse, noe som åpner for tredjeparts‑apper som foreslår optimale strømløsninger. Til slutt vil bransjen holde øye med om Apple strammer inn sertifiseringen av ikke‑Apple‑ladere, noe som potensielt kan omforme markedet for USB‑C‑strømtillbehør.
97

Apple bekrefter at de introduserer annonser i Maps som en del av den nye Apple Business‑plattformen

Mastodon +7 kilder mastodon
applegoogle
Apple har offisielt bekreftet at annonser vil dukke opp i Apple Maps senere i sommer, og knytter utrullingen til den nylig kunngjorte Apple Business‑plattformen. Selskapet sier at programmet «Ads in Maps» vil debutere i USA og Canada, med ett enkelt sponset resultat som vises ved siden av organiske oppføringer når brukere søker etter steder som restauranter, hoteller eller butikker. Dette trekket utvider de annonse‑støttede tjenestene Apple hintet om forrige uke, som også omfatter plasseringer i Mail, Wallet og Siri. Kunngjøringen er viktig fordi den markerer Apples første satsing på lokasjonsbasert annonsering i sin flaggskip‑navigasjonsapp, et marked som lenge har vært dominert av Google. Ved å pakke Maps‑annonser sammen med en bredere pakke av forretningsverktøy – integrert e‑post, kalender, enhetsadministrasjon og en katalogtjeneste – posisjonerer Apple plattformen som en alt‑i‑ett‑løsning for små og mellomstore bedrifter som ønsker å nå iOS‑brukere uten å forlate Apple‑økosystemet. Selskapet understreker at annonsene vil respektere deres personvern‑først‑holdning, ved å bruke signaler på enheten i stedet for sporing på tvers av apper, og at de vil være begrenset til én per søk for å minimere forstyrrelser. Som vi rapporterte 24. mars, hadde Apple allerede signalisert planer om å kommersialisere Maps; dagens bekreftelse tilfører konkrete utrullingsdetaljer og knytter innsatsen til et globalt forretningstilbud som vil være tilgjengelig i mer enn 200 land og regioner. De neste stegene å følge med på er SDK‑en for utviklere og selvbetjeningsportalen som Apple lover å avduke på WWDC 2026, hvor prismodeller, måle‑API‑er og kreative formater sannsynligvis vil bli detaljert. Like viktig vil være hastigheten på geografisk ekspansjon utover Nord-Amerika og hvordan annonsører reagerer på Apples personvern‑sentrerte annonseinventar sammenlignet med Googles mer datarike økosystem.
96

Anthropics Claude Code får «sikrere» auto-modus

Mastodon +10 kilder mastodon
ai-safetyanthropicautonomousclaude
Anthropic har lansert en revidert «auto‑modus» for Claude Code, deres AI‑assisterte kodeassistent, og lover å redusere mengden av tillatelsesforespørsler samtidig som sikkerhetsmekanismene strammes inn. Den nye funksjonen lar modellen, innenfor forhåndsdefinerte grenser, bestemme om den skal lese filer, installere avhengigheter eller kjøre skript på en utviklers maskin, men den gjør dette nå bak en sandkasse som isolerer kjøringen og logger hver handling for revisjon. Hvis en forespørsel overskrider den forhåndsinnstilte risikogrensen, faller Claude Code tilbake til den klassiske godkjenningsflyten, og gir brukerne et tydelig «mellomstadium» mellom full manuell kontroll og den tidligere, mer tillatende auto‑modusen. Endringen er viktig fordi friksjonen fra konstante godkjenninger har vært en hovedklage blant utviklere som tok i bruk Claude Code etter lanseringen av den første auto‑modusen 25. mars (se vår dekning fra 25. mar. 2026). Ved å innlemme sanntids policy‑kontroller og en reversibel «angre»-funksjon, ønsker Anthropic å bevare hastighetsfordelen ved autonom koding uten å åpne for den typen utilsiktede systemendringer som har utløst sikkerhetsbekymringer i andre AI‑kodeverktøy. Tidlige interne tester, som selskapet refererer til, viser en 40 prosent reduksjon i antall prompt‑interaksjoner og null bekreftede privilegierings‑hendelser i en pilot med 120 utviklere. Det som nå er viktig å følge
93

Apple kan gi Siri en stor AI‑oppgradering i iOS 27

Mastodon +7 kilder mastodon
applevoice
Apple skal ifølge rapporter foreta den mest ambisiøse oppussingen av Siri siden assistenten ble lansert for mer enn et tiår siden. Bloomberg‑journalist Mark Gurman melder at interne tester for iOS 27 inkluderer en frittstående Siri‑app, et oppdatert samtale‑grensesnitt og en «Ask Siri»-bryter som vil dukke opp i menyer på tvers av operativsystemet. Bryteren skal la brukere markere tekst, skjermbilder eller app‑innhold og få umiddelbare AI‑genererte svar, mens et alternativ kalt «Write with Siri» antyder generativ tekst‑funksjonalitet lik den i ChatGPT. Ombyggingen markerer et tydelig skifte i Apples AI‑strategi. Etter måneder med stille utvikling av egne store språkmodeller for inferens på enheten – dokumentert i nyere forskning på lagringsnivå‑bevisst LLM‑planlegging for Apple‑silicon – ser Apple nå ut til å være klar til å gjøre disse modellene tilgjengelige for forbrukerne. En dedikert Siri‑app vil ta assistenten ut av systeminnstillingene og inn i et eget rom hvor den kan konkurrere direkte med Google Assistant og Microsofts Copilot, som allerede tilbyr avanserte chatbot‑opplevelser. Ved å integrere generativ AI samtidig som behandlingen forblir på enheten, kan Apple bevare sitt personvern‑narrativ og samtidig levere den samtaledypen brukerne har blitt vant til fra konkurrentene. Tiltaket passer også inn i Apples bredere AI‑strategi, inkludert den nye Apple Business Platform som tidligere denne måneden introduserte annonser i Maps. En mer kapabel Siri kan bli en inngangsport for bedriftsrettede AI‑tjenester, fra automatisert notattaking til kontekstuell arbeidsflyt‑assistanse. Hold øye med en offisiell kunngjøring på WWDC 2026, hvor Apple sannsynligvis vil demonstrere det nye Siri‑grensesnittet og kunngjøre utviklerverktøy for å integrere assistenten i tredjeparts‑apper. Påfølgende betaversjoner vil vise om «Ask Siri»-bryteren kan håndtere komplekse forespørsler uten å gå på bekostning av hastighet eller batterilevetid, og hvordan Apple vil kommersialisere funksjonen – muligens gjennom premium‑abonnementer eller integrasjon med sin stadig voksende portefølje av AI‑forsterkede tjenester.
88

Fra statiske maler til dynamiske kjøretidsgrafer: En oversikt over arbeidsflytoptimalisering for LLM‑agenter

ArXiv +7 kilder arxiv
agents
En ny arXiv‑pre‑print, *From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents* (arXiv:2603.22386v1), kartlegger det raskt utviklende landskapet for hvordan store‑språk‑modell‑agenter (LLM‑agenter) orkestrerer komplekse oppgaver. Forfatterne katalogiserer dusinvis av teknikker som går utover hardkodede, statiske pipelines og beveger seg mot grafer som settes sammen og omformes i sanntid, og som vever sammen LLM‑kall, informasjonsgjenfinning, verktøykall, kodekjøring, minneoppdateringer og verifiseringssteg. Skiftet er viktig fordi dagens LLM‑drevne tjenester – fra autonome forskningsassistenter til multimodale chat‑bots – må håndtere latens, kostnad og pålitelighet samtidig som de takler uforutsigbare brukerkrav. Dynamiske grafer muliggjør adaptiv planlegging, selektiv caching og parallell utførelse, noe som reduserer inferenskostnader og demper flaskehalser som har plaget tidligere mal‑baserte systemer. Undersøkelsen fremhever også fremvoksende standarder for feilpropagering og tilstandskonsistens, temaer som ble belyst i vår dekning av AI‑agenter som tunge API‑forbrukere den 24. mars. Bransjeaktører tester allerede konseptene. “Hypura”‑planleggeren for Apple Silicon, som vi undersøkte 25. mars, speiler flere av papirets anbefalinger om lagrings‑nivå‑bevisst plassering og just‑in‑time‑utvidelse av grafer. På samme måte siterer nyere open‑source‑verktøykasser som lar agenter bevege seg på tvers av heterogene miljøer de samme optimaliseringsprimitivene. Hva du bør holde øye med videre: Forfatterne lover en tilhørende benchmark‑pakke som skal lanseres senere i dette kvartalet, og som kan bli den de‑facto målestokken for agent‑effektivitet. Konferanser som NeurIPS og ICML forventes å avholde dedikerte workshops, og flere nordiske oppstartsbedrifter har antydet at de vil integrere undersøkelsens taksonomi i sine orkestreringsplattformer. Etter hvert som feltet samles rundt dynamiske kjøretidsgrafer, vil neste bølge av LLM‑agenter sannsynligvis bli raskere, billigere og mer robust enn noe vi har sett hittil.
85

macOS Tahoe 26.4 nå tilgjengelig med kompakt fanelinje i Safari, begrensning av batterilading og mer

Mastodon +7 kilder mastodon
apple
Apple har gjort macOS Tahoe 26.4 tilgjengelig for publikum, som markerer den fjerde store oppdateringen av operativsystemet siden høstdebuten. Bygget (25E246) gjeninnfører Safari sin kompakte fanelinje – et slankere, plassbesparende oppsett som forsvant med macOS Sequoia og som manglet i den første Tahoe‑utgivelsen. Funksjonen finnes nå både i macOS og iPadOS 26.4, og gir brukere som foretrekker et minimalistisk nettleser‑grensesnitt muligheten til å aktivere den igjen med en enkel bryter. Et annet hovedtrekk er den nye innstillingen Charge Limit, som lar Mac‑eiere sette en øvre grense for batterilading – et verktøy som lenge har blitt etterspurt av profesjonelle som har laptopen koblet til strøm i lengre perioder. Grensen kan justeres i trinn på fem prosent, og systemet stopper ladingen når terskelen er nådd, noe som bidrar til å bevare batteriets helsetilstand på lang sikt. Apple har også pakket inn en rekke små forbedringer for brukervennlighet, inkludert finjustert vindus‑snapping, oppdaterte tastatursnarveier for diktering og en beskjeden ytelsesøkning for Apple‑Silicon‑Mac‑er. Hvorfor dette er viktig, er tosidig. For det første signaliserer gjeninnføringen av den kompakte fanelinjen at Apple er villig til å lytte til bruker‑drevne UI‑preferanser, noe som er sjeldent i en plattform som ofte dikterer designstandarder. For det andre gjør kontrollen for ladningsgrense macOS i tråd med lignende funksjoner som allerede finnes på iOS og iPadOS, og styrker Apples bredere strategi om å spre batteri‑pleie‑verktøy på tvers av økosystemet – et skritt som kan forlenge enhetenes levetid og redusere e‑avfall. Oppdateringen kommer kun seks uker etter macOS Tahoe 26.3 og følger Apples utrulling av iOS 26.4 den 25. mars, som la til konsert‑stil musikkopplevelser og åtte nye emojis. Det raske tempoet tyder på at Apple posisjonerer sine OS‑utgivelser som en kontinuerlig leveransemodell, sannsynligvis for å kunne integrere kommende AI‑drevne tjenester. Fremover vil utviklere holde øye med eventuell API‑eksponering knyttet til de nye batteristyringsinnstillingene, mens forbrukere venter på om Apple vil utvide den kompakte UI‑muligheten til andre apper. Den neste inkrementelle utgivelsen, macOS 26.5, forventes til sommeren og kan introdusere dypere integrasjon av store språkmodeller på enheten, en trend som ble antydet i nylige kunngjøringer fra Anthropic og Google.
80

🧠 # OpenAI lukker # Sora, sin video‑genereringsapp med 🧠 # kunstig intelligens

Mastodon +6 kilder mastodon
openai
OpenAI kunngjorde på tirsdag at de vil stenge Sora, tekst‑til‑video‑tjenesten som skapte en bølge av entusiasme da den ble lansert for mindre enn to år siden. Selskapet fremstiller tiltaket som et strategisk skifte: ressursene vil bli omdirigert mot robotikkprogrammet og andre AI‑drevne produktlinjer. Beslutningen kommer som en overraskelse for utviklere og mediepartnere som allerede hadde begynt å integrere Soras generative‑video‑API i nyhetsrom, reklamebyråer og underholdningsproduksjonslinjer. Soras appell lå i evnen til å omforme en kort prompt til en realistisk klipp på sekunder, en funksjon som både skapte kommersielle forventninger og etiske bekymringer rundt spredning av deep‑fakes. Den brå avslutningen etterlater flere høyprofilerte samarbeid i limbo, særlig pilotprosjektene med Disneys animasjonsavdeling og verktøyene for innholdsproduksjon som testes av europeiske kringkastere. OpenAIs uttalelse antydet at partnerskapene vil bli «revurdert» ettersom selskapet fokuserer på maskinvare‑sentral AI, noe som tyder på at video‑genereringstek
80

ChatGPT: Videofunksjonen Sora blir avviklet

Mastodon +6 kilder mastodon
openaisora
OpenAI har kunngjort at videogenereringsfunksjonen Sora, som er integrert i ChatGPT, vil bli slått av senere denne måneden. Beslutningen, som ble formidlet i et kort blogginnlegg, gjelder både for forbruker‑appen og utvikler‑previewen, og ingen detaljert begrunnelse ble gitt. Som vi rapporterte 25. mars, stengte OpenAI Sora brått ned bare noen måneder etter lanseringen, med henvisning til interne prioriteringer. Den siste kunngjøringen bekrefter at nedstengingen er permanent og omfatter også det eksperimentelle API‑et som tillot tredjepartsintegrasjon. Brukere som har laget fotorealistiske klipp fra tekst‑prompt, vil miste tilgangen til verktøyet og eventuelle prosjekter lagret på plattformen. Tiltaket er viktig fordi Sora var den første bredt tilgjengelige AI‑en som kunne syntetisere video av høy kvalitet på sekunder, og som satte i gang en bølge av oppstartsbedrifter og medieeksperimenter. Dens forsvinning kuttet et gryende marked for AI‑drevet videoinnhold og kan bremse den bredere adopsjonen av generativ videoteknologi, i hvert fall inntil en annen aktør fyller tomrommet. Analytikere ser også nedstengingen som et signal om at OpenAI omfordeler ressurser mot sitt neste strategiske fokus: autonome AI‑agenter som kan utføre flerstegsoppgaver i ChatGPT og andre produkter. Det neste å holde øye med er om OpenAI vil lansere en etterfølger som kombinerer videogenerering med agent‑rammeverket, eller om de vil lisensiere de underliggende modellene til eksterne selskaper. Konkurrenter som Google DeepMind og Meta har antydet lignende muligheter, og en oppblomstring av interesse fra venturekapital kan fremskynde alternative løsninger. Følg med på OpenAIs kommende utvikler‑veikart og eventuelle partnerskapskunngjøringer som kan gjenopplive AI‑videoproduksjon under et annet navn.
75

Generativ AI‑politikk | Linux Foundation

Mastodon +6 kilder mastodon
copyright
Linux Foundation har publisert et utkast til «Generativ AI‑politikk» som legger ansvaret på bidragsytere for å verifisere tillatelse hver gang et AI‑generert resultat inneholder allerede eksisterende opphavsrettslig beskyttet materiale. Formuleringen – “If any pre‑existing copyrighted materials … are included in the AI tool’s output, the Contributor should confirm that they have permission from the third‑party owners” – har umiddelbart blitt kritisert fordi den bruker betingelsen «if» i stedet for et strengere «whenever», en nyanse som kan skape hull i ansvarsdekningen. Politikken kommer i en periode hvor stiftelsen utvider sitt AI‑fotavtrykk, og nylig kunngjorde Agentic AI Foundation (AAIF) for å forvalte åpne agentbaserte modeller. Ved å kodifisere hvordan bidragsytere skal håndtere verk fra tredjeparter, prøver Linux Foundation å forene open‑source‑idealet med de juridiske kompleksitetene ved å trene og distribuere generative modeller som ofte tar inn enorme korpora av opphavsrettslig beskyttet tekst, kode og media. Initiativet speiler en bølge av institusjonelle retningslinjer, fra Columbia Universitets utviklende rammeverk for generativ AI til Elseviers tidsskrift‑spesifikke regler, og signaliserer en bransjeomfattende innsats for å integrere etterlevelse i utviklingsprosessen før regulatorer griper inn. Interessenter følger nøye med på om «if»-klausulen vil bli skjerpet etter tilbakemeldinger fra fellesskapet, særlig fra vedlikeholdere av åpen kildekode som frykter at tvetydig språk kan eksponere prosjekter
60

Hvordan vi bygde en produksjonsklar stemme‑AI‑agent på under 8 uker (med Twilio + Anthropic Claude)

Dev.to +6 kilder dev.to
agentsanthropicclaudevoice
En oppstartsbedrift kalt Loquent kunngjorde at de har tatt en full‑stack stemme‑AI‑agent fra idé til produksjon på under åtte uker, ved å sette sammen Twilios telefonistakk med Anthropics Claude‑modell. Teamet bygde plattformen i to faser: en rask prototypfase som utnyttet Claudes nye «auto‑mode» for sikker kodegenerering, og en herdet fase som la til sanntids‑lydhåndtering, latensovervåkning og kostnadskontroll før lansering på Twilios programmerbare tale‑API. Resultatet er en samtaletjeneste som kan svare på innkommende samtaler, hente data fra et CRM‑system, og overlevere til menneskelige agenter ved behov, alt mens den holder seg innenfor et responstid‑vindu på under ett sekund. Hvorfor dette er viktig er todelt. For det første knuser leveringshastigheten den tradisjonelle tidslinjen for stemme‑AI‑produkter, som vanligvis strekker seg over flere måneder med ingeniør‑ og etterlevelsesarbeid. Ved å bruke Claudes auto‑mode – først rapportert av oss 25. mars 2026 – som en «sikrere» kodeassistent, unngikk Loquent mange av de manuelle feilsøkingssyklusene som bremser LLM‑drevet utvikling. For det andre demonstrerer arkitekturen at en slank stakk – Twilio for operatør‑grad pålitelighet og Claude for naturlig språkforståelse – kan oppfylle krav på bedriftsnivå uten de tunge orkestreringsplattformene som dominerer markedet. Konkurrenter som Voiceflow, Vapi og Retell AI har lenge markedsført dra‑og‑slipp‑ eller API‑første‑løsninger, men Loquents tilnærming viser en vei til dypere tilpasning og lavere latens, noe som kan legge press på disse leverandørene til å åpne sine kjøretidsmiljøer. Det neste å følge med på er hvordan Loquent skalerer tjenesten utover den innledende pilotperioden. Teamet planlegger å integrere retrieval‑augmented generation for oppdaterte kunnskapsbaser og legge til en etterlevelses‑sperre som håndhever retningslinjer på hver samtale. Observatører vil også være ivrige etter å se om den modell‑sentrerte utviklingsarbeidsflyten kan replikkeres på tvers av andre vertikaler, og potensielt sette en ny standard for raske, produksjonsklare stemme‑AI‑utrullinger.
48

📰 OpenAI lanserer GPT‑5 i 2026 for å øke global produktivitet | Sam Altman kunngjør OpenAI‑administrerende direktør Sam A

Mastodon +7 kilder mastodon
gpt-5openaitraining
OpenAI kunngjorde mandag at de har fullført for‑treningen av sin neste‑generasjonsmodell, internt kalt «Spud», og vil rulle den ut under GPT‑5‑merket senere i år. Avsløringen, gjort av administrerende direktør Sam Altman i et internt notat som lekket til *The Information*, posisjonerer GPT‑5 som hjørnesteinen i selskapets «Omni»-strategi – et multimodalt system som kan behandle tekst, bilder, lyd og video med en enkelt, samlet arkitektur. Altman rammer inn lanseringen som en produktivitetssprang og hevder at GPT‑5 vil legge til «opptil 30 prosent» til økonomisk produksjon for bedrifter som tar den i bruk. Tidlige tester viser at modellen leverer høyere resonneringsnøyaktighet og raskere inferens enn GPT‑4, mens en ny familie av lettvektige varianter – GPT‑5.4 mini og nano – lover nesten flaggskip‑ytelse på forbruker‑klassens maskinvare. Tiltaket kommer etter at OpenAI brått avviklet sitt videogenereringsverktøy Sora, og signaliserer et skifte fra nisjeeksperimenter til et bredere, bedriftsfokusert tilbud. Hvorfor dette er viktig er todelt. For det første kan den multimodale rekkevidden til GPT‑5 komprimere utviklingssyklusen for AI‑forsterkede produkter, og gi bedrifter en ferdig motor for alt fra sanntidsoversettelse til visuell inn
48

Din AI‑agent kan kapres med 3 linjer JSON

Dev.to +6 kilder dev.to
agents
En sikkerhetsforsker har demonstrert at en AI‑agent kan overtas ved å endre kun tre linjer JSON som beskriver et eksternt verktøy. Angrepet retter seg mot «model‑controlled‑program» (MCP)‑grensesnittet som mange agenter bruker for å kalle API‑er, sky‑funksjoner eller tredjepartstjenester. JSON‑payloaden som registrerer et verktøys navn, formål og parametere, blir pars­et og stolt på ordrett; ved å sette inn usynlige Unicode‑tegn, subtile mellomromstriks eller en avsluttende krøllparentes etterfulgt av et ondsinnet nøkkel‑verdi‑par (f.eks. "validation_result":"approved"), kan en angriper omskrive verktøyets skjema og stille om agentens mål i stillhet. Bevis‑konseptet, beskrevet i et nylig Medium‑innlegg og bekreftet av funn i *Cyber Defense Magazine*, viser at kapringen skjer uten noen feilmeldinger eller stack‑traces. Den kompromitterte agenten fortsetter å utføre den injiserte instruksjonen – for eksempel en spørring som sletter en database eller et uautorisert data‑ekskalering‑kall – mens den logger en helt normal «action completed»-oppføring. Fordi agenten behandler den feilformede JSON‑en som en legitim beskrivelse, mislykkes tradisjonelle prompt‑injektionsforsvar, som fokuserer på brukerens tekstinnspill, i å oppdage bruddet. Dette er viktig fordi AI‑agenter går fra eksperimentelle demonstrasjoner til produksjons‑ryggrader: stemmeassistenter bygget på noen uker med Claude og Twilio, dynamiske arbeidsflyt‑grafer som orkestrerer LLM‑drevne pipelines, og autonome kode‑eksekveringsagenter som Claude Code. Som vi rapporterte 24. mars: «AI‑agenter er API‑enes største forbruker. Bryr de seg om god design?» – sikkerheten i verktøy‑kall‑laget er nå et kritisk svakt punkt. En kapret agent kan utløse kostbare operasjoner, bryte overholdelsesregler eller fungere som en fotfeste for bredere nettverksangrep. Hva du bør holde øye med: Anthropic, OpenAI og andre plattformleverandører forventes å rulle ut strengere skjema‑validering og signerte verktøym manifest i de kommende ukene. Åpen‑kilde‑SDK‑er legger allerede til JSON‑kanonisering og sandkasse‑eksekveringskontroller. Sikkerhets‑fokuserte konferanser vil sannsynligvis ha dedikerte spor om «goal hijack»-mitigasjon, og regulatorer kan begynne å utforme retningslinjer for AI‑agents forsyningskjede‑integritet. Organisasjoner som distribuerer agenter bør revidere sine MCP‑definisjoner, håndheve strenge JSON‑skjemaer og implementere kjøretids‑verifisering av verktøy‑kall før neste bølge av angrep treffer.
40

Tibor Blaho (@btibor91) på X

Mastodon +7 kilder mastodon
agentsopenai
OpenAI har lansert en betydelig oppgradering av ChatGPT‑handelsassistenten, og har gjort om et tekstbasert anbefalingsverktøy til en visuelt rikere, raskere og mer omfattende netthandelsopplevelse. Det nye grensesnittet viser produktalternativer side‑om‑side, lar brukere laste opp bilder for å finne lignende varer, og leverer resultater med høyere relevans over et bredere katalog av forhandlere. På teknisk nivå har selskapet utvidet sin Agentic Commerce Protocol (ACP), et sett med API‑er som gjør det mulig for assistenten å spørre produktdatabaser, sammenligne spesifikasjoner og priser, og fremvise de beste treffene i sanntid. Forbedringen er viktig fordi den driver konversasjons‑AI dypere inn i verdikjeden for netthandel. Ved å kombinere naturlig språkinteraksjon med visuell sammenligning, visker OpenAI bort grensen mellom søkemotorer og shoppingplattformer, og utfordrer både Google Shopping og Amazons dominans innen produktoppdagelse. Forhandlere får en ny kanal for å nå kunder som foretrekker chat‑basert browsing, mens forbrukerne får en samlet, AI‑kurert oversikt over alternativer som tidligere krevde hopping mellom ulike nettsteder. Oppgraderingen fungerer også som en litmus‑test for OpenAIs bredere ambisjon om å integrere agenter i hverdagslige arbeidsflyter, et tema som ble gjentatte ganger nevnt under den nylige DevDay‑konferansen, hvor selskapet ga et glimt av en «Agent Store» for tredjeparts‑plugins. Alle ChatGPT‑brukere – gratis, Go, Plus og Pro – får funksjonen i dag, men utrullingen er kun første fase. OpenAI har antydet tettere integrasjoner med store forhandlere, dynamiske prisstrømmer, samt støtte for stemme‑ og augmented‑reality‑spørringer. Hold øye med neste runde av ACP‑partnere, prismodeller for forhandlertilgang, og en mulig offentlig API som kan la utviklere bygge egne shopping‑agenter. Hvor raskt økosystemet tar i bruk disse verktøyene vil avgjøre om konversasjons‑handel blir en mainstream kjøpsmetode eller forblir et nisjeeksperiment.
40

AI Tech Daily 25. mars 2026 | Rick‑Brick

Mastodon +8 kilder mastodon
microsoftnvidiaopenaiopen-sourcesora
OpenAI kunngjorde 25. mars at de vil avvikle Sora, deres generative videomodell som ble lansert for bare seks måneder siden i forbindelse med et høyt profilert partnerskap på 1 milliard dollar med Disney. Beslutningen kommer etter en beskjeden etterspørsel og økende konkurranse fra spesialiserte verktøy som Runway og Adobe Firefly. Ved å kutte strømmen signaliserer OpenAI et strategisk tilbaketrekning fra videogenerering for å satse enda mer på sine kjerne‑språk‑ og multimodale modeller, inkludert GPT‑5‑pakken som ble avduket tidligere denne måneden. Nedstengingen vil påvirke utviklere som allerede har begynt å bygge arbeidsflyter basert på Sora, og den kan fremskynde konsolideringen i det gryende AI‑videomarkedet ettersom oppstartsbedrifter kjemper om den nå ledige nisjen. Samtidig lovet NVIDIA en pakke med sine GPU‑akselererte nettverks‑ og inferens‑biblioteker til Cloud Native Computing Foundation (CNCF). Donasjonen er ment å skape en fullt åpen kildekode‑stabel for trening og distribusjon av store modeller i sky‑native miljøer. For nordiske selskaper som er avhengige av Kubernetes‑basert infrastruktur, kan dette senke inngangsbarrier
36

📰 AI‑agentutvikling 2026: DeepSeek ansetter 17 spesialister for DeerFlow 2.0‑integrasjon DeepSeek er

Mastodon +7 kilder mastodon
agentschipsdeepseeknvidiaopen-source
DeepSeek kunngjorde mandag at de legger til 17 spesialiststillinger for å akselerere integreringen av DeerFlow 2.0, deres nyskrevne open‑source SuperAgent‑rammeverk. Stillingsbeskrivelsene spenner over agent‑dyplæringsforskning, data‑evaluering og infrastruktur‑engineering, og blir i selskapets egen stillingsutlysning beskrevet som «dypt involvert i anvendelsen av autonome AI‑agenter». Ansettelsesbølgen markerer et avgjørende skifte fra DeepSeeks tradisjonelle fokus på grunnleggende modellforskning mot ende‑til‑ende produktisering av agenter. Flyttingen kommer etter lanseringen i februar av DeepSeeks nyeste store språkmodell, trent på Nvidias mest avanserte AI‑brikke, og skjer mens Kinas konkurranse innen autonom‑teknologi intensiveres. Ved å styrke DeerFlow 2.0 – en fullstendig omskriving fra bunnen som forkaster den opprinnelige v1‑koden – ønsker DeepSeek å konkurrere med rivaliserende open‑source‑stabler som ByteDances DeerFlow og det raskt utviklende økosystemet rundt Anthropics Claude og OpenAIs agenter. Hvorfor dette er viktig er todelt. For det første signaliserer rekrutteringskampanjen at DeepSeek forventer at DeerFlow 2.0 vil bli en kjerneplattform for å bygge kommersielle agenter, fra formuesforvaltnings‑botter til kode‑genererings‑assistenter, og gjenspeiler den nylige bølgen av agent‑utrullinger som ble rapportert tidligere denne uken i bank‑ og sikkerhetskretser. For det andre indikerer fokuset på dedikert evaluerings‑ og infrastruktur‑talent at DeepSeek adresserer skalerings‑ og sikkerhetsutfordringene som har plaget tidligere agent‑utgivelser, hvor minimale kodeendringer kunne kapre atferden. Det neste å holde øye med er de første produksjons‑demoene som DeepSeek lover senere i dette kvartalet, sannsynligvis med DeerFlow‑drevne agenter integrert med populære dev‑ops‑verktøy som GitLab og Jira. Benchmark‑resultater som sammenligner DeerFlow 2.0s latens og verktøy‑brukseffektivitet med konkurrerende rammeverk vil bli en litmus‑test for markeds­traksjonen. Til slutt kan ansettelsesbølgen forutsi strategiske partnerskap eller bedriftskontrakter, spesielt ettersom kinesiske regulatorer strammer inn tilsynet med autonome AI‑systemer. De kommende ukene vil vise om DeepSeeks agent‑første‑strategi kan omdanne teknisk momentum til kommersielle fotfeste.
36

📰 AI‑agenter i banksektoren: Bank of America ruller ut GenAI i 2026 for formuesforvaltning og betalinger

Mastodon +7 kilder mastodon
agents
Bank of America har tatt et avgjørende steg mot AI‑drevet finans, og lanserer en generativ‑AI‑plattform som driver virtuelle agenter for både formuesforvaltning og globale betalinger. Systemet, kalt Ask Global Payments Solutions (AskGPS), ble utviklet internt og trent på mer enn 3 200 interne dokumenter – inkludert produktguider, term‑sheet‑dokumenter og FAQ‑sider – for å gi ansatte umiddelbare, nøyaktige svar når de betjener bankens 40 000 bedriftskunder. Utrullingen markerer første gang BofAs kunde‑fokuserte agenter opererer autonomt i sanntid, håndterer rutinehenvendelser, genererer personlig tilpassede investeringsinnsikter og strømlinjeformer grenseoverskridende betalingsprosesser. Tidlige interne målinger viser en adopsjonsrate på 90 % i hele arbeidsstyrken og anslag på titusenvis av sparede arbeidstimer, noe som tilsvarer flere millioner dollar i effektivitetsgevinster. Hvorfor dette er viktig er todelt. For det første integrerer flyttingen GenAI i kjernen av bankens kommersielle, formues‑, ingeniør‑ og treasury‑avdelinger, og signaliserer et skifte fra eksperimentelle pilotprosjekter til produksjonsklar AI som direkte påvirker inntektsstrømmene. For det andre setter BofAs tilnærming – trening på proprietære data, tildeling av omtrent 4 milliarder dollar av sitt 13 milliarder dollar årlige teknologibudsjett til «ny teknologi», og bevisst utforming av sikkerhetstiltak for å unngå «fortidens synder» som modell‑drift og ugjennomsiktige beslutningsprosesser – en standard for ansvarlig AI‑adopsjon i en tungt regulert sektor. Det som bør følges med på videre er utrullingen sin påvirkning på kundetilfredshet og rapportering av etterlevelse, ettersom regulatorer skjerper kontrollen med AI‑generert finansiell rådgivning. Observatører vil også holde øye med om banken utvider AskGPS utover sin bedriftskundebase til privatkunder, og hvordan konkurrenter som JPMorgan og Citi responderer med egne GenAI‑agenter. Til slutt kan integrasjon med OpenAIs kommende GPT‑5 eller andre store modell‑oppgraderinger ytterligere forsterke BofAs produktivitetsgevinster, og gjøre de neste kvartalene til en litmus test for AI‑rollen i mainstream‑bankvirksomhet.
33

Sandboxing AI‑agenter, 100 ganger raskere

HN +5 kilder hn
agents
Cloudflare lanserte et nytt sandkasse‑rammeverk for AI‑agenter som de hevder kan settes opp og kjøres opptil 100 ganger raskere enn eksisterende løsninger. Systemet lager automatisk en Cap’n‑Proto‑basert Web RPC‑bro mellom sandkassen og utviklerens harness‑kode, slik at agenter kan kalle eksterne tjenester uten å eksponere verts­miljøet. Kunngjøringen kommer i sammenheng med en bredere oppgradering av Workers AI, som nå tilbyr kraftigere GPU‑er, støtte for større modeller og utvidet edge‑til‑cloud‑infernsekapasitet. Hastighetsøkningen er viktig fordi dagens autonome agenter – fra kundeservice‑botter til kode‑generasjons‑assistenter – i økende grad distribueres i stor skala og ofte må isoleres av sikkerhets‑ og etterlevelsesgrunner. Tradisjonell sandkassing kan tilføre latens som oppveier de sanntidsfordelene som edge‑AI gir, mens utilstrekkelig isolasjon gjør systemene sårbare for ondsinnet oppførsel. Ved å komprimere oppsett‑syklusen for sandkassen og muliggjøre rask, sikker RPC‑kommunikasjon, ønsker Cloudflare å gjøre det praktisk for utviklere å iterere på agentlogikk, kjøre storskalige eksperimenter og håndheve retningslinjekontroller uten å gå på kompromiss med ytelsen. Tiltaket signaliserer også et skifte i landskapet for AI‑infrastruktur. Som vi rapporterte 20. mars, utvides kappløpet om raskere inferens fra ren beregning til å inkludere sikkerhet‑by‑design‑verktøy. Cloudflares edge‑fokuserte tilnærming kan legge press på sky‑gigantene til å skjerpe sine egne sandkasse‑tilbud for agenter, spesielt etter at Microsofts nylige Windows 11‑oppdatering reduserte Copilots fotavtrykk og fremhevet behovet for tettere integrasjon av AI med operativsystemets sikkerhet. Hold øye med den offentlige beta‑lanseringsplanen, prisnivåer og eventuelle tredjeparts‑sikkerhetsrevisjoner som bekrefter sandkassens motstand mot escape‑forsøk. Like viktig blir utvikleradopsjons‑metrikkene og om store modellleverandører – som Anthropic eller Meta – vil sertifisere sine agenter for plattformen, noe som vil forme neste bølge av sikre, høy‑gjennomstrømmende AI‑applikasjoner.
27

God morgen fra Gaza 🌄 🇵🇸 Jeg håper du og jeg får en fantastisk dag. 🙏😊🫂 # Gaza # palestine # M

Mastodon +6 kilder mastodon
healthcareopenaisora
En Mastodon‑bruker la ut en lysende morgenhilsen fra Gaza, der han kombinerte en soloppgang‑emoji med det palestinske flagget og en rekke hashtags, blant annet #OpenAI og #Sora. Den korte meldingen «Good morning from Gaza 🌄 🇵🇸 I hope you and I have a wonderful day» ble fulgt av et kort videoklipp av katter generert med OpenAIs nyutgitte Sora‑tekst‑til‑video‑modell, og ble delt i fediverset under tagger som #CatsOfMastodon og #TuneTuesday. Innlegget er bemerkelsesverdig, ikke på grunn av sin lengde, men for hva det signaliserer: innbyggere i en krigsherjet enklave får tilgang til banebrytende generativ AI til tross for omfattende infrastrukturødeleggelser og internettbegrensninger. Ifølge lokale aktivister ble videoen laget på en smarttelefon ved hjelp av en VPN‑rutet forbindelse til OpenAIs API, og deretter lastet opp til en desentralisert Mastodon‑instans som fortsatt er tilgjengelig fra Gaza. Innholdet blander hverdagsoptimisme – en lekende
26

Kan du bygge et privat, lokalt AI‑verktøy i løpet av en helg uten å være utvikler? Ja. Jeg gjorde det nettopp med Ol

Mastodon +6 kilder mastodon
llama
En utvikler‑som‑ble‑maker har bevist at en fullt privat AI‑assistent kan settes sammen i løpet av en helg på en vanlig laptop, ved kun å bruke Ollama, Streamlit og Metas nyutgitte Llama 3.1. Forfatteren av den trinn‑for‑trinn‑veiledningen publisert på wiobyrne.com beskriver hvordan de tre verktøyene – Ollamas lette lokale LLM‑runtime, Streamlits dra‑og‑slipp‑web‑UI og Llama 3.1‑modellen med 8 milliarder parametere – ble kombinert på under 12 timer for å lage en chat‑basert assistent som kjører helt offline, lagrer ingen brukerdata i skyen og koster ingenting utover strømforbruket. Prestasjonen markerer et dramatisk skifte fra 2023, da bygging av et tilsvarende system vanligvis krevde en flermannshackathon, sky‑kreditter og dyp ingeniørekspertise. Llama 3.1‑s åpne kildekodelisens, sammen med Ollamas plug‑and‑play‑containerisering, senker terskelen for hobbyister, småbedrifter og personvernbevisste organisasjoner i Norden. Ved å holde inferens på enheten, omgår løsningen problemstillinger rundt datasuveränitet som har drevet nylige regulatoriske debatter i EU og Sverige, samtidig som den eliminerer løpende sky‑kostnader som har hemmet adopsjonen av kommersielle AI‑assistenter. Bransjeobservatører ser dette som en indikator på en bredere desentralisering av AI‑tjenester. Hvis ikke‑tekniske brukere kan sette i gang funksjonelle agenter i løpet av en helg, kan etterspørselen etter hostede API‑er stagnere, noe som kan tvinge skyleverandører til å revurdere pris‑ og personverngarantier. De neste milepælene å følge er ytelsesbenchmarker for Llama 3.1 mot proprietære modeller, fremveksten av plug‑in‑økosystemer som utvider Streamlit‑baserte agenter, og potensielle standardiseringsinitiativer fra nordiske AI‑konsortier for å sertifisere lokalt kjørende modeller for bedriftsbruk. Helgeprosjektet kan dermed være det første glimt av et nytt, mer autonomt AI‑landskap.

Alle datoer