AI News

948

OpenAI stänger ner Sora‑appen

OpenAI stänger ner Sora‑appen
HN +9 källor hn
openaisora
OpenAI meddelade på tisdagen att de kommer att avveckla Sora, den kortformat‑videogenereringsappen som lanserades för sex månader sedan. Företaget publicerade ett kort meddelande på X, tackade skaparna och bekräftade att både konsumentappen och den professionella internettjänsten för filmbranschens användare kommer att stängas ner inom några veckor. Sora kom med stor pompa som en TikTok‑liknande plattform som gjorde det möjligt för vem som helst att producera AI‑genererade klipp utifrån textpromptar, och visade OpenAIs satsning på kreativa verktyg bortom text och bild. Dess snabba uppgång väckte entusiasm bland innehållsskapare och oro bland regulatorer, som varnade för att lättillgängligt syntetiskt video kan förstärka riskerna för deepfakes och belasta resurserna för moderering. Nedstängningen, som genomfördes utan förklaring, tyder på att experimentet stötte på tekniska, säkerhetsmässiga eller kostnadsmässiga problem som övervägde den tidiga hypen. Beslutet är betydelsefullt eftersom det signalerar en omkalibrering av OpenAIs produktstrategi. Efter en kostsam lansering av ChatGPT‑plugins och en våg av företagsavtal verkar företaget skärpa sitt fokus på tjänster med högre marginaler och striktare säkerhetskontroller. Att lägga ner Sora tar också bort en högprofilerad demonstration av OpenAIs videogenereringsförmåga, vilket potentiellt ger konkurrenter som Googles Gemini Video, Metas Make‑it‑Real och framväxande startups som riktar sig mot samma skaparmarknad ett försprång. Vad man bör hålla ögonen på härnäst: om OpenAI kommer att återanvända Soras underliggande modell för integration i ChatGPT eller i den kommande företagsserien, samt hur företaget kommer att
478

OpenAI planerar att avveckla stödet för Sora

OpenAI planerar att avveckla stödet för Sora
HN +7 källor hn
openaisora
OpenAI meddelade att de kommer att upphöra med allt stöd för Sora, deras kortformatplattform för AI‑genererade videor, senast i slutet av kvartalet. Beslutet omfattar konsumentappen, det utvecklarinriktade API‑et och videogenereringsfunktionen som är inbäddad i ChatGPT. Anställda fick beskedet att åtgärden är slutgiltig, utan någon plan på att återuppta tjänsten eller flytta användare till ett alternativt erbjudande. Avvecklingen markerar en skarp vändning efter Soras högprofilerade lansering förra året, som marknadsfördes som en TikTok‑liknande konkurrent som kunde skapa licensierade klipp utifrån textpromptar. Projektet lockade ett engagemang på 1 miljard dollar från Disney, men underhållningsjätten drog tillbaka sin investering tidigare i månaden när OpenAI signalerade en nedtrappning. Förlusten av Disneys stöd, i kombination med svag användning och ökande juridisk granskning kring upphovsrättsskyddat material och deep‑fake‑bekymmer, verkar ha vänt väggen. För utvecklare innebär förlusten av Sora‑API:t att ett sällsynt verktyg för snabb videoprototypning försvinner, vilket tvingar dem att återgå till långsammare, traditionella produktionskedjor eller söka alternativ hos konkurrenter som Metas Make‑It‑Real eller Googles Gemini Video. OpenAIs bredare strategi lutar nu mot text‑centrerade modeller och det automatiserade forskarprojektet som lyftes fram i vår rapport den 24 mars, vilket tyder på att företaget konsoliderar resurser kring produkter med högre marginal. Håll utkik efter hur OpenAI omfördelar den budget som avsatts
335

OpenAI stänger ner Sora: Slutet på allt större experiment

OpenAI stänger ner Sora: Slutet på allt större experiment
Mastodon +7 källor mastodon
openaisora
OpenAI meddelade på tisdagen att de lägger ner Sora, deras experimentella AI‑videogenerator, vilket markerar ett avgörande skifte i företagets strategi. Beslutet avslutar ett treårigt partnerskap med Disney som gjorde det möjligt för användare att skapa scener med upp till tvåhundra AI‑genererade karaktärer, och det kommer efter en våg av kritik kring deep‑fake‑risker och “AI‑skräp”‑innehåll. Stängningen signalerar att OpenAI drar sig bort från konsumentinriktade, showcase‑liknande produkter och i stället fokuserar på intäktsgenererande tjänster för utvecklare och företag. Analytikern Eva‑Maria Weiß skriver att företaget nu vill att ekosystemet ska “betala räkningarna” genom att integrera generativ‑videofunktionalitet i den bredare API‑sviten snarare än att upprätthålla en fristående app. Beslutet speglar också ett ökande konkurrenstryck: rivaler som Google DeepMind och Meta lanserar egna multimodala modeller, samtidigt som regulatorer skärper granskningen av syntetiska medier. För användarna innebär nedstängningen att Soras webbgränssnitt och tillhörande API:er försvinner i slutet av månaden, utan någon migrationsväg till en betald nivå. Existerande projekt måste exporteras eller byggas om med alternativa verktyg. OpenAI har inte avslöjat om den underliggande modellen kommer att återanvändas internt eller integreras i kommande releaser, inklusive den nylanserade GPT‑5, som lovar en tätare multimodal integration. Det som blir intressant att följa är om OpenAI kommer att paketera videogenerering i sina företagslösningar, hur de prissätter funktionen och hur snabbt konkurrenterna fyller det tomrum som Sora lämnar. Företagets nästa offentliga uttalanden om API‑planer, samt eventuella regulatoriska åtgärder mot syntetiska medier, kommer att visa om pivoten kan omvandlas till hållbar tillväxt eller bara blir ett tillbakadragande från ett överambitiöst experiment. Som vi rapporterade den 25 mars är Sora‑nedstängningen det senaste kapitlet i OpenAIs snabba omorientering mot en B2B‑först-modell.
334

OpenAI stänger brutalt ner Sora, den dyraste slop‑fabriken i AI‑historien

OpenAI stänger brutalt ner Sora, den dyraste slop‑fabriken i AI‑historien
Mastodon +7 källor mastodon
openaisora
OpenAI meddelade på torsdagen att de stänger ner Sora, den högprofilerade AI‑videogenereringstjänsten som lanserades i september 2025. Företaget uppgav att plattformens ”massproducerade videoproduktion kostar en förmögenhet, och ingen hållbar väg till lönsamhet har framkommit.” Beslutet avslutar också ett treårigt partnerskap med Disney på 1 miljard dollar som gav tillgång till mer än 200 licensierade karaktärer. Som vi rapporterade den 25 mars hade Disney redan börjat dra sig ur avtalet efter växande oro över okontrollerade deepfakes och den flod av lågkvalitativt, engångsinnehåll som Sora spottade ut. Den plötsliga nedstängningen bekräftar att satsningen var oh
318

OpenAI stänger ner Sora efter att den kämpat för att undvika ett upphovsrättsintrångsmässa! Är detta början?

OpenAI stänger ner Sora efter att den kämpat för att undvika ett upphovsrättsintrångsmässa! Är detta början?
Mastodon +8 källor mastodon
copyrightopenaisora
OpenAI meddelade på tisdagen att de permanent stänger av Sora, deras AI‑generator för korta videoklipp, bara tre månader efter att de skrev under ett flerårigt partnerskap med Disney för att använda studions karaktärer. Företaget publicerade ett kort meddelande på X: ”Vi säger adjö till Sora.” I samma andetag bekräftade de att Disney har dragit sig ur den miljard‑dollar‑investeringen som låg till grund för lanseringen, med hänvisning till ”olösta upphovsrättsrisk‑bekymmer” och appens ”oförmåga att på ett tillförlitligt sätt filtrera intrångsinnehåll.” Stängningen markerar den snabbaste återgången av en högprofilerad produkt i OpenAIs historia. Sora debuterade för sex månader sedan med en viral presentation av AI‑skapade klipp, vilket placerade företaget som en potentiell ledare inom automatiserad videoproduktion. Tekniken hade dock svårt att
312

Lokal LLM‑app från Ente

Lokal LLM‑app från Ente
HN +6 källor hn
privacy
Ente har lanserat Ensu, en konsumentinriktad app som kör en stor språkmodell helt på användarens enhet. Den första versionen levereras för macOS och iOS, med en Android‑beta planerad till senare i detta kvartal. Ensu paketerar en kompakt transformer‑modell – optimerad för Apples Neural Engine och Qualcomm:s Hexagon DSP – bakom ett stilrent chattgränssnitt, samtidigt som alla frågor och svar hålls på enheten. Användare kan också aktivera funktionen “Remote Tunnel” som vidarebefordrar modellens inferens till en personlig Cloudflare‑hostad endpoint, vilket låter dem avlasta tunga beräkningar utan att exponera data för tredjeparts‑API:er. Lanseringen markerar ett påtagligt skifte från de molnbaserade AI‑tjänster som dominerar marknaden. Genom att hålla modellen lokalt lovar Ente noll‑kunskaps‑integritet, lägre latens och möjlighet att fungera offline – egenskaper som tilltalar integritetsmedvetna konsumenter och företag som är försiktiga med risken för dataläckor. Steget understryker också den snabba mognaden av tekniker för modellkomprimering; en modell med 7 miljarder parametrar som tidigare krävde ett serverklass‑GPU nu ryms inom en smartphones minnesbudget. Detta följer vår tidigare rapportering om hobbyister som byggde privata, lokala AI‑verktyg på en helg med Ol, vilket visar att inträdesbarriären faller från specialist till massmarknad. Det som blir intressant härnäst är ekosystemet
297

OpenAI avbryter Sora och deras miljonavtal med Disney

OpenAI avbryter Sora och deras miljonavtal med Disney
Mastodon +8 källor mastodon
openaisora
OpenAI meddelade på tisdagen att de lägger ner Sora, deras generativa videoplattform, och att det multimiljon‑dollar‑partnerskap de hade ingått med Disney nu är ogiltigt. Företaget sade att beslutet är slutgiltigt och att alla Sora‑tjänster kommer att tas offline inom några veckor, vilket avslutar det kortlivade experimentet som inleddes med en högprofilerad lansering förra året. Beslutet markerar en skarp vändning från OpenAIs tidigare satsning på konsumentinriktad video‑AI. Sora, som marknadsfördes som en “TikTok‑liknande” app där användare kunde ladda upp promptar och få AI‑genererade klipp, fick snabbt uppmärksamhet från både skapare och Hollywood, vilket fick Disney att skriva under en strategisk allians som lovade gemensam utveckling av AI‑förstärkt innehåll och exklusiva distributionsrättigheter. Partnerskapet sågs som ett testfall för hur traditionella medieföretag kan utnyttja storskaliga generativa modeller för att producera ny IP till lägre kostnad. OpenAIs tillbakadragande är betydelsefullt av flera skäl. För det första signalerar det ett skifte bort från hög‑risk‑, låg‑marginal‑konsumentprodukter till mer lönsamma företagslösningar som ChatGPT Enterprise och licensiering av skräddarsydda modeller. För det andra tar förlusten av Disneys stöd bort ett starkt varumärkesgodkännande som kunde ha påskyndat branschens antagande av AI‑videoverktyg. För det tredje väcker nedläggningen frågor om hållbarheten för AI‑genererat media under befintliga upphovsrätts‑ och deep‑fake‑regler, frågor som redan har dragit till sig granskning från både europeiska och amerikanska lagstiftare. Vad som är värt att hålla ögonen på härnäst: OpenAI förväntas fördubbla sina satsningar på sina kärnmodeller för språk och bild, vilket potentiellt kan påskynda lanseringen av nästa generations GPT‑5. Disney har samtidigt antytt att de kan utveckla egna AI‑kapaciteter internt, vilket pekar mot ett möjligt samarbete med en konkurrerande leverantör. Analytiker kommer också att följa om andra mediejättar, såsom Warner Bros. Discovery eller Netflix, kliver in för att fylla det vakuum som den avbrutna Disney‑OpenAI‑samarbetet lämnat. Som vi rapporterade den 25 mars hade OpenAI redan signalerat att Sora var på väg att avslutas; dagens tillkännagivande bekräftar att projektet nu är helt avskrivet.
280

Vad Soras uppgång och plötsliga fall betyder för OpenAI, Disney och AI‑video

Vad Soras uppgång och plötsliga fall betyder för OpenAI, Disney och AI‑video
Forbes +40 källor 2026-03-25 news
openairoboticssora
OpenAI:s beslut att stänga ner Sora, deras flaggskeppsmodell för text‑till‑video, har förvandlat ett högprofilerat partnerskap med Disney till en offentlig klyfta. Beslutet följer en privat demonstration sommaren 2025 där Sora producerade ett 60‑sekundersklipp i 4K‑upplösning, vilket fick Disney att lova en investering på 1 miljard USD och att placera tekniken i centrum för deras nästa generations innehållspipeline. I början av mars 2026 meddelade OpenAI avbokningen och hänvisade till olösta tekniska hinder samt stigande beräkningskostnader, och Disney meddelade att de drog sig ur avtalet. Som vi rapporterade den 25 mars signalerade Disneys utträde slutet på det som hade marknadsförts som ett ”millennie‑era”‑samarbete mellan Hollywood och generativ AI. Konsekvenserna är betydelsefulla på tre fronter. För det första blottlägger de bräcklighet i affärsmodeller för AI‑video som är beroende av enorm, proprietär träning av världsliknande modeller; utan en tydlig väg till kostnadseffektiv skalning tvekar även välbemedlade partners. För det andra har grupper som försvarar skaparnas rättigheter utnyttjat nedstängningen för att kräva starkare skydd mot otillåten användning av upphovsrättsskyddat bildmaterial, en debatt som kan forma framtida reglering av generativ media. För det tredje omformar händelsen konkurrenslandskapet: Anthropic och andra startups med riskkapitalstöd vänder sig nu till Disney och andra studior, medan OpenAI verkar fokusera om på text‑ och bildgenerering snarare än att expandera till video. Det som blir intressant att följa är om OpenAI återupplivar Sora i en mer slimmad form, hur Disney omfördelar sin AI‑budget — möjligen mot interna verktyg eller rivaliserande leverantörer — och hur lagstiftare i EU och USA svarar på det ökande trycket för transparens och rättsskydd i AI‑genererad video. Det kommande kvartalet kommer att visa om Sora‑sagan blir en varningsnotering eller en katalysator för en ny våg av standarder för generativ filmproduktion.
Forbes — https://www.forbes.com/sites/moinroberts-islam/2026/03/25/what-soras-rise-and-su www.tradingkey.com — https://www.tradingkey.com/analysis/stocks/us-stocks/251391172-walt-disney-opena marylandoutdoorclub.org — https://marylandoutdoorclub.org/article/disney-ditches-openai-deal-after-sora-sh ciclopiemonte.com — https://ciclopiemonte.com/article/disney-ditches-openai-deal-after-sora-shutdown jeunesse2000.org — https://jeunesse2000.org/article/disney-ditches-openai-deal-after-sora-shutdown- asuiteatkitsilanocottage.com — https://asuiteatkitsilanocottage.com/article/disney-ditches-openai-deal-after-so CBS News — https://www.msn.com/en-us/news/technology/openai-pulls-the-plug-on-its-sora-ai-v CNBC — https://www.msn.com/en-us/money/companies/openai-shutters-short-form-video-app-s HN — https://www.hollywoodreporter.com/business/digital/openai-shutting-down-sora-ai- HN — https://variety.com/2026/digital/news/openai-shutting-down-sora-video-disney-123 HN — https://arstechnica.com/ai/2026/03/openai-plans-to-shut-down-sora-just-15-months HN — https://twitter.com/soraofficialapp/status/2036546752535470382 HN — https://www.cnbc.com/2026/03/24/openai-shutters-short-form-video-app-sora-as-com HN — https://www.reuters.com/technology/openai-set-discontinue-sora-video-platform-ap Mastodon — https://neopaquita.es/@Shine_McShine/116289430804917987 Mastodon — https://social.vivaldi.net/@lamdba/116289000104999523 Mastodon — https://mastodon.social/@lowyat/116288992203707219 Mastodon — https://post.lurk.org/@fcr/116289639576191628 Mastodon — https://fed.brid.gy/r/https://www.rappler.com/technology/openai-shut-down-sora-a Mastodon — https://masto.ai/@panterapolnocy/116289646491201082 Mastodon — https://halo.nu/@theguardian_us_technology/116288802972565252 Mastodon — https://mastodon.social/@maquinari_cat/116288957020359623 Mastodon — https://mastodon.social/@pafurijaz/116289294284528312 Mastodon — https://zdrojak.cz/zpravicky/openai-vypina-aplikaci-sora/ Mastodon — https://mastodon.social/@WinFuture/116289142403658416 Mastodon — https://mastodon.ozioso.online/@ItalianNews/116288880089973783 Mastodon — https://anonsys.net/display/bf69967c-2cd3e45c-479fe0cf8c18b9b2 Mastodon — https://ard.social/@tagesschau/116289027590377594 Mastodon — https://toot.earth/@PetaPixel/116286455993988500 Mastodon — https://fed.brid.gy/r/https://fumettologica.it/2026/03/disney-openai-sora-accord Mastodon — https://social.macg.co/@macgeneration/116289075826710458 NPR — https://www.npr.org/2026/03/25/g-s1-115055/openai-pulls-the-plug-on-sora-the-vir Mastodon — https://infosec.exchange/@AAKL/116290536912001076 Mastodon — https://fraxoweb.social/@frank/116290229875721992 Mastodon — https://fed.brid.gy/r/https://filmstories.co.uk/news/openai-axes-sora-its-ai-vid Mastodon — https://infosec.exchange/@AAKL/116290505718166286 Mastodon — https://shrk.crystalsky.dev/notes/01KMJVVQ216BFF3W52RHHTV1BJ Mastodon — https://fed.brid.gy/r/https://cordcuttersnews.com/openai-pulls-the-plug-on-sora- Mastodon — https://c.im/@arstechnica/116290403871672991 Mastodon — https://mastodon.social/@winbuzzer/116290467599563731
278

Den så kallade #OpenAI dödar #sora. Kanske kan normies äntligen börja se att #AI

Den så kallade #OpenAI dödar #sora. Kanske kan normies äntligen börja se att #AI
Mastodon +7 källor mastodon
climategoogleopenaisora
OpenAI har officiellt dragit ur strömmen till Sora, deras mycket omtalade text‑till‑video‑modell, och bekräftar den plötsliga nedstängning som först antyddes i företagets meddelande den 25 mars om att tjänsten skulle avvecklas och det multimiljon‑dollar‑partnerskapet med Disney skulle kollapsa. Företaget har tagit bort Sora från sitt API‑katalog, inaktiverat webbappen och skickat ett kort e‑postmeddelande till de återstående användarna där de meddelade att utvecklingen hade “omprioriterats” på grund av “resursbegränsningar”. Beslutet är betydelsefullt eftersom Sora var OpenAIs flaggskepps‑försök att föra generativ AI bortom text och bilder och in i rörliga bilder – en funktion som presenterades som en ny frontier för annonsörer, kreatörer och underhållningsstudior. Dess bortgång avslutar inte bara ett högprofilerat samarbete med Disney, utan signalerar också en bredare omkalibrering av OpenAIs produktstrategi. Analytiker ser beslutet som ett svar på ökande kostnadstryck, långsammare än väntad adoption av hög‑beräknings‑videogenerering och en avkylning av den spekulativa “AI‑bubblan” som drivit uppblåsta värderingar i branschen. Investerare omvärderar redan OpenAIs tillväxtutsikter. Företagets senaste resultatpresentation antydde att resurser kommer att omdirigeras mot “o1”-resonemangsmotorn och nästa iteration av GPT, som lovar högre värde för företagskunder snarare än rubrikfångande mediedemonstrationer. Samtidigt accelererar konkurrenter som Google DeepMind och Anthropic sina egna multimodala färdplaner i hopp om att ta över den marknadsandel som Sora lämnar efter sig. Vad man bör hålla ögonen på härnäst: påverkan på OpenAIs balansräkning och eventuella omförhandlingar med Disney, tidslinjen för lanseringen av o1‑serien och huruvida nedstängningen kommer att leda till ett bredare återdrag från ambitiösa generativa‑videoprojekt i hela branschen. En förflyttning mot mer pragmatiska, intäktsgenererande AI‑verktyg kan omforma finansieringsmönstren för startups som satsat på videofronten.
267

OpenAI går in i sin Fokus‑Era genom att lägga ner Sora

Mastodon +10 källor mastodon
openaisora
OpenAI meddelade på tisdagen att de kommer att pensionera Sora, den AI‑drivna videogenereringsappen som lanserades förra året, vilket markerar ett avgörande skifte mot det företaget kallar sin “Fokus‑Era”. Beslutet fattas i samband med att OpenAI förbereder en börsnotering och omfördelar resurserna till en enda, enhetlig AI‑assistent samt en svit av företagsklassade kodverktyg. Soras nedläggning följer en kort, turbulent period: tjänsten lanserades med stor pompa, säkrade ett flerårigt partnerskap med Disney för att animera ikoniska karaktärer, och drogs sedan tillbaka bara tre månader senare. OpenAI hänvisade till ökande beräkningskostnader, ett strategiskt skifte mot robotik och behovet av att konsolidera sin produktportfölj som de främsta orsakerna till åtgärden. Stängningen är betydelsefull på flera fronter. För kreatörer tar den bort ett av de få konsumentklara verktygen som kan generera helvideor från textpromptar, vilket försnävar klyftan som konkurrenter som Runway och Metas Make‑It‑Real tävlar om att fylla. För investerare är signalen tydlig: OpenAI avyttrar perifera experiment för att visa upp en stramare, intäktsgenererande stack inför sin börsnotering, en berättelse som byggts sedan rapporterna den 25 mars om Soras nedgång. Framöver kommer marknaden att hålla ett öga på den formella börsansökan, som förväntas senare detta kvartal, samt på lanseringen av den lovade enhetliga assistenten som ska förena chatt-, bild‑ och kodfunktioner under ett enda gränssnitt. Lika kritiskt blir OpenAIs framsteg inom robotik – deras första större hårdvarufokuserade satsning sedan förvärvet av talang med anknytning till Boston Dynamics – och hur de omfördelar den beräkningsbudget som frigörs genom Soras avslut. De kommande månaderna kommer att avslöja om “Fokus‑Era” omvandlas till hållbar tillväxt eller bara blir en omprofilering av en redan dominerande AI‑plattform.
260

OpenAI drar ur Sora bara månader efter lanseringen https:// fed.brid.gy/r/https://www.rol

OpenAI drar ur Sora bara månader efter lanseringen https:// fed.brid.gy/r/https://www.rol
Mastodon +7 källor mastodon
openaisora
OpenAI meddelade på tisdagen att de “säger adjö” till Sora, den kortformat‑AI‑videotjänst som lanserades i slutet av 2023. Företaget postade ett kortfattat meddelande på X, där de lovade att släppa verktyg som låter användare exportera de klipp de redan skapat, men utan någon tidsram för en fullständig avveckling. Beslutet kommer bara sex månader efter Soras offentliga lansering och knappt tre månader efter att OpenAI tecknade ett flerårigt licensavtal med Disney för att inkludera studions karaktärer i genererade videor. Den plötsliga nedstängningen understryker den volatila naturen på den gryande marknaden för AI‑genererade videor. Sora blev snabbt en brännpunkt för djupfalsknings‑bekymmer, vilket fick tillsynsmyndigheter i Europa och USA att utfärda varningar om oidentifierad syntetisk media. Samtidigt visade tjänsten sig vara ekonomiskt krävande; tidigare rapportering beskrev den som “den dyraste AI‑slop‑fabriken i historien”. Disneys återdrag från partnerskapet – rapporterat den 25 mars – tyder på att affärsmodellen redan var under press. Vad som händer härnäst kommer att forma både OpenAIs produktstrategi och det bredare ekosystemet för AI‑videoverktyg. Analytiker kommer att följa om OpenAI omdirigerar Soras teknik till sin kärnplattform ChatGPT eller lanserar ett mer strikt kontrollerat erbjudande som tillfredsställer licenspartner och regulatorer. Disneys uttalande om att de kommer att “hitta sätt att sälja slop någon annanstans” antyder en möjlig intern lösning eller ett skifte till en annan AI‑leverantör. Samtidigt är konkurrenter som Runway, Metas Make‑It‑Real och framväxande europeiska startups sannolikt på jakt efter den förflyttade användarbasen. Nästa kommunikation från OpenAI, förväntad inom några dagar, bör klargöra planer för databevarande och ge en hint om företagets långsiktiga vision för generativ video. Som vi rapporterade den 25 mars, omformar Sora‑sagan redan förväntningarna på AI‑drivna kreativa tjänster.
244

Finjustering vs Prompt‑engineering: En praktisk teknisk jämförelse för moderna AI‑system

Finjustering vs Prompt‑engineering: En praktisk teknisk jämförelse för moderna AI‑system
Dev.to +7 källor dev.to
fine-tuningrag
En gemensam vitbok som släppts den här veckan av Nordiska AI‑institutet och molntjänstdivisionen hos en ledande europeisk telekomleverantör erbjuder den första systematiska, produktionsklassade jämförelsen av finjustering och prompt‑engineering för dagens stora språkmodeller. Författarna utvärderade tre flaggskepps‑LLM:er – Claude‑3, Gemini‑1.5 och Llama‑3 – över tio verkliga uppgifter som sträcker sig från extraktion av juridiska klausuler till kreativ copywriting. Resultaten visar att prompt‑engineering kan matcha finjusterad noggrannhet på generiska uppgifter samtidigt som den ger en 70 % minskning av utvecklingstiden och upp till 60 % lägre beräkningskostnad. För starkt specialiserade domäner, däremot, presterade modeller som finjusterats på några tusen kuraterade exempel konsekvent bättre än de bäst konstruerade promptarna, och nådde upp till 99,1 % extraktionsnoggrannhet i ett bankdokument‑bearbetningsbenchmark. Studien är viktig eftersom företag nu tvingas välja mellan två konkurrerande optimeringsvägar som har mycket olika operativa fotavtryck. Prompt‑engineering bevarar den ursprungliga modellen, kringgår integritetsfrågor kring data och möjliggör snabb A/B‑testning, men kräver kontinuerligt underhåll av promptarna i takt med att användningsfallen utvecklas. Finjustering inbäddar domänkunskap permanent, förenklar nedströms‑pipeline‑processer på bekostnad av högre initial datamärkning, längre träningscykler och striktare krav på modellstyrning. I takt med att AI‑budgetar stramas åt i Norden kommer kostnads‑nyttoanalysen som presenteras i papperet att forma produktplaner, särskilt för sektorer som finans, sjukvård och offentlig förvaltning där regulatorisk efterlevnad driver behovet av reproducerbart och auditabelt beteende. Vad som är värt att hålla ögonen på härnäst: författarna tillkännager ett open‑source‑verktyg som kombinerar de två tillvägagångssätten, automatiskt genererar uppgiftsspecifika promptar och sedan tillämpar lättviktig parameter‑effektiv finjustering (PEFT) där vinsterna planar ut. Tidiga adoptörer, inklusive ett svenskt försäkringsbolag och en dansk e‑regeringsportal, planerar pilotprojekt för Q3. Branschanalytiker kommer att följa om hybrida arbetsflöden blir de‑facto‑standard, vilket potentiellt kan få molnleverantörer att ompröva prismodeller för prompt‑körtid kontra finjusteringsberäkning
230

RAG vs Finjustering — Vad som faktiskt fungerar i produktion (2026)

RAG vs Finjustering — Vad som faktiskt fungerar i produktion (2026)
Dev.to +7 källor dev.to
fine-tuningrag
En ny produktionsklassad guide som släpptes den här veckan av AI‑ingenjören Umesh Malik presenterar hårt förvärvade lärdomar från ett år av att bygga live‑LLM‑tjänster för kunder inom e‑handel, finans och telekom. Rapporten, med titeln ”RAG vs Finjustering — Vad som faktiskt fungerar i produktion (2026)”, samlar in telemetri från dussintals utrullningar och argumenterar för att det binära valet mellan Retrieval‑Augmented Generation (RAG) och finjustering inte längre är realistiskt. Istället har hybrid‑pipelines som kombinerar en finjusterad inferensmodell med ett dynamiskt återhämtningslager blivit de‑facto‑standard. Maliks data visar att rena RAG‑system vinner på kunskapsfräschör och underhållsbelastning, särskilt i domäner där fakta förändras veckovis eller dagligen. Finjusterade modeller, däremot, levererar striktare stilistisk kontroll, lägre latens och möjlighet att köras offline, vilket omvandlas till kostnadsbesparingar vid höga frågevolymer. Guiden kvantifierar dessa avvägningar: en 30 % minskning av latensen när enbart en finjusterad modell används, jämfört med ett 45 % fall i incidenter med föråldrade svar när samma modell förstärks med ett återhämtningsindex som uppdateras var 12:e timme. Den hybrid‑metoden ärver det bästa av båda världarna, uppnår svarstider under en sekund samtidigt som citeringsnoggrannheten hålls över 92 %. Varför det är viktigt är att företag nu går bortom proof‑of‑concept‑stadiet och behöver konkret vägledning för att skala LLM‑modeller på ett ansvarsfullt sätt. Som vi rapporterade den 25 mars 2026 framhöll debatten om finjustering kontra prompt‑engineering vikten av modell‑specifik optimering; Maliks fynd utvidgar den diskussionen till hela stacken och visar hur återhämtningsinfrastruktur och modell‑anpassning samverkar i verkliga kostnads‑ och efterlevnadsberäkningar. Framåt blickar man på att leverantörer förväntas lansera tätare integrationer för hybrid‑pipelines, inklusive hanterade vektorlager med inbyggd versionering och finjusteringspaket för enheter. Observatörer kommer att hålla ögonen på benchmark‑släpp som standardiserar hybrid‑prestandamått, samt på regulatoriska ramverk som kan kräva citeringsklara RAG‑komponenter i hög‑risk‑sektorer. De kommande månaderna bör avslöja om den hybrida modellen blir en permanent arkitekturnorm eller ett övergångsläge medan grundmodellerna fortsätter att förbättras.
210

Hypura – En lagringsnivåmedveten LLM‑inferensplanerare för Apple Silicon

Hypura – En lagringsnivåmedveten LLM‑inferensplanerare för Apple Silicon
HN +5 källor hn
appleinferencellama
Ett nytt open‑source‑projekt kallat **Hypura** har släppts på GitHub och lovar att göra inferens av stora språkmodeller (LLM) på Apple Silicon‑Macar mer praktisk. Det fyra dagar gamla förrådet beskriver Hypura som en ”lagringsnivåmedveten LLM‑inferensplanerare”, ett tunt lager som dynamiskt flyttar modellvikter mellan RAM och SSD samtidigt som det batchar förfrågningar för att hålla Apple‑M‑serie‑GPU:n sysselsatt. Innovationens betydelse ligger i att Apples AI‑ekosystem på enheten länge har hindrats av det begränsade enhetliga minnet i MacBooks och iMacs. Även med den effektiva MLX‑runtime kräver modeller som överskrider några gigabyte fortfarande kostsam avlastning till extern lagring, vilket introducerar latens och stoppar GPU:n. Genom att behandla SSD:n som en andra minnesnivå och schemalägga arbete kring dess bandbredd kan Hypura hålla inferens‑pipelines i gång och rapporteras minska prestandaskillnaden mot stationära GPU:er. Tidiga tester från författarna visar genomströmningstillväxt på 20‑30 % jämfört med standard‑llama.cpp på M2‑Pro‑hårdvara, vilket speglar liknande förbättringar som rapporterats av vllm‑mlx‑projektet tidigare i år. Om schemaläggaren lever upp till sina löften kan utvecklare köra toppmoderna modeller som Llama‑2‑13B eller Mistral‑7B lokalt på en MacBook utan att behöva använda molntjänster. Det skulle sänka tröskeln för integritetsfokuserade applikationer, expandera marknaden för macOS‑inhemska AI‑verktyg och sätta press på Apple att integrera mer sofistikerade minneshanterings‑primitiver i sina egna ramverk. Kommande steg att hålla ögonen på inkluderar community‑benchmarking mot konkurrerande lösningar som OMLX och Parallax, potentiella bidrag som knyter Hypura till Apples Core ML‑ och MLX‑stackar, samt eventuella signaler från Apple om att schemaläggaren kan införlivas i en officiell macOS‑release. En framgångsrik adoption skulle kunna omforma balansen mellan inferens på enhet och i molnet för utvecklare i den nordiska AI‑scenen och bortom.
172

OpenAI ger nu upp sin Sora AI‑videogenerator

The Verge +23 källor 2026-03-25 news
openaisora
OpenAI meddelade på tisdagen att de lägger ner Sora, den text‑till‑video‑modell som presenterades i slutet av 2024. Det korta uttalandet ”Vi säger adjö till Sora” markerar slutet på en produkt som väckte stor entusiasm för sin förmåga att skapa minutlånga, fotorealistiska klipp från en enda prompt, men som också väckte kontrovers på grund av sina enorma beräkningskrav och de juridiska följderna av ett misslyckat partnerskap med Disney. Avvecklingen kommer efter en rad rapporter tidigare i veckan om att OpenAI redan hade börjat minska stödet för Sora och avbryta det fler‑miljon‑dollar‑avtalet med Disney som lovade exklusiva innehållsrättigheter. Som vi rapporterade den 25 mars hade företaget börjat ”döda” Sora och Disney‑avtalet föll samman på grund av oro för att tekniken skulle sudda ut gränsen mellan verkligt och syntetiskt media. Beslutet verkar nu vara slutgiltigt, med tjänsten borttagen från API‑instrumentpanelen och befintliga användarkrediter planerade att återbetalas. Varför detta är viktigt är tvådelat. För det första understryker Soras undergång de praktiska begränsningarna för dagens AI‑videogenerering: att rendera en enda minut högupplöst material kan förbruka mer GPU‑kraft än många av OpenAIs andra flaggskeppsmodeller, vilket gör det finansiellt ohållbart i stor skala. För det andra belyser händelsen den växande regulatoriska och anseendemässiga pressen på AI‑företag att begränsa verktyg som kan missbrukas för deep‑fake‑propaganda eller upphovsrättsintrång. Det som blir intressant att följa härnäst är OpenAIs strategiska omorientering. Företaget kommer sannolikt att omdirigera den beräkningsbudget som var avsedd för Sora till sina nästa generations text‑och‑bild‑modeller, medan konkurrenter som Runway, Google DeepMind och Metas Make‑It‑Real kan försöka ta över den nu lediga marknadssegmentet. Observatörer kommer också att vara nyfikna på om OpenAI i framtiden erbjuder en lättare videoprototyp och hur regulatorer svarar på de bredare implikationerna av AI‑genererat media.
The Verge — https://www.theverge.com/ai-artificial-intelligence/899850/openai-sora-ai-chatgp futurism.com — https://futurism.com/the-byte/openai-sora-leak aimarketingnewstoday.com — https://aimarketingnewstoday.com/openai-releases-ai-video-generator-sora-to-cust arstechnica.com — https://arstechnica.com/information-technology/2024/02/openai-collapses-media-re www.wilsonsmedia.com — https://www.wilsonsmedia.com/openai-just-gave-artists-access-to-sora-and-proved- www.cmswire.com — https://www.cmswire.com/digital-experience/openai-unveils-sora-its-impressive-ai CNBC — https://www.msn.com/en-us/money/companies/openai-shutters-short-form-video-app-s HN — https://variety.com/2026/digital/news/openai-shutting-down-sora-video-disney-123 HN — https://twitter.com/soraofficialapp/status/2036546752535470382 HN — https://arstechnica.com/ai/2026/03/openai-plans-to-shut-down-sora-just-15-months HN — https://www.reuters.com/technology/openai-set-discontinue-sora-video-platform-ap HN — https://www.cnbc.com/2026/03/24/openai-shutters-short-form-video-app-sora-as-com Mastodon — https://mstdn.social/@WIREID91LDNON/116287280106982560 Mastodon — https://eter9.com/notes/ak912i2ci8 Mastodon — https://weredreaming.com/mookie/p/1774403800.230045 Mastodon — https://c.im/@heysannidhi/116287370794930407 Mastodon — https://fed.brid.gy/r/https://www.rappler.com/technology/openai-shut-down-sora-a Mastodon — https://mastodon.social/@Mathrubhumi_English/116287986840102523 Mastodon — https://masto.ai/@Miro_Collas/116288106875895645 Mastodon — https://mastodon.social/@schuler/116287354030592054 Mastodon — https://mastodon.nl/@teacher_rick/116288257594208811 Mastodon — https://mastodon.uno/@nicolaottomano/116288012563987419 Mastodon — https://mastodon.social/@NieuwsJunkies/116287067730459771
171

iOS/iPadOS 26.4 med stöd för AirPods Max 2. Apple Music får också nya funktioner

Mastodon +7 källor mastodon
apple
Apple lanserade iOS 26.4, iPadOS 26.4 och watchOS 26.4 den 25 mars och synkroniserade mjukvaruuppdateringen med debuten av den andra generationens AirPods Max. Uppdateringen innehåller inbyggt stöd för de nya over‑ear‑hörlurarna, vilket möjliggör spatial ljud, adaptiv EQ och den uppdaterade “Find My”-spårningen som saknades i tidigare operativsystem. Utöver hårdvarukompatibiliteten får Apple Music en rad förbättringar. En ny flik “Concert” visar nu live‑konserter som äger rum i närheten av användarens plats, medan spellistorna “Ambient” och “Well‑being” har utökats med AI‑kuraterade spår för sömn, fokus och avkoppling. Tjänsten introducerar också en smartare rekommendationsmotor som föreslår nya artister baserat på den musik som spelas för tillfället, ett steg som stärker Apples grepp om streamingmarknaden där Spotify och YouTube Music dominerar i Norden. Uppdateringen åtgärdar tangentbordslatens och lovar mer exakt skrivning efter snabb inmatning – en subtil men välkommen justering för avancerade användare. Säkerheten får ett rutinmässigt patch‑paket, och watchOS 26.4 lägger till ett låg‑energi “Sleep Mode” för Apple Watch, i linje med Apples bredare hälso‑först‑berättelse. Varför det är viktigt är tvåfaldigt. För det första understryker den sömlösa integrationen av AirPods Max 2 Apples strategi att paketera premium‑hårdvara med mjukvaruuppdateringar för att motivera högre prisnivåer, ett koncept som kan förändra nordiska konsumenters förväntningar på premium‑ljud. För det andra signalerar förbättringarna i Apple Music en övergång mot plats‑medvetna, AI‑drivna upplevelser som kan äta upp marknadsandelar från konkurrerande tjänster. Vad man bör hålla ögonen på härnäst: tidiga recensioner av AirPods Max 2:s spatial‑ljudprestanda på iOS 26.4, antalet användare som tar i bruk den nya “Concert”-funktionen, samt om Apple kommer att expandera den AI‑drivna rekommendationsmotorn till det kommande iOS 27. Analytiker kommer också att följa om den starka nordiska efterfrågan på högupplöst streaming leder till en mätbar ökning av Apple Music‑prenumerationer.
169

Auto‑läge för Claude Code | Claude

Mastodon +7 källor mastodon
ai-safetyanthropicclaude
Anthropic har lanserat “Auto‑Mode” för Claude Code, sin AI‑drivna utvecklingsassistent, som förvandlar en långvarig behörighetsprompt till ett självbetjänings‑säkerhetslager. Det nya läget använder en klassificerare på enheten som utvärderar varje kommando – såsom filskrivningar, paketinstallationer eller systemanrop – och godkänner automatiskt de som bedöms lågriskiga, samtidigt som handlingar med större påverkan visas för mänsklig granskning. Utvecklare kan slå på eller av funktionen i Claude Code‑inställningarna, och systemet loggar varje automatiskt godkänt åtgärd för spårbarhet. Lanseringen markerar ett skifte från de manuella “ja/nej”-dialogerna som många användare klagat på för att de saktade ner arbetsflödena. Genom att hantera rutinbehörigheter i bakgrunden lovar Auto‑Mode att minska friktionen som hindrat storskalig adoption av AI‑assisterade kodningsverktyg, särskilt i snabbrörliga team som måste iterera snabbt. Samtidigt positionerar Anthropic klassific
158

Kanada avslog permanent uppehållstillståndsansökan från en McMaster‑postdoktorand från Sorbonne som arbetar …

Mastodon +6 källor mastodon
Kanadas immigrationsmyndighet har avslagit permanent‑uppehållstillståndsansökan för en postdoktorand vid McMaster University som tog sin doktorsexamen vid Sorbonne och forskar om immunologi och åldrande. Avslaget, som utfärdats av Immigration, Refugees and Citizenship Canada (IRCC), hänvisar till en ”ofullständig” ansökan – men den underliggande orsaken var ett generativ‑AI‑system som fabricerade hennes akademiska meriter och felaktigt flaggade henne som saknad de nödvändiga kvalifikationerna. Händelsen kastar ljus på den växande beroendet av stora språkmodeller för att triagera och utvärdera immigrationsärenden. IRCC införde AI‑verktyget tidigare i år för att påskynda handläggningstiderna och minska den manuella arbetsbördan, men teknikens benägenhet att konstruera eller misstolka data har nu lett till ett konkret, höginsats‑fel. För ett land som är beroende av skickliga forskare för att upprätthålla sin kunskapsbaserade ekonomi, innebär ett falskt avslag ett hot både mot individens karriär och den bredare talangpipeline. Juridiska experter påpekar att sökande kan överklaga IRCC:s beslut, men den bristande insynen i AI‑drivna bedömningar komplicerar bevisunderlaget för en sådan utmaning. Fallet kan leda till en översyn av myndighetens AI‑styrningsramverk, inklusive krav på mänsklig verifiering, revisionsspår och åtgärder mot bias. Förespråkargrupper kräver redan en paus i helt automatiserade beslutsprocesser tills robusta skyddsåtgärder är på plats. Håll utkik efter IRCC:s officiella svar, som förväntas inom de kommande två veckorna, samt eventuella domstolsansökningar från forskaren eller hennes juridiska ombud. Parallella utvecklingar – såsom den federala regeringens kommande lagstiftning om AI‑etik och andra rapporterade AI‑missöden inom offentliga tjänster – kommer att indikera om Kanada kommer att skärpa tillsynen eller fördjupa automatiseringen i sitt immigrationssystem.
158

Jag har precis insett att # OpenAI:s logotyp är ett stiliserat analsfinkter. Ursäkta för

Jag har precis insett att # OpenAI:s logotyp är ett stiliserat analsfinkter. Ursäkta för
Mastodon +6 källor mastodon
dall-eopenaisoratext-to-imagetext-to-video
Ett Reddit‑inlägg som gick viralt tidigt på tisdagen hävdade att OpenAIs registrerade emblem liknar ett ”stiliserat analsfinkter”, vilket utlöste en våg av memes och en kortvarig ökning av varumärkesrelaterade samtal. Kommentaren, som postades i r/OpenAI‑gemenskapen, åtföljdes av en jämförelse sida‑vid‑sida mellan företagets teal‑blå ”O” och den anatomiska analogin, och inom några timmar hade den delats på Twitter, LinkedIn och flera teknikfokuserade Discord‑kanaler. Observationen är harmlös i tonen men inträffar i ett ögonblick då OpenAI redan befinner sig under intensiv granskning. För bara några veckor sedan avslutade företaget abrupt sin Sora‑text‑till‑video‑tjänst, ett drag som tvingade Disney att dra sig ur ett samarbete värt flera miljarder dollar och som väckte omfattande debatt om hållbarheten för dyra AI‑produkter. Som vi rapporterade den 25 mars belyste Sora‑nedstängningen OpenAIs volatila produktstrategi och väckte frågor om företagets långsiktiga vision. Skämtet om logotypen lägger därför till ett lager av reputationsrisk, och förvandlar en designkritik till en symbol för bredare missnöje. OpenAI har ännu inte gett någon officiell kommentar, men deras kommunikationsteam är känt för att noggrant övervaka sentiment på sociala medier. Analytiker föreslår att företaget kan svara med ett lättsamt erkännande eller, om narrativet får fäste, med en subtil redesign för att förutse eventuell negativ varumärkespåverkan. Tidigare har teknikföretag justerat sina logotyper efter virala skämt – Apples ”böjda iPhone”‑meme 2018 ledde till en mindre redesign av enhetens siluett, till exempel. Vad att hålla utkik efter härnäst: om OpenAIs ledning adresserar memen i ett offentligt uttalande, om företagets designteam antyder en logotypuppdatering, och hur händelsen påverkar pågående diskussioner om företagsvisuell identitet inom AI‑sektorn. Episoden påminner också om att även subtila varumärkesval kan bli tändpunkter i en bransch som redan kämpar med allmänhetens förtroende.
155

Disney säger att de kommer hitta sätt att sälja slop någon annanstans efter att ha dragit sig ur OpenAI‑avtalet

Gizmodo +10 källor 2026-03-25 news
openaisora
Disney har officiellt dragit sig ur det licensavtal på 1 miljard dollar som de skrev under med OpenAI för tre månader sedan, efter att det i San Francisco‑baserade laboratoriet abrupt stängde ner sin Sora‑app för videogenerering. I ett kort uttalande sade Disney att de kommer att “hitta sätt att sälja slop någon annanstans”, vilket signalerar att företaget kommer att söka alternativa vägar för att tjäna pengar på AI‑genererat innehåll snarare än att förlita sig på den nu nedlagda Sora‑plattformen. Kollapsen följer en rad OpenAI‑annonseringar som började den 25 mars, då vi rapporterade företagets beslut att avbryta stödet för Sora och den efterföljande återverkningen för deras multimiljondollar‑avtal med Disney. Sora, som marknadsfördes som ett generativt videoverktyg som kunde omvandla textpromptar till korta klipp, var tänkt att driva Disneys streamingtjänster, temaparksupplevelser och reklam. Dess plötsliga borttagning lämnar ett tomrum i Disneys AI‑färdplan och väcker frågor om hållbarheten för storskaliga videogenereringsmodeller som fortfarande har problem med konsistens, upphovsrättsöverensstämmelse och beräkningskostnader. För Disney är förlusten både finansiell och strategisk. Det 1 miljard‑dollar‑avtalet förväntades finansiera en svit av AI‑förstärkta produktioner och ge mediegiganten ett fotfäste på en marknad som konkurrenter som Meta och Google aggressivt jagar. OpenAIs svängning mot produktivitetsfokuserade verktyg antyder att de tvivlar på den kortsiktiga kommersiella beredskapen för generativ video, en hållning som kan omforma branschens förväntningar och omdirigera investeringar mot text‑till‑bild‑ eller kodassistansmodeller. Vad man bör hålla ögonen på härnäst: om Disney kommer att samarbeta med en rivaliserande AI‑leverantör, utveckla sin egen videogenereringsstack eller satsa ännu mer på traditionell innehållsskapande. OpenAIs nästa produktannonseringar kommer också att granskas för ledtrådar om deras långsiktiga engagemang för generativ media. Juridiska team på båda sidor kan snart ta itu med den finansiella uppgörelsen för det avbrutna avtalet, en process som kan skapa prejudikat för framtida AI‑licensavtal.
152

📰 Claude Code Auto Mode 2026: Hur AI‑kodningssäkerhet förändras — och var den fortfarande brister

Mastodon +9 källor mastodon
anthropicautonomousclaude
Anthropic lanserade “Auto Mode” för Claude Code den 11 mars 2026, vilket låter Claude Sonnet 4.6‑modellen autonomt godkänna eller blockera kodåtgärder under en utvecklingssession. Funktionen, som introducerades som en forskningsförhandsvisning, innehåller en klassificerare som utvärderar varje föreslagen ändring utifrån behörighetsnivå, risk för prompt‑injektion och potentiella bieffekter innan den verkställs. Utvecklare kan slå på läget, ställa in administratörs‑överskrivningar och definiera egna policytrösklar, vilket förvandlar AI:n från en passiv assistent till en grindvakt som beslutar när den får agera på egen hand. Steget markerar en förändring i AI‑driven mjukvaruverktyg. Genom att flytta behörighetsbeslut från människan till modellen hoppas Anthropic minska återkopplingsloopar och hålla utvecklare i flödet, särskilt under långa kodningssessioner där frekventa manuella godkännanden blir en flaskhals. De inbyggda skyddsmekanismerna syftar till att bemöta långvariga farhågor om att AI‑genererad kod kan köra oavsiktliga kommandon eller läcka autentiseringsuppgifter, en kritik som har följt tidigare verktyg som GitHub Copilot och OpenAIs kodningssvit. Som vi rapporterade den 24 mars har Claude Code redan registrerat mer än 19 miljoner commits på GitHub och infört en token‑optimerare för att minska redundanta läsningar. Auto Mode bygger vidare på den dynamiken, men analytiker varnar för att beroendet av en enda klassificerare fortfarande lämnar luckor: sårbarheter i kantfall, falskt‑positiva blockeringar och svårigheten att granska modellens beslutslogik är fortfarande olösta problem. Företag måste balansera produktivitetsökningen mot risken för otransparent behörighetshantering och den extra beräkningskostnaden för kontinuerliga säkerhetskontroller. Håll utkik efter Anthropics kommande offentliga beta, planerad till början av Q2, samt konkurrenternas svar. GitHub Copilot Workspace och OpenAIs nya kodningsverktyg förväntas införa liknande autonoma behörighetslager, vilket skapar ett nära lopp om att definiera standarder för AI‑medierad kodexekveringssäkerhet. De kommande månaderna kommer att visa om Auto Mode kan hålla sitt löfte utan att kompromissa med de skydd som det själva avser att stärka.
151

OpenAIs senaste repo har Claude som tredje största bidragsgivare

HN +7 källor hn
agentsanthropicclaudegeminigooglegpt-5openai
OpenAIs senaste offentliga GitHub‑repo visar att Anthropics Claude‑modell hamnar som den tredje största kodbidragsgivaren, endast efter OpenAIs egen GPT‑5.2 och ett fåtal mänskliga utvecklare. Bidragsstatistiken, som hämtats från repots commit‑historik, visar att Claude genererade ungefär 12 % av de tillagda raderna under den senaste månaden, vilket överträffade flera interna verktygsskript och till och med några seniora ingenjörer. Fyndet är betydelsefullt eftersom det signalerar ett skifte från ren konkurrens till pragmatisk korspollinering inom AI‑kodningsområdet. Claudes uppgång i rankingen följer en rad uppgraderingar från Anthropic – mest framträdande den automatiska “Claude Code”-läget som kan självständigt slutföra komplexa utvecklingsuppgifter – och understryker modellens växande rykte för att hantera röriga, verkliga kodbaser. OpenAIs chef för teknik, Mira Brockman, antydde i en nyligen inspelad podcast att företaget har ”experimenterat med externa kodgenereringsmodeller för att påskynda intern verktygsutveckling”, vilket tyder på att repo‑data inte är ett isolerat experiment utan en del av en bredare strategi att utnyttja den bästa tillgängliga AI:n, oavsett ursprung. Det som blir intressant att följa härnäst är om OpenAI formellt etablerar samarbetet eller håller det i det dolda. En offentlig bekräftelse skulle kunna leda till gemensamma benchmark‑tester, delade säkerhetsprotokoll eller till och med ett licensavtal som suddar ut gränsen mellan rivaliserande företag. Om samarbetet däremot fortsätter tyst kan det få Anthropic att utnyttja exponeringen som ett marknadsföringsverktyg, särsk
150

Introducerar @rotifer/mcp-server: Ge alla AI‑agenter tillgång till gen‑ekosystemet

Dev.to +6 källor dev.to
agents
En ny öppen‑källkods‑server kallad **@rotifer/mcp‑server** låter vilken AI‑agent som helst som talar Model Context Protocol (MCP) ansluta direkt till Rotifer‑gen‑ekosystemet. Den enkla installationsraden, publicerad på npm, startar en lättviktig MCP‑server som exponerar åtta sökbara verktyg – från `search_genes` till `compare_genes` – och fem datakällor såsom `genedetail` och `leaderboard`. Genom att utfärda ett enda MCP‑kommando kan en agent lokalisera ett “gen” (en återanvändbar AI‑kapabilitet), inspektera dess metadata, jämföra fitness‑poäng mot alternativ och hämta den optimala versionen in i sitt eget arbetsflöde utan att lämna IDE:n. Utrullningen är betydelsefull eftersom den förvandlar Rotifer‑gen‑register – som redan rymmer mer än 50 kuraterade gener för uppgifter som web‑scraping, datarengöring och bildanalys – till en plug‑and‑play‑marknad för autonoma agenter. Utvecklare behöver inte längre hårdkoda verktygskedjor; istället kan agenter själva diagnostisera saknade funktioner, fråga ekosystemet och dynamiskt förstärka sin kompetens. Detta speglar den modulära metod som sandbox‑ramverk introducerade tidigare i månaden, vilka lovade 100 × snabbare agent‑testning, och det kompletterar DeepSeeks satsning på att integrera DeerFlow 2.0 för rikare verktygs‑orkestrering. I praktiken kan servern påskynda utrullningen av specialiserade agenter inom finans, sjukvård och e‑handel genom att minska den tid som går åt till manuell integration. Det som bör hållas ögonen på härnäst är hur snabbt Rotifer‑MCP‑gränssnittet tas i bruk av den bredare AI‑agent‑gemenskapen. Tidiga tecken inkluderar ett växande antal stjärnor på GitHub och ett fåtal handledningar på DEV‑community‑sajten. Analytiker kommer att följa prestandamätningar mot befintliga verktygs‑uppslagstjänster, framväxten av tredjeparts‑gen‑bidrag, samt huruvida stora molnleverantörer integrerar MCP‑servern i sina AI‑agent‑plattformar. Om ekosystemet får fäste kan det bli en de‑facto‑standard för kapabilitets‑uppgraderingar i realtid, vilket omformar hur autonoma system utvecklas och konkurrerar.
130

Googles TurboQuant minskar AI‑LLM‑cacheminneskapacitet med minst sex gånger — upp till 8× prestandaförbättring på Nvidia H100‑GPU:er, komprimerar KV‑cache till 3 bitar utan förlust av noggrannhet

Mastodon +7 källor mastodon
googlenvidia
Googles forskningsteam presenterade TurboQuant, ett tvåstegskvantiseringsschema som minskar nyckel‑värde‑cachen (KV‑cache) för stora språkmodeller (LLM) med minst sex gånger och ger upp till en åtta‑faldig hastighetsökning på Nvidia H100‑GPU:er. Metoden komprimerar KV‑poster till endast tre bitar med ett nytt “PolarQuant”-rotationssteg, och tillämpar sedan en lättviktig finjustering som bara använder heltal och som bevarar modellens ursprungliga utdata exakt – ingen förlust i noggrannhet, ingen omträning och inga förändringar i modellarkitekturen. Genombrottet är viktigt eftersom KV‑cacher dominerar minnesförbrukningen vid inferens med långa kontexter. Genom att krympa cachen frigör TurboQuant GPU‑RAM, vilket gör det möjligt för utvecklare att köra större kontextfönster eller packa fler samtidiga förfrågningar på en enda H100. De resulterande genomströmningstillväxterna innebär lägre moln‑beräkningskostnader och minskad energiförbrukning, en kritisk faktor när LLM‑distributioner skalar över datacenter. För företag som prissätter tjänster per token kan effektivitetsvinsten också sätta press på token‑baserade prismodeller, vilket återkallar den skämtsamma kommentaren att “AI‑tokenpriserna blir förstörda.” TurboQuant bygger på de arbetsflödesoptimeringstrender vi belyste i vår undersökning av LLM‑agenter den 25 mars, där minnes‑medveten schemaläggning och cache‑hantering identifierades som flaskhalsar. Googles påstående att tekniken fungerar som en drop‑in‑lösning för alla transformer‑modeller betyder att befintliga pipelines – från OpenAI:s GPT‑5 till Apple‑silicon‑optimerade inferensstackar – kan anta den utan kodändringar. Vad att hålla ögonen på härnäst: tidiga benchmark‑släpp från Google och tredjeparts‑laboratorier kommer att bekräfta löftet om noll‑förlust över olika modellfamiljer. Integration i populära ramverk som Hugging Face Transformers och TensorRT kommer att signalera ett bredare antagande. Slutligen kan molnleverantörer rulla ut TurboQuant‑aktiverade instanstyper, och vi kommer att följa hur prissättning och token‑ekonomi utvecklas när minnesbegränsningarna avtar.
129

RE: https://social.heise.de/@heiseonlineen glish/116288830860438729 För närvarande, Euro

Mastodon +6 källor mastodon
metaprivacy
Meta:s kommande serie av AI‑drivna smarta glasögon har stött på ett regulatoriskt hinder i Europa, enligt ett Mastodon‑inlägg från Heise Medien på torsdagen. Ett provisoriskt beslut från Europeiska dataskyddsstyrelsen (EDPB) har beordrat företaget att stoppa all utrullning av sina “Meta Vision”-enheter tills en fullständig integritetskonsekvensbedömning har slutförts. Åtgärden kommer efter en våg av oro för att glasögonens inbyggda stora språkmodeller (LLM) kan samla in och överföra ansikts‑, ljud‑ och positionsdata i realtid, vilket i praktiken skulle göra bärarna till ständiga övervakningsnoder. Den europeiska pausen står i stark kontrast till de senaste utvecklingarna i USA, där en federal domstol avslog Metas försök att överklaga en stämning som påstår att företaget misslyckats med att skydda unga användare från skadligt innehåll. Medan Meta förbereder sig för att överklaga det amerikanska domen, håller EDPB:s försiktighetsåtgärd europeiska konsumenter isolerade från vad myndigheterna beskriver som en “nästa nivå‑integritetsmardröm”. Varför beslutet är viktigt är tvådelat. För det första prövar det gränserna för EU:s allmänna dataskyddsförordning (GDPR) och den nyare Digital Services Act när de konfronteras med framväxande wearables som kombinerar AI, förstärkt verklighet och kontinuerlig datastreaming. För det andra signalerar det till andra BigTech‑aktörer att den europeiska marknaden inte kommer att tolerera otydliga datapraxis, även när regionen driver på för AI‑innovation. Domen understryker också en växande regulatorisk splittring: Europa skärper kontrollen medan amerikanska domstolar fortfarande brottas med bredare säkerhetsanspråk. Det som bör följas härnäst är om Meta kommer att lämna in en reviderad konsekvensbedömning som uppfyller EDPB:s krav, eller om de kommer att utmana beslutet i Europeiska unionens domstol. Parallellt förväntas Europeiska kommissionen publicera vägledning om AI‑aktiverade wearables senare i år, vilket potentiellt kan skapa en mall för globala standarder. Branschobservatörer kommer också att bevaka hur beslutet påverkar utrullningsplanerna för konkurrenter som Apple och Google, som båda utvecklar egna AR‑glasögon. Resultatet kan forma balansen mellan immersiv teknik och integritet över hela kontinenten.
124

Inbäddningar: Det enda konceptet bakom RAG, sökning och AI‑system

Dev.to +6 källor dev.to
embeddingsragvector-db
Ett konsortium av nordiska forskningslaboratorier och det moln‑native startup‑företaget VectorMind lanserade **EmbedX**, en öppen källkod‑plattform för inbäddningar som lovar att bli den enda byggstenen för Retrieval‑Augmented Generation (RAG), vektorsökning och rekommendationsmotorer. Utgåvan paketera en svit av förtränade modeller, ett högkapacitets‑inference‑API och en plug‑and‑play‑vektordatabas, vilket gör det möjligt för utvecklare att generera dokument‑, fråge‑ och objekt‑inbäddningar med ett enda anrop och omedelbart söka dem för semantisk likhet. Detta är betydelsefullt eftersom dagens AI‑applikationer ofta sammansätter olika komponenter – finjusterade språkmodeller för generering, separata vektorlager för sökning och skräddarsydda likhetsmått för rekommendation. **EmbedX** förenklar den stapeln genom att leverera en enhetlig representation som kan återanvändas i olika pipelines. Tidiga benchmark‑resultat som författarna publicerat visar upp till 30 % minskning av svarstid och en 15 % ökning av relevanspoäng jämfört med den vanliga ”modell‑per‑uppgift”-metoden. För nordiska företag som skalar AI‑driven kundsupport, kunskapsbas‑hämtning och personligt anpassat innehåll innebär förenklingen lägre ingenjörsbelastning, snabbare time‑to‑market och mer förutsä
123

# OpenAI meddelade på X att de tar farväl av appen # Sora och communityn. Sora möjliggjorde

Mastodon +6 källor mastodon
openaisora
OpenAI meddelade på X att de stänger ner Sora, den kort‑formade videogeneratorn som gick viral efter sin lansering i höst. Inlägget, daterat den 24 mars 2026, tackade “alla som skapade med Sora, delade den och byggde community kring den” innan det bekräftade att tjänsten kommer att tas offline omedelbart. Beslutet markerar slutet på ett kort men intensivt experiment med AI‑driven videoproduktion. Sora lät användare skriva en prompt och få ett realistiskt klipp på upp till 30 sekunder, en funktion som väckte både entusiasm och oro. Inom några veckor översvämmades verktyget av deep‑fake‑memes, politisk satir och upphovsrättsskyddat material, vilket ledde till bekymmer från regulatorer och rättighetsinnehavare. Ett läckage i Wall Street Journal tidigare i månaden antydde att OpenAI var under press från juridiska team och externa tillsynsorgan, och företagets eget uttalande undvek att peka på någon enskild orsak. Varför det är viktigt är tvåfaldigt. För det första understryker Soras nedläggning den växande spänningen mellan snabb AI‑innovation och behovet av ansvarsfull lansering, särskilt för mediegenereringsmodeller som kan sudda ut gränsen mellan fakta och fabricering. För det andra signalerar beslutet ett strategiskt skifte för OpenAI: efter en rad produktlanseringar – inklusive den olyckliga Sora – verkar företaget nu konsolidera kring sina kärnprodukter, såsom ChatGPT och de framväxande Claude‑bidragna modellerna, för att undvika regulatorisk backlash och bevara varumärkesförtroendet. Det som återstår att bevaka är huruvida OpenAI återvänder till videogenereringsområdet med en mer strikt kontrollerad produkt, och hur det bredare AI‑ekosystemet svarar på den regulatoriska granskning som Soras fall har förstärkt. Håll ögonen på kommande policyförslag från EU:s AI‑lag och amerikanska kongresshöranden, samt eventuella uttalanden från OpenAIs ledning om framtida multimediemål. Som vi rapporterade den 25 mars är stängningen av Sora en tydlig indikator på att den ”fokus‑era” som OpenAI annonserade redan omformar deras färdplan.
123

LLM‑neuroanatomi II: Modern LLM‑hackning och ledtrådar till ett universellt språk?

HN +6 källor hn
En ny post på Hacker News, med titeln **“LLM Neuroanatomy II: Modern LLM Hacking and Hints of a Universal Language?”**, bygger vidare på författarens tidigare essä “LLM Neuroanatomy” som förklarade hur en hemmagjord “hjärnskanner” hjälpte skribenten att klättra på LLM‑topplistan utan att ändra modellens vikter. Uppföljaren introducerar två nya forskningslinjer som kan förändra hur utvecklare tänker kring stora språkmodeller. Först lyfter författaren fram ett experiment av forskaren Evan Maunder som undersöker modellens ”tänkrum” över språk. Genom att mata in samma mening på engelska, mandarin och till och med Base64‑kodad text, mätte Maunder kosinuslikheten lager‑för‑lager. De tidiga transformatorlagren kartlägger snabbt de olika inmatningarna på ett gemensamt delrum, likheten förblir hög genom den mellersta stapeln, och endast de sista lagren divergerar när modellen förbereder språk‑specifik output. Mönstret antyder att LLM:er kan konstruera en språk‑agnostisk representation – en slags universell kod som ligger till grund för alla text‑modaliteter. Den andra delen av artikeln kartlägger samtida LLM‑hackningstekniker, från prompt‑injektions‑payloads som katalogiserats på GitHub till ”layer‑copy”-knep som duplicerar tänkmoduler för att öka prestanda. Dessa taktiker blottlägger både den nuvarande säkerhetsmekanismernas skörhet och den outnyttjade flexibiliteten i transformatorernas interna struktur. Varför detta är viktigt är tvådelat. En språk‑agnostisk kärna skulle kunna förklara varför flerspråkiga modeller överför kunskap så väl och kan möjliggöra mer effektiv fin‑justering, komprimering eller till och med tvär‑modal resonemang. Samtidigt understryker den växande verktygslådan av prompt‑injektionsattacker ett säkerhetsgap som kan utnyttjas i nedströmsapplikationer, från chattassistenter till kodgeneratorer. Vad som bör hållas ögonen på härnäst: gemenskapen debatterar redan huruvida den observerade konvergensen verkligen utgör ett ”universellt språk” eller bara speglar gemensamma tokeniseringsmönster. Uppföljningsstudier som replikerar Maunders kosinus‑likhetstest på större, instruktions‑finjusterade modeller kommer att vara avgörande. Under tiden förväntas säkerhetsforskare släppa härdade prompt‑ramverk och mitigationsriktlinjer, och vi förutspår ett svar från stora AI‑laboratorier om de kommer att integrera neuroanatomi‑inspirerade diagnostikverktyg i modell‑revisioner.
122

# OpenAI har meddelat att de avslutar stödet för sin # KI‑baserade # Video‑app #

Mastodon +6 källor mastodon
openaisora
OpenAI meddelade på tisdagen att de kommer att avsluta stödet för sin AI‑drivna videokreationsapp Sora, bara sex månader efter att tjänsten lanserades i september. Företaget publicerade ett kort uttalande på X där de tackade det ”kreativa samhället” som använde verktyget för att skapa och dela korta videor, och bekräftade att appen kommer att tas offline i slutet av månaden. Den plötsliga nedstängningen understryker den växande spänningen mellan snabb AI‑innovation och de regulatoriska och etiska utmaningar den väcker. Soras förmåga att syntetisera realistiskt bildmaterial från textpromptar väckte omedelbar oro bland lagstiftare och mediegranskare kring spridningen av deep‑fake‑innehåll. I Europa och USA har lagstiftare börjat utarbeta striktare krav på transparens för AI‑genererat media, och flera plattformar har redan skärpt sina policyer för syntetisk video. OpenAIs beslut verkar vara ett förebyggande steg för att und
116

RE: https:// infosec.exchange/@josephcox/11 6290338649702064 "Sora är död. Må minnet av"

Mastodon +6 källor mastodon
copyrightsora
OpenAIs kortlivade text‑till‑video‑modell Sora har officiellt placerats i AI‑historiens sopkorg, ett faktum som nu återges på den säkerhetsinriktade Mastodon‑instansen Infosec.Exchange. I ett kortfattat inlägg deklarerade journalisten Joseph Cox: ”Sora är död. Må minnet av dess fyra‑månaders existens som en upphovsrättsintrångsmaskin … vara en välsignelse,” och underströk modellens ökända missbruk för piratkopierade klipp, extremistisk propaganda och annat olagligt innehåll. Sora, som lanserades i november 2025, lovade att generera femsekunders videoklipp utifrån enkla språkkommandon, ett steg bortom den bildgenereringsvåg som redan hade omformat kreativa arbetsflöden. Inom några veckor lockade verktyget en ström av missbruk: användare översvämmade det med förfrågningar om upphovsrättsskyddade filmscener, konstruerade politiska demonstrationer och till och med grafiska våldsframställningar, vilket ledde till en mängd DMCA‑takedown‑meddelanden och en het debatt om reglering av deep‑fakes. OpenAI svarade i mars 2026 genom att dra tillbaka tjänsten och hänvisade till ”oacceptabla nivåer av missbruk” samt ett behov av att ompröva säkerhetsprotokoll. Som vi rapporterade den 25 mars 2026, ”dro OpenAI pluggen på Sora bara månader efter lanseringen” (se vår tidigare rapportering, id 722). Den senaste reaktionen är viktig eftersom den signalerar att AI‑gemenskapen redan betraktar Sora som en varningshistoria snarare än ett tekniskt genombrott. Genom att märka modellen som en ”upphovsrättsintrångsmaskin” skärper kritikerna kraven på striktare tillsyn av generativ video‑AI, en sektor som fortfarande är i stort sett oreglerad i EU och USA. Vad som är värt att hålla ögonen på: OpenAI förväntas publicera en detaljerad post‑mortem, troligen med nya skyddsmekanismer för framtida multimodala modeller. Regleringsmyndigheter i Europeiska unionen förbereder utkast till regler för AI‑genererat audiovisuellt innehåll, och konkurrenter som Google och Meta testar tyst sina egna videogeneratorer under striktare interna kontroller. Industrins nästa drag kommer att avslöja om Sora‑episoden kommer att driva på en våg av ansvarsfull innovation eller bara skjuta riskfyllda verktyg djupare in i skuggorna.
116

OpenAI stänger Sora efter bara några månader på marknaden

OpenAI stänger Sora efter bara några månader på marknaden
Mastodon +6 källor mastodon
openaisora
OpenAI meddelade idag att de stänger ner Sora, deras AI‑drivna videogenereringsplattform, efter knappt tre månader på marknaden. Företaget publicerade ett kort uttalande på sin blogg, tackade de tidiga användarna och bekräftade att tjänsten kommer att tas offline i slutet av veckan. Stängningen markerar en skarp vändning från den stora uppståndelse som omgav Soras lansering, då OpenAI hyllade ultrarealistisk text‑till‑video‑output och presenterade ett treårigt licensavtal med The Walt Disney Company som gjorde det möjligt för skapare att infoga mer än 200 Disney‑karaktärer i genererade klipp. Inom några veckor misslyckades dock produkten med att få kommersiellt fäste: interna siffror som läckt till pressen visar cirka 2,1 miljoner dollar i intäkter och ett kraftigt fall i nedladdningar från ett toppvärde på 3,3 miljoner till drygt 1 miljon aktiva användare. Samtidigt intensifierade regulatorer och intresseorganisationer granskningen av deep‑fake‑risker, vilket fick OpenAI att ompröva den juridiska exponeringen för en konsumentinriktad videogenerator. Varför det är viktigt är tvådelat. För det första var Sora den mest beräkningsintensiva modellen i OpenAIs portfölj, och dess nedläggning frigör resurser för företagets kärnprodukter – ChatGPT, GPT‑4‑Turbo och DALL‑E‑bildmotorn – vilket tyder på ett strategiskt fokus på beprövade intäktsströmmar. För det andra signalerar det abrupta avslutet av Disney‑partnerskapet att högprofilerade licensavtal ensamt inte kan kompensera för marknads- och efterlevnadsutmaningar, vilket potentiellt dämpar förtroendet för massmarknadens AI‑videoverktyg. Det som bör bevakas härnäst är OpenAIs produktplan. Analytiker förväntar sig att företaget kan integrera begränsade videofunktioner i sina befintliga multimodala modeller snarare än att upprätthålla en fristående tjänst. Disneys svar blir också av intresse; studion kan vända sig till en annan AI‑partner eller utveckla en egen intern lösning. Slutligen kommer det bredare AI‑videolandskapet – startups i stil med Runway, Googles Imagen Video och Metas Make‑It‑Real – sannolikt att känna av ringeffekten när investerare omvärderar finansieringsprioriteringar i kölvattnet av Soras misslyckande. Som vi rapporterade den 25 mars har Sora‑experimentet avslutats, men dess efterdyningar kommer att forma nästa kapitel i generativ video.
116

Idag är onsdag den 25 mars 2026. Det verkar som om OpenAI “Sora” har stängt. Mihi haec bo

Mastodon +6 källor mastodon
openaisora
OpenAI har officiellt bekräftat att deras Sora‑plattform för videogenerering har lagts ner, vilket avslutar det korta men högprofilerade experimentet som startade tidigare i år. Företaget publicerade ett kort meddelande på sitt utvecklarforum onsdagen den 25 mars 2026, där de meddelade att Sora‑tjänsten kommer att avvecklas “med omedelbar verkan” och att alla användarkonton kommer att stängas inom de kommande 30 dagarna. Ingen detaljerad förklaring gavs förutom en hänvisning till “pågående operativa överväganden”. Bekräftelsen kommer bara några timmar efter en våg av rapportering som belyste Disneys plötsliga återdragning från ett miljard‑dollar‑partnerskap som hade lovat gemensam varumärkesprofilering, licensiering av karaktärer och en investering på 1 miljard USD i Sora. Som vi rapporterade den 25 mars lämnade förlusten av Disneys stöd OpenAI utan en flaggskepps‑kund och blottlade sårbarheten i deras affärsmodell, som var beroende av storskalig kommersiell licensiering för att täcka de enorma beräkningskostnaderna för realtids‑videosyntes. Soras nedläggning är betydelsefull av flera skäl. För det första bromsar den den snabba expansionen av konsumentinriktade AI‑videoverktyg som hotade att omforma innehållsskapande, reklam och underhållningsflöden. För det andra understryker händelsen den volatilitet som präglar storskaliga AI‑projekt som är beroende av en enda företagsallierad, särskilt i ett regulatoriskt klimat som blir allt strängare kring deep‑fake‑generering och datakrävande modeller. Slutligen frigör avstängningen OpenAIs ingenjörsresurser, vilket tyder på ett strategiskt skifte mot mer hållbara erbjudanden såsom deras text‑till‑bild‑ och konversationsmodeller. Vad som är värt att hålla ögonen på härnäst: OpenAI har antytt ett “nästa‑generations multimodalt projekt” som planeras för senare i år och som kan integrera videofunktioner i den befintliga GPT‑4‑Turbo‑arkitekturen utan en fristående produkt. Disney, å sin sida, rapporteras förhandla med rivaliserande AI‑företag för att säkra en skräddarsydd video‑motor som respekterar deras varumärkesskydd. Branschobservatörer kommer också att följa hur den europeiska AI‑lagstiftningen, som förväntas antas 2027, kan påverka design och utrullning av framtida generativa videosystem. Soras nedläggning kan därför bli en tidningssignal för hur AI‑företag balanserar ambition med regulatoriska och partnerskapsmässiga realiteter.
113

Disneys Sora‑katastrof visar att AI inte kommer att revolutionera Hollywood

Mastodon +6 källor mastodon
openaisora
Disney har dragit sig ur ett avtal värt flera miljarder dollar med OpenAI, vilket avslutar det kortlivade Sora‑samarbetet som lovade Disney+‑användare möjlighet att skapa videor med mer än 200 av studions ikoniska karaktärer. Beslutet, som meddelades den här veckan, kommer bara några månader efter att OpenAI tyst lade ner Sora på grund av växande upphovsrättsproblem, och det markerar den första stora studion som överger projektet innan det någonsin lanserats. Detta kollaps av avtalet understryker hur snabbt löftet om AI‑driven innehållsskapande kan stöta på verkligheten i immaterialrättslagen. Disneys juridiska team hänvisade till den “ohanterliga risken för intrång” som huvudorsaken till återdragandet, vilket ekar Motion Picture Associations nyliga krav på att OpenAI ska begränsa Sora‑2‑videor som påstås kränka medlemmarnas rättigheter. För ett företag som har investerat kraftigt i att skydda sitt varumärke, visade sig utsikterna att fan‑skapade klipp skulle dyka upp på plattformen utan tydlig licensiering oacceptabla. Branschobservatörer ser händelsen som en varningssignal för den bredare kopplingen mellan Hollywood och AI. Medan AI‑verktyg redan har omformat pipelines för visuella effekter, framstår idén att generativ video skulle kunna demokratisera berättande i stor skala nu som mycket mer begränsad. Detta bakslag kan dämpa entusiasmen för liknande satsningar från andra studior, vilket får dem att föredra strikt kontrollerade, internt utvecklade AI‑lösningar snarare än öppna konsumentprodukter. Vad man bör hålla ögonen på härnäst: OpenAIs svar, som kan innebära ett omarbetat licensramverk eller en vändning mot enbart företagslösningar; potentiell regulatorisk granskning när lagstiftare brottas med deep‑fake‑ och upphovsrättsfrågor; samt om rivaliserande plattformar som Paramount eller WarnerMedia kommer att försöka egna AI‑innehållsexperiment, eller dra sig helt tillbaka. Konsekvenserna av Disneys utträde kommer sannolikt att forma takten i vilken AI‑videogenerering blir ett mainstream‑underhållningsverktyg.
108

# IA # Geek # Negocios # OpenAI # Disney | Disney lämnar ett partnerskap på 1 miljard dollar

Mastodon +7 källor mastodon
openaisora
Disney har officiellt dragit sig ur det ungefär 1 miljard dollar stora partnerskapet som de under året tecknade med OpenAI för att utveckla och kommersialisera företagets generativa videoverktyg Sora. Beslutet, som meddelades på måndag, följer OpenAIs plötsliga besked om att de kommer att stänga ner Soras betatjänst och helt avveckla produkten. Disneys uttåg avslutar ett högprofilerat samarbete som omfattade ett flerårigt licensavtal, samvarumärkning av Disney‑inspirerat innehåll och ett löfte att gemensamt utforska ansvarsfulla AI‑metoder. Beslutet är viktigt av flera skäl. För det första understryker det den volatila naturen i den unga marknaden för generativ video, där tekniska hinder och regulatorisk granskning har bromsat antagandet. Nedstängningen av Sora lämnar OpenAI utan ett flaggskepps‑videoprodukt och tar bort en potentiell intäktskälla som Disney hoppades
108

Claude‑Code Automode

HN +5 källor hn
anthropicclaude
Anthropic har lanserat “Claude‑Code Automode”, en ny forsknings‑preview‑funktion som låter deras Claude‑Code‑AI utföra programmeringsuppgifter med avsevärt färre manuella godkännanden. Funktionen är i drift idag för medlemmar i Claude‑Teamet och kommer att utökas till företags‑ och API‑kunder under de kommande dagarna. Automod bygger på Claude‑Code‑plattformen som Anthropic introducerade tidigare i månaden med uppdateringen “Claude‑Code Channels”, som lade till samarbetsytor för utvecklare (se vår rapport från 23 mars). Medan standardinställningarna för Claude‑Code kräver att en användare bekräftar varje filskrivning, radering eller beroendeförändring, släpper Automod dessa skyddsåtgärder och tillåter modellen att köra längre skript, iterera på kodbaser och lösa buggar utan ständig avbrott. Anthropic betonar att läget fortfarande blockerar hög‑risk‑åtgärder och loggar varje steg för revision, i syfte att balansera hastighet och säkerhet. Detta är betydelsefullt eftersom det driver AI‑assisterad utveckling mot ett mer autonomt arbetsflöde, en trend som återfinns i branschen när verktyg som GitHub Copilot och Microsofts “Co‑pilot” utökar sina exekveringsmöjligheter. Genom att minska friktionen kan Automod påskynda utvecklingscykler, särskilt för storskaliga kodbaser där frekventa godkännanden blir en flaskhals. Samtidigt väcker de mer avslappnade skyddsmekanismerna frågor om oavsiktlig kodinjektion, säkerhetssårbarheter och efterlevnad av företagspolicyer. Vad man bör hålla ögonen på härnäst: Anthropics utrullning kommer att visa hur företag reagerar på avvägningen mellan produktivitetsvinster och riskexponering. Observatörer kommer att vara intresserade av användningsstatistik, incidentrapporter och eventuella policyändringar som Anthropic inför. Konkurrenterna kommer sannolikt att påskynda sina egna autonoma lägen, vilket kan leda till en debatt om standarder för säker AI‑driven kodexekvering. De kommande veckorna bör visa om Automod blir en katalysator för bredare antagande av självstyrande AI inom mjukvaruutveckling.
107

Claude Code kan nu ta över din dator för att slutföra uppgifter

Mastodon +7 källor mastodon
agentsanthropicclaude
Anthropic presenterade en stor uppgradering av sina Claude Code- och Claude Co‑Work‑assistenter, som nu får förmågan att ”peka, klicka och navigera” på en användares skärm. Den nya funktionen ”datoranvändning” låter modellerna flytta musen, skriva på tangentbordet, öppna filer, surfa på webben och starta utvecklingsverktyg på macOS utan någon extra konfiguration. När en prompt kräver en handling kan modellen lokalisera det relevanta fönstret, utföra stegen och rapportera tillbaka, vilket i praktiken förvandlar Claude till en praktisk skrivbordsassistent. Steget bygger på Auto‑Mode‑funktionen som vi rapporterade den 25 mars, då Claude kunde generera kodsnuttar och köra dem i en sandlåda. Genom att utöka kontrollen till operativsystemet vill Anthropic minska klyftan mellan konversations‑AI och de autonoma agenter som har blivit virala på plattformar som OpenAIs ”OpenClaw”. För utvecklare innebär möjligheten att låta Claude automatiskt refaktorera kod, hämta dokumentation i en webbläsarflik eller starta en lokal server att spara timmar på rutinuppgifter. För avancerade användare lovar funktionen ett nytt sätt att orkestrera repetitiva arbetsflöden med naturliga språkkommandon. Anthropic betonar snabbt att skyddsåtgärderna fortfarande är begränsade. Företaget kräver uttryckligt användarsamtycke innan skärmkontroll aktiveras, och funktionen är för närvarande
102

macOS Tahoe 26.4 lägger till indikator för långsam laddning för MacBooks

Mastodon +6 källor mastodon
apple
Apples senaste macOS‑utgåva, version 26.4 – med kodnamnet “Tahoe” – inför en “Slow Charger”-indikator som visas varje gång en MacBook upptäcker en underdimensionerad adapter. Varningen dyker upp i menyraden och i inställningspanelen för Batteri, där den tydligt meddelar att den anslutna laddaren inte kan leverera den fulla effekt som notebooken förväntar sig. Apples uppdaterade supportdokument förklarar att systemet mäter effektförbrukningen under de första minuterna av laddning; om intaget faller under ett visst tröskelvärde visas varningen och kvarstår tills en adapter med högre effekt ansluts. Funktionen är viktig eftersom många MacBook‑ägare förlitar sig på tredjeparts‑USB‑C‑laddare, grenuttag eller hubbar med låg uteffekt som kan halvera laddningshastigheten utan uppenbara tecken. Genom att synliggöra mismatchen hjälper macOS 26.4 användarna att undvika frustrationen av “långsam laddning” och skyddar batterihälsan genom att uppmuntra användning av korrekta Power Delivery‑profiler. Steget stämmer också överens med Apples bredare satsning på stramare strömhanteringskontroller, som introducerades tidigare i samma uppdatering med en konfigurerbar Batteriladdningsgräns och den nya Safari‑kompakta flikfältet, som vi rapporterade den 25 mars. Det signalerar att Apple är villigt att mer aggressivt övervaka tillbehörsekosystemet, en hållning som kan påverka EU‑ och amerikanska regulatoriska diskussioner om standardisering av laddare. Det som är värt att hålla ögonen på framöver är om Slow Charger‑varningen kommer att utökas till iPadOS, där liknande USB‑C‑laddningsproblem finns, samt hur Apples kommande hårdvara – särskilt de rykteomspunna MacBook Pro‑modellerna med högre‑effekt‑adaptrar – kommer att integrera varningen. Utvecklare kan också få API:er för att fråga efter laddarprestanda, vilket öppnar dörren för tredjeparts‑appar som föreslår optimala strömuppsättningar. Slutligen kommer branschen att vara nyfiken på om Apple skärper certifieringen för icke‑Apple‑laddare, vilket potentiellt kan omforma marknaden för USB‑C‑ström‑tillbehör.
97

Apple bekräftar att de inför annonser i Maps som en del av den nya Apple Business‑plattformen

Mastodon +7 källor mastodon
applegoogle
Apple har officiellt bekräftat att annonser kommer att visas i Apple Maps senare i sommar och kopplar utrullningen till den nyannonserade Apple Business‑plattformen. Företaget säger att programmet ”Ads in Maps” kommer att lanseras i USA och Kanada, med ett enda sponsrat resultat som visas bredvid organiska listor när användare söker efter platser som restauranger, hotell eller detaljhandelsbutiker. Initiativet utökar de annonsstödda tjänster som Apple antydde förra veckan, vilka också inkluderar placeringar i Mail, Wallet och Siri. Tillkännagivandet är betydelsefullt eftersom det markerar Apples första steg in i platsbaserad reklam i sin flaggskepps‑navigationsapp, en marknad som länge dominerats av Google. Genom att kombinera Maps‑annonser med en bredare svit av affärsverktyg – integrerad e‑post, kalender, enhetshantering och en katalogtjänst – positionerar Apple plattformen som en helhetslösning för små och medelstora företag som vill nå iOS‑användare utan att lämna Apples ekosystem. Företaget betonar att annonserna kommer att respektera deras integritets‑först‑princip, använda signaler på enheten snarare än spårning över appar, och begränsas till ett per sökning för att minimera störningar. Som vi rapporterade den 24 mars hade Apple redan signalerat planer på att tjäna pengar på Maps; dagens bekräftelse lägger till konkreta utrullningsdetaljer och knyter insatsen till ett globalt affärserbjudande som kommer att finnas tillgängligt i mer än 200 länder och regioner. De nästa stegen att hålla ögonen på är det utvecklar‑inriktade SDK‑et och självbetjäningsportalen som Apple lovar
96

Anthropics Claude Code får ‘säkerare’ autoläge

Mastodon +10 källor mastodon
ai-safetyanthropicautonomousclaude
Anthropic har lanserat ett reviderat “autoläge” för Claude Code, deras AI‑assisterade kodningsassistent, och lovar att minska den ständiga strömmen av behörighetsförfrågningar samtidigt som säkerhetsåtgärderna skärps. Den nya funktionen låter modellen, inom fördefinierade gränser, besluta om den ska läsa filer, installera beroenden eller köra skript på en utvecklares maskin, men den gör det nu bakom en sandlåda som isolerar körningen och loggar varje åtgärd för granskning. Om en begäran överskrider den förinställda risktröskeln återgår Claude Code till det klassiska godkännandeflödet, vilket ger användarna en tydlig “mellanväg” mellan full manuell kontroll och det tidigare, mer tillåtande autoläget. Förändringen är viktig eftersom friktionen från ständiga godkännanden har varit ett huvudklagomål bland utvecklare som antog Claude Code efter den 25 mars lanseringen av dess första autoläge (se vår rapportering den 25 mar 2026). Genom att integrera realtidspolicykontroller och en reversibel “ångra”-funktion syftar Anthropic till att behålla hastighetsfördelen med autonom kodning utan att öppna dörren för de oavsiktliga systemändringar som har orsakat säkerhetsoro i andra AI‑kodningsverktyg. Tidig intern testning, som företaget citerar, visar en 40 procentig minskning av promptinteraktioner och noll bekräftade privilegie‑eskaleringsincidenter i ett pilotprojekt med 120 utvecklare. Det som bör hållas ögonen på härnäst är hur snabbt det säkrare autoläget når allmän tillgänglighet och om tredjeparts‑IDE‑plugins kommer att anta samma skyddsmekanismer. Analytiker kommer också att följa användarfeedback på falskt positiva avslag, vilket kan tvinga Anthropic att finjustera sina risktrösklar. Slutligen förväntas konkurrenter som OpenAI och Microsoft meddela jämförbara autonoma kodningsfunktioner, vilket skapar ett kortsiktigt race om att balansera utvecklarproduktivitet med robusta säkerhetskontroller.
93

Apple kan ge Siri en omfattande AI‑uppgradering i iOS 27

Mastodon +7 källor mastodon
applevoice
Apple förbereder enligt uppgift sin mest ambitiösa omarbetning av Siri sedan assistenten lanserades för mer än ett decennium sedan. Bloomberg:s Mark Gurman säger att interna tester för iOS 27 inkluderar en fristående Siri‑app, ett uppdaterat konversationsgränssnitt och en ”Ask Siri”-växel som kommer att visas i menyer över hela operativsystemet. Växeln skulle låta användare markera text, skärmbilder eller appinnehåll och få omedelbara AI‑genererade svar, medan ett ”Write with Siri”-alternativ antyder generativa textfunktioner liknande ChatGPT. Översynen markerar ett tydligt skifte i Apples AI‑strategi. Efter månader av tyst utveckling av egna stora språkmodeller för inferens på enheten – vilket bevisas av nyligen forskning om lagringsnivå‑medveten LLM‑schemaläggning för Apple Silicon – verkar Apple nu redo att göra dessa modeller tillgängliga för konsumenterna. En dedikerad Siri‑app skulle föra assistenten ur systeminställningarna och in i ett utrymme där den kan konkurrera direkt med Google Assistant och Microsofts Copilot, som båda redan erbjuder rika chatbot‑upplevelser. Genom att integrera generativ AI samtidigt som bearbetningen sker på enheten kan Apple bevara sin integritetsnarrativ samtidigt som de levererar den konversationsdjup som använd
88

Från statiska mallar till dynamiska körningsgrafer: En översikt över arbetsflödesoptimering för LLM‑agenter

ArXiv +7 källor arxiv
agents
En ny arXiv‑pre‑print, *From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents* (arXiv:2603.22386v1), kartlägger det snabbt föränderliga landskapet för hur stora språkmodells‑agenter (LLM‑agenter) orkestrerar komplexa uppgifter. Författarna katalogiserar dussintals tekniker som går bortom hårdkodade, statiska pipelines och rör sig mot grafer som sätts samman och omformas i realtid, där LLM‑anrop, återhämtning, verktygsanrop, kodexekvering, minnesuppdateringar och verifieringssteg vävs samman. Skiftet är betydelsefullt eftersom dagens LLM‑drivna tjänster – från autonoma forskningsassistenter till multimodala chattbotar – måste jonglera fördröjning, kostnad och tillförlitlighet samtidigt som de hanterar oförutsägbara användarkrav. Dynamiska grafer möjliggör adaptiv schemaläggning, selektiv cachning och parallell exekvering, vilket minskar inferenskostnaden och reducerar flaskhalsar som har plågat tidigare mallbaserade system. Översikten lyfter också fram framväxande standarder för felpropagering och tillståndskonsistens, frågor som kom fram i vår rapportering den 24 mars om AI‑agenter som tunga API‑konsumenter. Branschaktörer testar redan koncepten. Schemaläggaren “Hypura” för Apple Silicon, som vi granskade den 25 mars, speglar flera av papirets rekommendationer kring tier‑medveten placering och just‑in‑time‑grafutvidgning. På samma sätt citerar nyligen släppta öppen‑källkods‑verktygssatser som låter agenter röra sig över heterogena miljöer samma optimeringsprimitiver. Vad att hålla ögonen på härnäst: författarna lovar en medföljande benchmark‑svit som planeras släppas senare detta kvartal, och som kan bli den de‑facto måttstocken för agent‑effektivitet. Konferenser som NeurIPS och ICML förväntas anordna dedikerade workshoppar, och flera nordiska startups har antytt att de kommer integrera översiktens taxonomi i sina orkestreringsplattformar. Allteftersom fältet samlas kring dynamiska körningsgrafer, är nästa våg av LLM‑agenter sannolikt snabbare, billigare och mer motståndskraftig än någonsin tidigare.
85

macOS Tahoe 26.4 nu tillgänglig med kompakt flikrad i Safari, batteriladdningsgränser och mer

Mastodon +7 källor mastodon
apple
Apple har släppt macOS Tahoe 26.4 till allmänheten, vilket markerar den fjärde stora uppdateringen av operativsystemet sedan dess höstdebut. Byggversionen (25E246) återställer Safaris kompakta flikrad – ett smalare, plats‑sparande gränssnitt som försvann med macOS Sequoia och som saknades i den ursprungliga Tahoe‑utgåvan. Funktionen finns nu både i macOS och iPadOS 26.4, vilket ger användare som föredrar ett minimalistiskt webbläsar‑chrome möjlighet att återaktivera den med ett enkelt växlingsknapp. En andra huvudfunktion är den nya inställningen för laddningsgräns, som låter Mac‑ägare begränsa den maximala batteriladdningen – ett verktyg som länge efterfrågats av yrkesverksamma som har sina bärbara datorer inkopplade under långa perioder. Gränsen kan ställas in i steg om 5 procent, och systemet stoppar laddningen när tröskeln nås, vilket hjälper till att bevara batteriets långsiktiga hälsa. Apple har också paketerat ett antal kvalitets‑förbättringar, bland annat förfinad fönstersnappning, uppdaterade tangentbordsgenvägar för diktering och en modest prestandaökning för Apple‑Silicon‑Macar. Varför detta är viktigt är tvådelat. För det första signalerar återinförandet av den kompakta flikraden att Apple är villiga att lyssna på användar‑drivna UI‑preferenser, ett sällsynt eftergift i en plattform som ofta dikterar designstandarder. För det andra placerar laddningsgränskontrollen macOS i linje med liknande funktioner som redan finns på iOS och iPadOS, vilket stärker Apples bredare strategi att sprida batterivårdstjänster över hela ekosystemet – ett steg som kan förlänga enheternas livslängd och minska e‑avfall. Uppdateringen kommer bara sex veckor efter macOS Tahoe 26.3 och följer Apples utrullning av iOS 26.4 den 25 mars, som lade till konsert‑liknande musikupplevelser och åtta nya emojis. Den snabba takten tyder på att Apple positionerar sina OS‑utgåvor som en kontinuerlig leveransmodell, troligen för att kunna integrera kommande AI‑drivna tjänster. Framåt blickar utvecklare på eventuell API‑exponering kopplad till de nya batterihanteringsinställningarna, medan konsumenter väntar på om Apple kommer att utöka det kompakta UI‑alternativet till andra appar. Den nästa inkrementella releasen, macOS 26.5, förväntas i sommar och kan introducera djupare integration av stora språkmodeller på enheten, ett trendspår som antytts i de senaste tillkännagivandena från Anthropic och Google.
80

🧠 # OpenAI stänger # Sora, sin video‑genereringstjänst med 🧠 # artificiellintelligens

Mastodon +6 källor mastodon
openai
OpenAI meddelade på tisdagen att de kommer att lägga ner Sora, den text‑till‑video‑tjänst som väckte stor uppståndelse när den lanserades för mindre än två år sedan. Företaget presenterade beslutet som ett strategiskt skifte: resurserna kommer att omdirigeras mot deras robotikprogram och andra AI‑drivna produktlinjer. Beslutet kommer som en överraskning för utvecklare och mediepartners som redan hade börjat integrera Soras generativa‑video‑API i nyhetsrum, reklambyråer och underhållningspipeline. Soras attraktionskraft låg i dess förmåga att omvandla en kort prompt till ett realistiskt klipp på några sekunder, en funktion som både väckte kommersiella förhoppningar och etiska farhågor kring spridning av deep‑fakes. Den plötsliga nedstängningen lämnar flera högprofilerade samarbeten i ett osäkert läge, särskilt pilotprojekten med Disneys animationsavdelning och de verktyg för innehållsskapande som testas av europeiska kringutgivare. OpenAIs uttalande antydde att partnerskapen kommer att ”omprövas” när företaget fokuserar på hårdvarucentrerad AI, vilket tyder på att video‑genereringstekniken kan bli ett avknoppat företag eller licensieras till tredje part snarare än att fortsätta utvecklas internt. Skiftet understryker en bredare branschtrend: efter en våg av experiment med generativ media omorienterar ledande laboratorier sig mot applikationer som upplevs som mer försvarbara och lönsamma, såsom autonom robotik, företags‑nivå språkmodeller och specialiserade API:er. För OpenAI kan flytten påskynda färdplanen för robotplattformen “Ada‑Bot”, som planeras att gå in i en begränsad betaversion senare i år. Vad man bör hålla ögonen på härnäst: tillkännagivanden om OpenAIs robotik‑milstolpar, eventuella licensavtal som kan hålla Sora‑liknande videoverktyg i livet under ett annat varumärke, samt hur konkurrenter — Google DeepMind, Meta AI och framväxande europeiska startups — positionerar sina egna generativa‑videolösningar i kölvattnet av Soras avveckling. Branschen kommer också att vara uppmärksam på om regulatoriska myndigheter skärper granskningen av AI‑genererat visuellt material i takt med att tekniken mognar.
80

ChatGPT: Videofunktionen Sora stängs ner

Mastodon +6 källor mastodon
openaisora
OpenAI har meddelat att videogenereringsfunktionen Sora, som är inbäddad i ChatGPT, kommer att stängas av senare i månaden. Beslutet, som kommunicerades via ett kort blogginlägg, gäller både konsumentappen och utvecklar‑förhandsgranskningen, och ingen detaljerad motivering gavs. Som vi rapporterade den 25 mars stängde OpenAI plötsligt ner Sora bara några månader efter lanseringen, med hänvisning till interna prioriteringar. Det senaste meddelandet bekräftar att avstängningen är permanent och omfattar även det experimentella API‑et som möjliggjorde tredjepartsintegration. Användare som har skapat fotorealistiska klipp från textpromptar kommer att förlora åtkomsten till verktyget och eventuella projekt som lagrats på plattformen. Beslutet är betydelsefullt eftersom Sora var den första allmänt tillgängliga AI:n som kunde syntetisera högkvalitativ video på några sekunder, vilket startade en våg av startups och medieexperiment. Dess försvinnande begränsar en nyetablerad marknad för AI‑drivet videoinnehåll och kan bromsa den bredare antagandet av generativ videoteknik, åtminstone tills en annan aktör fyller tomrummet. Analytiker ser också avstängningen som en signal om att OpenAI omfördelar resurser mot sitt nästa strategiska fokus: autonoma AI‑agenter som kan utföra flerstegsuppgifter inom ChatGPT och andra produkter. Det som blir intressant att följa är om OpenAI kommer att släppa en efterträdare som kombinerar videogenerering med sitt agent‑ramverk, eller om de kommer att licensiera de underliggande modellerna till externa företag. Konkurrenter som Google DeepMind och Meta har antytt liknande kapaciteter, och ett återuppvaknande av intresse från riskkapital kan påskynda alternativa lösningar. Håll ett öga på OpenAIs kommande utvecklar‑roadmap och eventuella partnerskapsannonseringar som kan återuppliva AI‑videoproduktion under ett annat namn.
75

Policy för generativ AI | Linux Foundation

Mastodon +6 källor mastodon
copyright
Linux Foundation har publicerat ett utkast till ”Policy för generativ AI” som lägger ansvaret på bidragsgivare att verifiera tillstånd varje gång ett AI‑genererat resultat innehåller tidigare upphovsrättsskyddat material. Formuleringen – ”Om något tidigare upphovsrättsskyddat material … ingår i AI‑verktygets resultat, bör bidragsgivaren bekräfta att de har tillstånd från tredje‑parts ägare” – har omedelbart fått kritik för att använda det villkorliga ”om” istället för ett striktare ”varje gång”, en nyans som kan skapa luckor i ansvarsskyddet. Policyn kommer i ett skede då stiftelsen utökar sin AI-närvaro och nyligen har lanserat Agentic AI Foundation (AAIF) för att förvalta öppna agentiska modeller. Genom att kodifiera hur bidragsgivare ska hantera verk från tredje part försöker Linux Foundation förena den öppna källkodens anda med de juridiska komplexiteterna kring träning och distribution av generativa modeller som ofta bearbetar enorma mängder upphovsrättsskyddad text, kod och media. Initiativet speglar en våg av institutionella riktlinjer, från Columbia Universities utvecklande ramverk för generativ AI till Elseviers tidskriftsspecifika regler, och signalerar ett branschomfattande tryck att integrera efterlevnad i utvecklingsprocessen innan regulatorer ingriper. Intressenter följer noggrant om ”om”-klausulen kommer att skärpas efter återkoppling från gemenskapen, särskilt från underhållare av öppen källkod som fruktar att otydligt språk kan utsätta projekt för upphovsrättsintrångsanspråk. Stiftelsens nästa steg kommer sannolikt att omfatta en offentlig kommentarsperiod
60

Hur vi byggde en produktionsklar röst‑AI‑agent på under 8 veckor (med Twilio + Anthropic Claude)

Dev.to +6 källor dev.to
agentsanthropicclaudevoice
Ett startup vid namn Loquent meddelade att de har fört en full‑stack röst‑AI‑agent från idé till produktion på mindre än åtta veckor, genom att kombinera Twilios telefoni‑stack med Anthropics Claude‑modell. Teamet byggde plattformen i två faser: en snabb‑prototyp‑fas som utnyttjade Claudes nya ”auto‑läge” för säker kodgenerering, och en hårdnings‑fas som lade till realtids‑ljudhantering, latens‑övervakning och kostnadskontroll‑lager innan lanseringen på Twilios programmerbara röst‑API. Resultatet är en konversations‑tjänst som kan svara på inkommande samtal, hämta data från ett CRM och överlämna till mänskliga agenter vid behov, samtidigt som den håller sig inom ett svarsfönster på under en sekund. Varför detta är viktigt är tvådelat. För det första krossar leveranshastigheten den konventionella tidslinjen för röst‑AI‑produkter, som vanligtvis sträcker sig över månader av ingenjörs‑ och efterlevnadsarbete. Genom att använda Claudes auto‑läge – först rapporterat av oss den 2026‑03‑25 – som en ”säkrare” kodassistent undvek Loquent många av de manuella felsökningscykler som bromsar LLM‑driven utveckling. För det andra visar arkitekturen att en slimmad stack – Twilio för operatörsklassad pålitlighet och Claude för naturlig språkförståelse – kan uppfylla företagsklassade krav utan de tunga orkestreringsplattformar som dominerar marknaden. Konkurrenter som Voiceflow, Vapi och Retell AI har länge marknadsfört drag‑and‑drop‑ eller API‑först‑lösningar, men Loquents tillvägagångssätt visar en väg till djupare anpassning och lägre latens, vilket kan pressa dessa leverantörer att öppna sina runtime‑miljöer. Det som bör hållas ögonen på härnäst är hur Loquent skalar tjänsten bortom den initiala piloten. Teamet planerar att integrera retrieval‑augmented generation för uppdaterade kunskapsbaser och att lägga till ett efterlevnads‑skydd som verkställer policy på varje samtal. Observatörer kommer också att vara nyfikna på om den modell‑centrerade utvecklingsarbetsflödet kan replikeras över andra vertikaler, vilket potentiellt kan sätta en ny standard för snabba, produktionsklara röst‑AI‑utplaceringar.
48

📰 OpenAI presenterar GPT‑5 2026 för att öka global produktivitet | Sam Altman tillkännager OpenAI:s VD Sam A

Mastodon +7 källor mastodon
gpt-5openaitraining
OpenAI meddelade på måndagen att de har avslutat förträningen av sin nästa generations modell, internt kallad “Spud”, och att den kommer att lanseras under varumärket GPT‑5 senare i år. Avslöjandet, gjort av VD Sam Altman i ett internt memo som läckte till The Information, placerar GPT‑5 som hörnstenen i företagets “Omni”-strategi – ett multimodalt system som kan bearbeta text, bilder, ljud och video med en enda, enhetlig arkitektur. Altman beskriver lanseringen som en katalysator för produktivitet och påstår att GPT‑5 kommer att tillföra “upp till 30 procent” till den ekonomiska produktionen för företag som tar den i bruk. Tidiga benchmarkresultat visar att modellen levererar högre resonemangsnoggrannhet och snabbare inferens än GPT‑4, medan en ny familj av lätta varianter – GPT‑5.4 mini och nano – lovar nästan flaggskepps‑prestanda på konsumentklassad hårdvara. Steget följer OpenAIs plötsliga nedläggning av videogenereringsverktyget Sora, vilket signalerar ett skifte från nischade experiment till ett bredare, företagsinriktat erbjudande. Varför det är viktigt är tvådelat
48

Din AI‑agent kan kapas med 3 rader JSON

Dev.to +6 källor dev.to
agents
En säkerhetsforskare har demonstrerat att en AI‑agent kan tas över genom att ändra endast tre rader JSON som beskriver ett externt verktyg. Attacken riktar sig mot det så kallade “model‑controlled‑program” (MCP)‑gränssnittet som många agenter använder för att anropa API‑er, molnfunktioner eller tredjepartstjänster. JSON‑payloaden som registrerar ett verktygs namn, syfte och parametrar parsas och litas på ordagrant; genom att infoga osynliga Unicode‑tecken, subtila mellanslagstrick eller en avslutande klammer följd av ett skadligt nyckel‑värde‑par (t.ex. "validation_result":"approved") kan en angripare skriva om verktygets schema och tyst omdirigera agentens mål. Proof‑of‑concept‑en, som beskrivs i ett nyligen publicerat Medium‑inlägg och bekräftas av fynd i *Cyber Defense Magazine*, visar att kapningen sker utan några felmeddelanden eller stack‑traces. Den komprometterade agenten fortsätter att utföra den injicerade instruktionen — exempelvis en databas‑droppande fråga eller ett obehörigt data‑exfiltreringsanrop — samtidigt som den loggar en helt normal “action completed”-post. Eftersom agenten behandlar den felaktiga JSON‑filen som en legitim beskrivning, misslyckas traditionella prompt‑injektionsförsvar, som fokuserar på användarens textinmatning, med att upptäcka intrånget. Detta är viktigt eftersom AI‑agenter går från experimentella demo‑versioner till produktionsbackbones: röstassistenter byggda på några veckor med Claude och Twilio, dynamiska arbetsflödesgrafer som orkestrerar LLM‑drivna pipelines, och autonoma kod‑exekveringsagenter som Claude Code. Som vi rapporterade den 24 mars: “AI Agents Are Your API’s Biggest Consumer. Do They Care About Good Design?” — säkerheten i verktygs‑anropslagret är nu en kritisk svag punkt. En kapad agent kan initiera kostsamma operationer, bryta mot efterlevnadsregler eller fungera som en fotfäste för bredare nätverksattacker. Vad man bör hålla ögonen på härnäst: Anthropic, OpenAI och andra plattformsleverantörer förväntas rulla ut striktare schemavalidering och signerade verktygsmanifest inom de kommande veckorna. Öppna SDK‑ar lägger redan till JSON‑kanonisering och sandlådad exekveringskontroll. Säkerhetsinriktade konferenser kommer sannolikt att ha dedikerade spår om “goal hijack”-mitigation, och regulatorer kan börja utarbeta riktlinjer för AI‑agents leveranskedjans integritet. Organisationer som distribuerar agenter bör granska sina MCP‑definitioner, verkställa strikta JSON‑scheman och implementera kör‑tidsverifiering av verktygsanrop innan nästa våg av attacker slår till.
40

Tibor Blaho (@btibor91) på X

Mastodon +7 källor mastodon
agentsopenai
OpenAI har lanserat en omfattande uppgradering av ChatGPT:s shopping‑assistent, som förvandlar ett textbaserat rekommendationsverktyg till en visuellt rikare, snabbare och mer heltäckande handelsupplevelse. Det nya gränssnittet placerar produktalternativ sida‑vid‑sida, låter användare ladda upp bilder för att hitta liknande varor och levererar resultat med högre relevans över ett bredare sortiment av återförsäljare. Under huven har företaget utökat sitt Agentic Commerce Protocol (ACP), en samling API:er som gör det möjligt för assistenten att fråga produktdatabaser, jämföra specifikationer och priser samt visa de bästa matchningarna i realtid. Förbättringen är betydelsefull eftersom den driver konversations‑AI djupare in i e‑handelsvärdekedjan. Genom att kombinera naturligt språk med visuell jämförelse suddar OpenAI ut gränsen mellan sökmotorer och shoppingplattformar, vilket utmanar Google Shopping och Amazons dominans inom produktupptäckt. Återförsäljare får en ny kanal för att nå kunder som föredrar chatt‑baserad surfning, medan konsumenterna får en enda, AI‑kuraterad översikt av alternativ som tidigare krävde att hoppa mellan olika webbplatser. Uppgraderingen fungerar också som ett litmusprov för OpenAIs bredare ambition att integrera agenter i vardagliga arbetsflöden, ett tema som återkom flera gånger under den senaste DevDay där företaget smygtippade en “Agent Store” för tredjeparts‑plugins. Alla ChatGPT‑användare – gratis, Go, Plus och Pro – får funktionen redan idag, men utrullningen är bara den första fasen. OpenAI har antytt närmare integrationer med stora återförsäljare, dynamiska prisflöden samt stöd för röst‑ och förstärkt‑verklighet‑förfrågningar. Håll utkik efter nästa omgång ACP‑partners, prismodeller för återförsäljares åtkomst och ett eventuellt offentligt API som kan låta utvecklare bygga egna shopping‑agenter. Hur snabbt ekosystemet antar dessa verktyg kommer att avgöra om konversations‑handel blir en mainstream‑köpmetod eller förblir ett nischat experiment.
40

AI Tech Daily 25 mars 2026 | Rick‑Brick

Mastodon +8 källor mastodon
microsoftnvidiaopenaiopen-sourcesora
OpenAI meddelade den 25 mars att de kommer att avveckla Sora, deras generativa videomodell som lanserades för bara sex månader sedan i samband med ett högprofilerat partnerskap på 1 miljard USD med Disney. Beslutet fattas efter en blygsam efterfrågan och ökande konkurrens från specialiserade verktyg som Runway och Adobe Firefly. Genom att dra i nödstoppet signalerar OpenAI ett strategiskt tillbakadragande från videogenerering för att dubbelt fokusera på sina kärnspråk‑ och multimodala modeller, inklusive GPT‑5‑sviten som presenterades tidigare i månaden. Nedstängningen kommer att påverka utvecklare som redan har börjat bygga arbetsflöden baserade på Sora, och den kan påskynda konsolideringen på den unga AI‑videomarknaden när startups tävlar om den nu lediga nischen. Samtidigt har NVIDIA lovat en svit av sina GPU‑accelererade nätverks‑ och inferensbibliotek till Cloud Native Computing Foundation (CNCF). Donationen syftar till att skapa en helt öppen stack för träning och leverans av stora modeller i molnnativa miljöer. För nordiska företag som förlitar sig på Kubernetes‑baserad infrastruktur kan detta sänka inträdesbarriärerna och påskynda utrullningen av avancerade AI‑tjänster utan behov av proprietära licenser. Microsoft presenterade ett nytt lager för datacenter‑effektivitet som utnyttjar AI för att i realtid optimera kylning, eldistribution och placering av arbetsbelastningar. Tekniken lovar upp till 30 procent energibesparing, ett tal som stämmer överens med Europas skärpande hållbarhetskrav och kan göra storskalig AI‑beräkning mer prisvärd för företag i regionen. Vad att hålla ögonen på härnäst: OpenAI kan återanvända Soras forskningsresurser för framtida multimodala erbjudanden, medan CNCF‑gemenskapen snart kommer att publicera referensimplementationer av NVIDIAs bidrag och testa deras skalbarhet i publika moln. Microsoft planerar en begränsad utrullning av sin effektivitetsteknik till Azure‑hyperskala‑anläggningar senare i år, och regulatorer förväntas granska de miljömässiga påståendena. Sammanflödet av dessa tre tillkännagivanden kan omforma hur nordiska företag bygger, driver och förser AI‑arbetsbelastningar med kraft under 2026 och framåt.
36

📰 AI‑agentutveckling 2026: DeepSeek anställer 17 specialister för DeerFlow 2.0‑integration DeepSeek är

Mastodon +7 källor mastodon
agentschipsdeepseeknvidiaopen-source
DeepSeek meddelade på måndag att de lägger till 17 specialisttjänster för att påskynda integrationen av DeerFlow 2.0, deras nyomskrivna öppna källkods‑SuperAgent‑ramverk. Rollen omfattar forskning inom agent‑djupinlärning, data‑utvärdering och infrastruktur‑engineering, och beskrivs i företagets egen annons som ”djupt involverade i tillämpningen av autonoma AI‑agenter”. Anställningsökningen markerar ett avgörande skifte från DeepSeeks traditionella fokus på grundläggande modellforskning mot en helhets‑produktifiering av agenter. Flytten följer den februari‑lanserade stora språkmodellen från DeepSeek, tränad på Nvidias mest avancerade AI‑chip, och sker i ett läge där Kinas tävling inom autonom teknik intensifieras. Genom att stärka DeerFlow 2.0 – en total omarbetning som kastar bort den ursprungliga v1‑kodbasen – siktar DeepSeek på att konkurrera med rivaliserande öppna stackar såsom ByteDances DeerFlow samt det snabbt utvecklande ekosystemet kring Anthropics Claude och OpenAIs agenter. Varför det är viktigt är tvådelat. För det första signalerar rekryteringskampanjen att DeepSeek förväntar sig att DeerFlow 2.0 blir en kärnplattform för att bygga kommersiella agenter, från förmögenhets‑hanterings‑botar till kodgenererings‑assistenter, vilket speglar den ökade användningen av agenter som rapporterades tidigare i veckan inom bank‑ och säkerhetssektorn. För det andra indikerar fokus på dedikerad utvärderings‑ och infrastruktur‑talang att DeepSeek adresserar skalbarhets‑ och säkerhetsutmaningar som har plågat tidigare agent‑utgåvor, där små kodändringar kunde kapra beteendet. Det som bör hållas ögonen på härnäst är de första produktions‑demoerna som DeepSeek lovar senare under kvartalet, sannolikt med DeerFlow‑drivna agenter integrerade med populära dev‑ops‑verktyg som GitLab och Jira. Benchmark‑resultat som jämför DeerFlow 2.0:s latens och verktygs‑användningseffektivitet mot konkurrerande ramverk blir ett litmusprov för dess marknadspenetration. Slutligen kan anställningsvågen förebåda strategiska partnerskap eller företagskontrakt, särskilt i takt med att kinesiska regulatorer skärper tillsynen av autonoma AI‑system. De kommande veckorna kommer att visa om DeepSeeks agent‑först‑strategi kan omvandla teknisk momentum till kommersiella fotfästen.
36

📰 AI‑agenter i bankvärlden: Bank of America lanserar GenAI 2026 för förmögenhetsförvaltning och betalningar

Mastodon +7 källor mastodon
agents
Bank of America har tagit ett avgörande steg mot AI‑driven finans, genom att lansera en generativ‑AI‑plattform (GenAI) som driver virtuella agenter för både förmögenhetsförvaltning och globala betalningar. Systemet, som kallas Ask Global Payments Solutions (AskGPS), byggdes internt och tränades på mer än 3 200 interna dokument – inklusive produktguider, term‑sheet‑dokument och vanliga frågor – för att ge anställda omedelbara, korrekta svar när de betjänar bankens 40 000 företagskunder. Implementeringen markerar första gången BofA:s kundinriktade agenter arbetar autonomt i realtid, hanterar rutinfrågor, genererar personliga investeringsinsikter och effektiviserar gränsöverskridande betalningsflöden. Tidiga interna mätvärden visar en 90 % antagningsgrad bland personalen och prognoser om tiotusentals sparade medarbetartimmar, vilket motsvarar effektivitetsvinster på flera miljoner dollar. Betydelsen är tvåfaldig. För det första placerar man GenAI i kärnan av bankens kommersiella, förmögenhets-, ingenjörs‑ och treasury‑avdelningar, vilket signalerar ett skifte från experimentella
33

Sandboxing av AI‑agenter, 100 × snabbare

HN +5 källor hn
agents
Cloudflare presenterade ett nytt sandbox‑ramverk för AI‑agenter som enligt företaget kan provisioneras och köras upp till 100 gånger snabbare än befintliga lösningar. Systemet skapar automatiskt en Cap’n‑Proto‑baserad Web‑RPC‑brygga mellan sandlådan och utvecklarens testkod, vilket gör att agenter kan anropa externa tjänster utan att exponera värdmiljön. Tillkännagivandet sammanfaller med en bredare uppgradering av Workers AI, som nu erbjuder kraftfullare GPU:er, stöd för större modeller och utökad edge‑till‑cloud‑inferenskraft. Prestandaökningen är viktig eftersom dagens autonoma agenter – från kundtjänst‑botar till kodgenereringsassistenter – i allt högre grad distribueras i stor skala och ofta måste isoleras av säkerhets‑ och efterlevnads­skäl. Traditionell sandboxing kan tillföra fördröjning som urvinner realtidsfördelarna med edge‑AI, medan otillräcklig isolering lämnar systemen sårbara för skadligt beteende. Genom att komprimera sandlåde‑installationscykeln och möjliggöra snabb, säker RPC‑kommunikation vill Cloudflare göra det praktiskt för utvecklare att iterera på agentlogik, köra storskaliga experiment och verkställa policykontroller utan att offra prestanda. Steget signalerar också en förändring i AI‑infrastrukturens landskap. Som vi rapporterade den 20 mars, sträcker sig tävlingen om snabbare inferens bortom ren beräkningskraft
27

God morgon från Gaza 🌄 🇵🇸 Jag hoppas att du och jag får en underbar dag. 🙏😊🫂 # Gaza # palestine # M

Mastodon +6 källor mastodon
healthcareopenaisora
En Mastodon‑användare postade en ljus‑morgonhälsning från Gaza, där ett soluppgångs‑emoji kombinerades med den palestinska flaggan och en kaskad av hashtags som inkluderade #OpenAI och #Sora. Det korta meddelandet, “God morgon från Gaza 🌄 🇵🇸 Jag hoppas att du och jag får en underbar dag,” åtföljdes av ett kort videoklipp med katter som genererats med OpenAIs nyutgivna Sora text‑till‑video‑modell och delades på Fediverse under taggar som #CatsOfMastodon och #TuneTuesday. Inlägget är anmärkningsvärt, inte för sin längd, utan för vad det signalerar: invånare i en krigshärjad enklav får tillgång till den senaste generativa AI‑tekniken trots allvarliga infrastrukturskador och internetrestriktioner. Enligt lokala aktivister skapades videon på en smartphone med en VPN‑ruttad anslutning till OpenAIs API, och laddades sedan upp till en decentraliserad Mastodon‑instans som fortfarande är nåbar från Gaza. Innehållet blandar vardaglig optimism – en lekfull kattscen – med ett subtilt politiskt budskap, och understryker hur AI‑verktyg återanvänds för att stärka moralen snarare än enbart för kommersiella eller forskningsändamål. Varför det är viktigt är tvådelat. För det första illustrerar det den snabba spridningen av kraftfulla generativa modeller till regioner där digital uppkoppling är skör, vilket väcker frågor om AI‑tjänsters motståndskraft under konfliktförhållanden och leverantörernas etiska ansvar. För det andra kan kombinationen av AI‑genererat media och personliga berättelser bli en ny vektor för både humanitär berättande och desinformation, eftersom gränsen mellan autentiskt material och syntetiskt innehåll suddas ut. Observatörer bör hålla ett öga på huruvida OpenAI eller andra leverantörer justerar åtkomstpolicyer för användare i sanktionerade eller konfliktutsatta områden, samt om NGO:s börjar utnyttja liknande verktyg för dokumentation, utbildning eller psykologiskt stöd. De kommande veckorna kan se en ökning av AI‑förstärkt innehåll som kommer från Gaza, vilket kan leda till debatter om verifiering, plattformsansvar och rollen för generativ teknik i kriskommunikation.
26

Kan du bygga ett privat, lokalt AI‑verktyg på en helg utan att vara utvecklare? Ja. Jag gjorde det precis med Ol

Mastodon +6 källor mastodon
llama
En utvecklare‑som‑blivit‑skapare har bevisat att en helt privat AI‑assistent kan sättas ihop på en helg med en konsument‑laptop, med enbart Ollama, Streamlit och Metas nyutgivna Llama 3.1. Författaren till den steg‑för‑steg‑guide som publicerats på wiobyrne.com beskriver hur de tre verktygen – Ollamas lätta lokala LLM‑runtime, Streamlits drag‑och‑släpp‑webb‑UI och Llama 3.1:s 8‑miljard‑parameter‑modell – kombinerades på mindre än 12 timmar för att skapa en chatt‑baserad assistent som körs helt offline, lagrar ingen användardata i molnet och kostar inget mer än elförbrukning. Prestationen markerar ett dramatiskt skifte från 2023, då byggandet av ett motsvarande system vanligtvis krävde ett hackathon med flera personer, molnkrediter och djup ingenjörsexpertis. Llama 3.1:s öppen‑källkodslicens, i kombination med Ollamas plug‑and‑play‑containerisering, sänker tröskeln för hobbyister, småföretag och integritets‑medvetna organisationer i hela Norden. Genom att hålla inferensen på enheten undviker lösningen de datasuveränitetsfrågor som har drivit de senaste EU‑ och svenska regulatoriska debatterna, samtidigt som den eliminerar återkommande molnkostnader som hindrat antagandet av kommersiella AI‑assistenter. Branschobservatörer ser detta som en indikator på en bredare decentralisering av AI‑tjänster. Om icke‑tekniska användare kan sätta igång funktionella agenter på en helg, kan efterfrågan på hostade API‑er plana ut, vilket tvingar molnleverantörer att ompröva prissättning och integritetsgarantier. Nästa milstolpar att bevaka är prestandamätningar av Llama 3.1 mot proprietära modeller, framväxten av plugin‑ekosystem som utökar Streamlit‑baserade agenter, samt potentiella standardiseringsinsatser från nordiska AI‑konsortier för att certifiera lokalt körda modeller för företagsanvändning. Helgprojektet kan därför vara den första glimt av ett nytt, mer autonomt AI‑landskap.

Alla datum