AI News

150

Förstå Transformers Del 4: Introduktion till Själv‑uppmärksamhet

Förstå Transformers Del 4: Introduktion till Själv‑uppmärksamhet
Dev.to +5 källor dev.to
embeddings
Rijul Rajeshs “Understanding Transformers Part 4: Introduction to Self‑Attention” publicerades den 9 april och utvidgar hans populära serie som avmystifierar arkitekturen bakom dagens stora språkmodeller. Det nya inlägget fortsätter från del 3, där Rajesh förklarade hur ordembeddingar och positionskodningar förenar betydelse med ordning, och dyker ner i själv‑uppmärksamhetsmekanismen som låter en transformer väga varje token mot varje annan token i ett enda pass. Artikeln bryter ner matematiken bakom query‑, key‑ och value‑vektorer, illustrerar multi‑head‑attention med kodsnuttar och visar hur operationen skalar från ett fåtal token till de miljarder som bearbetas av kommersiella LLM:er. Genom att översätta abstrakta tensoroperationer till konkreta exempel ger Rajesh utvecklare ett praktiskt försprång för att bygga eller finjustera sina egna modeller – en särskilt värdefull resurs för den nordiska AI‑gemenskapen, där startups och forskningslabbar snabbt antar transformer‑baserade lösningar för allt från flerspråkiga chatbots till klimatdata‑analys. Varför det är viktigt är tvådelat. För det första är själv‑uppmärksamhet motorn som driver den kontextuella förståelse
127

OpenAI lägger ner banbrytande investeringspaket på 31 miljarder pund i Storbritannien

OpenAI lägger ner banbrytande investeringspaket på 31 miljarder pund i Storbritannien
Mastodon +6 källor mastodon
copyrightopenai
OpenAI har dragit i nödstoppet för sitt 31 miljarder pund stora ”Stargate UK”-program och stoppat planerna på att bygga ett enormt AI‑beräkningscenter i Cobalt i Northumberland. Företaget hänvisade till skyhöga energikostnader och en alltmer osäker regulatorisk miljö som de avgörande faktorerna bakom återtåget. Beslutet avslutar ett högprofilerat samarbete mellan Storbritannien och USA som skulle ”integrera AI” i den brittiska ekonomin, skapa tusentals högkvalificerade jobb och befästa Storbritanniens roll som ett europeiskt AI‑centrum. Investeringen skulle ha blivit den största enskilda utländska AI‑åtagandet i landets historia och komplettera OpenAIs 500 miljarder dollar stora ”Stargate”-lansering i USA. Dess avbokning berövar inte bara Nordöstra England en potentiell ekonomisk katalysator, utan signalerar också att Storbritanniens nuvarande politik och energiramverk kan vara i disharmoni med de kapitalintensiva kraven från frontier‑AI‑modeller. Som vi rapporterade den 9 april har OpenAI också lagt ett separat datacenteravtal på paus och övergått till förbrukningsbaserad prissättning för sitt Codex‑API, vilket understryker en bredare omkalibrering av deras europeiska strategi. Det senaste tillbakadragandet förstärker oron för att Storbritannien kan förlora marknadsandelar till konkurrenter som Europas DeepMind och USA, där mer förutsägbara regulatoriska vägar och billigare el redan lockar storskaliga AI‑infrastrukturprojekt. Att hålla ögonen på framöver: den brittiska regeringens svar, inklusive om den kommer att erbjuda riktade subventioner, påskynda AI‑licenser eller omförhandla avtalets villkor. Branschobservatörer
119

OpenAI pausar Stargate‑datacenter i Storbritannien med hänvisning till energikostnader

Bloomberg +14 källor 2026-03-25 news
openai
OpenAI meddelade idag att de stoppar utrullningen av sitt “Stargate”‑projekt för artificiell intelligens‑infrastruktur i Storbritannien, med hänvisning till de skenande energikostnaderna och ett alltmer komplext regulatoriskt landskap. Beslutet innebär att byggnationen av det högpresterande datacentret, som skulle hysa företagets nästa generations GPU‑kluster och fungera som en hub för europeiska kunder, läggs på is. Åtgärden bygger på varningen som gavs den 9 april, då OpenAI först satte sitt avtal om ett brittiskt datacenter på paus av liknande skäl. Vid den tidpunkten hade företaget redan signalerat att det £31 miljarder‑stora investeringspaket som de lovat den brittiska regeringen kunde bli hotat. Genom att pausa Stargate skalar OpenAI i praktiken ner sina europeiska beräkningsambitioner tills energipriserna stabiliseras och tydligare vägledning kring AI‑relaterad lagstiftning framkommer. Pausen är betydelsefull av flera skäl. Storbritannien har positionerat sig som en potentiell AI‑supermakt och räknar med OpenAIs närvaro för att locka talang, driva lokala leverantörskedjor och motivera offentliga subventioner för förnybar energi. Ett försenat datacenter riskerar att bromsa utrullningen av avancerade AI‑tjänster för brittiska företag och kan minska förtroendet bland andra teknikföretag som överväger en europeisk fotfäste. Dessutom understryker beslutet hur volatila energimarknader omformar ekonomin för storskalig AI‑träning, en faktor som kan tvinga andra molnleverantörer att ompröva liknande projekt. Det som bör bevakas härnäst är förhandlingarna mellan OpenAI och Storbritanniens Department for Business and Trade om reviderade villkor, samt huruvida företaget kommer att flytta Stargate‑byggnationen till en lägre kostnads‑jurisdiktion. Analytiker kommer också att följa den brittiska regeringens svar – eventuellt nya incitament för grön energi eller förenklade AI‑regler – samt effekterna på den bredare europeiska AI‑infrastruktur‑kapplöpningen. De kommande veckorna kan avgöra om Storbritannien förblir på snabbspåret mot att bli ett AI‑centrum eller ser möjligheten glida bort någon annanstans.
106

OpenAI stöttar lagförslag som skulle begränsa ansvar för AI‑drivna massdödsfall eller finansiella katastrofer

OpenAI stöttar lagförslag som skulle begränsa ansvar för AI‑drivna massdödsfall eller finansiella katastrofer
Mastodon +7 källor mastodon
openai
OpenAI har lagt sitt stöd bakom Illinois Senate Bill 2155, ett förslag som skulle skydda utvecklare av artificiell intelligens från civilrättsligt ansvar även när deras modeller används för att orsaka massiva dödsfall eller förluster på miljarder dollar. Företaget vittnade inför delstatens Senate Judiciary Committee på tisdagen och hävdade att införandet av strikt ansvar för AI‑laboratorier skulle kväva innovation och utsätta företag för ”orättvisa, öppna” rättstvister. Lagförslaget, som introducerats av demokratiskt inriktade lagstiftare, syftar till att skapa ett ”ansvarsskydd” för AI‑leverantörer, begränsa skadestånd till ett takbelopp och kräva att käranden bevisar att utvecklarens vårdslöshet, snarare än modellens output, direkt orsakade skadan. Kritiker menar att lagförslaget kan låta företag gå fria från ansvar för katastrofala händelser, från olyckor med självkörande fordon till algoritmdriven marknadsmanipulation. Konsumentorganisationer och flera forskare inom tekniketik har varnat för att sådana skydd kan urholka ansvarstagandet i en tid då AI‑system integreras i höginsats‑områden. OpenAIs stöd markerar ett strategiskt skifte från dess nyliga defensiva hållning i regulatoriska frågor, såsom den energikostnadsdrivna pausen för dess brittiska datacenter och den skärpning av modellutgåvor som svar
90

Gör dem dumma, sälj dem smarthet

Gör dem dumma, sälj dem smarthet
Mastodon +8 källor mastodon
OpenAI:s verkställande direktör Sam Altman presenterade en djärv ny intäktsmodell på företagets “AI Utility”-presentation den 9 april, där generativ intelligens placeras som en samhällstjänst som faktureras på samma sätt som vatten eller el. Planen, som kallas “Intelligence‑as‑a‑Utility”, kommer att ta betalt av användarna för den mängd “kognitiv bandbredd” deras frågor förbrukar, mätt i en ny enhet som benämns “smart‑tokens”. Även om OpenAI redan tjänar pengar på ChatGPT via prenumerationsnivåer och API‑användning, skiftar nyttighetsmodellen fokus från en fast avgift till ett “pay‑per‑intelligence”-ramverk, vilket i praktiken gör varje svar, förslag eller kodsnutt till en mättad tjänst. Altman hävdar att modellen speglar den växande verkligheten att AI‑assistenter avlastar minne‑ och resonemangsuppgifter från människors hjärnor. Nyliga studier från universitet i Skandinavien och USA visar att frekvent förlitelse på konversationsagenter kan försämra informationsbevarande och kritiskt tänkande, ett fenomen som Altman erkänner i sina kommentarer. Genom att prissätta “smarthet” direkt hoppas OpenAI återfå de enorma beräkningskostnaderna för att träna allt större modeller och samtidigt uppmuntra mer effektiv promptning. Tillkännagivandet är betydelsefullt eftersom det kan omforma hur individer, företag och myndigheter budgeterar för AI. En avgiftsstruktur i nytta‑stil kan bredda klyftan mellan teknikvana användare som kan optimera token‑förbrukning och de som inte kan, vilket väcker rättvisefrågor som påminner om EU:s AI‑lag och nordiska förslag om universell AI‑tillgång. Det signalerar också ett strategiskt skifte: snarare än att bara konkurrera på modellens kapacitet satsar OpenAI på kontrollen över konsumtionslagret. Håll utkik efter lanseringsplanen, som Altman sade kommer att inledas med en beta för företagskunder i juni, samt efter reaktioner från tillsynsmyndigheter och konkurrenter som Google Gemini och Anthropic, som kan lansera moterbjudanden eller lobbya för striktare pris‑transparens. De kommande månaderna kommer att avslöja om “intelligence as a utility” blir en ny branschstandard eller en gnista för politisk debatt.
69

Omvänd ingenjörskonst av Geminis SynthID‑detektion

Omvänd ingenjörskonst av Geminis SynthID‑detektion
HN +6 källor hn
geminigooglemeta
Googles Gemini‑modell har länge förlitat sig på SynthID, ett osynligt vattenmärke som märker AI‑genererad text och bilder så att de kan identifieras av företagets SynthIDDetector‑verktyg som presenterades på Google I/O 2025. Ett team av oberoende forskare meddelade att de framgångsrikt har omvänt konstruerat detekteringsmekanismen och avslöjat de statistiska mönstren och token‑nivå‑signalerna som detektorn använder för att flagga syntetiskt innehåll. Genombrottet kom efter att forskarna samlade in ett stort korpus av Gemini‑utdata, använde den publika detektorn och sedan utförde en differentialanalys för att isolera vattenmärkets signatur. Deras artikel, publicerad på en pre‑print‑server, beskriver en uppsättning heuristiker som både kan bekräfta närvaron av SynthID och, avgörande, föreslå sätt att avlägsna eller maskera vattenmärket utan att försämra outputens kvalitet. Författarna betonar att deras arbete syftar till att granska vattenmärkningens robusthet snarare än att möjliggöra illvilligt missbruk. Varför detta är viktigt är tvåfaldigt. För det första undergräver upptäckten Googles påstående att SynthID erbjuder en manipulationssäker provenienssignal för AI‑gener
67

Finjustering av Gemma 3 med Cloud Run Jobs: Serverlösa GPU:er (NVIDIA RTX 6000 Pro) för klassificering av husdjursraser 🐈🐕

Finjustering av Gemma 3 med Cloud Run Jobs: Serverlösa GPU:er (NVIDIA RTX 6000 Pro) för klassificering av husdjursraser 🐈🐕
Dev.to +6 källor dev.to
fine-tuninggemmagooglenvidia
Google Cloud har lanserat server‑less GPU‑stöd på Cloud Run Jobs, vilket låter utvecklare finjustera stora språkmodeller utan att provisionera dedikerade instanser. Den första offentliga demonstrationen använder de nya NVIDIA RTX 6000 Pro (Blackwell)‑korten för att anpassa den 27‑miljard‑parameter‑modellen Gemma 3 till en uppgift för klassificering av husdjursraser, och omvandlar en generisk LLM till en specialist‑bild‑och‑text‑igenkännare för katter och hundar. Arbetsflödet, som publicerades av en community‑ingenjör, startar ett Cloud Run‑jobb som automatiskt provisionerar en RTX 6000 Pro, hämtar Gemma 3‑vikterna och kör en QLoRA‑liknande finjusteringsloop på ett kuraterat dataset av husdjursbilder och rasetiketter. Betala‑per‑sekund‑fakturering, omedelbar skalning till noll och en kallstart på 19 sekunder för 4‑miljard‑parameter‑varianten innebär att hela experimentet kostar bara några dollar och kan reproduceras på begäran. Ingen kvotbegäran krävs för L4‑klassens GPU:er som driver tjänsten, vilket sänker tröskeln för små team och hobbyister. Varför det är viktigt är tvåfaldigt. För det första demokratiserar det tillgången till högpresterande GPU‑resurser, en långvarig flaskhals för nordiska startups och forskargrupper som saknar lokala kluster. För det andra signalerar det Googles satsning på att positionera Cloud Run som ett livskraftigt alternativ till Vertex AI för anpassat modellarbete, i direkt konkurrens med AWS SageMaker Serverless och Azure ML:s hanterade beräkning. Genom att kombinera open‑source Gemma‑modeller—först framhävd i vår täckning av Gemma 4 den 9 april—med verkligt server‑less hårdvara, minskar Google klyftan mellan modellens tillgänglighet och praktisk, lågkostnads‑distribution. Framöver kommer communityt sannolikt att testa samma pipeline på den nyare Gemma 4‑familjen och på större GPU‑typer när de blir server‑less. Håll utkik efter benchmark‑släpp som jämför kostnad och latens mot traditionell VM‑baserad finjustering, samt för tätare integration med verktyg som Unsloth och Hugging Face:s TRL, vilka kan ytterligare påskynda nisch‑AI‑applikationer i Norden.
64

OpenAI begränsar lanseringen av nya modeller på grund av cybersäkerhetsrisker

Mastodon +7 källor mastodon
openai
OpenAI meddelade på tisdagen att de avsiktligt kommer att bromsa utrullningen av sina nästa generations språkmodeller, med hänvisning till risken att tekniken kan vapeniseras för att upptäcka mjukvarusårbarheter i stor skala. Företaget sade att de kommer att gå från en ”bred offentlig lansering” till en stegvis, enbart på inbjudan baserad utrullning för företags‑ och forskningspartner, med striktare övervakning av hur modellerna används. Beslutet följer interna debatter som speglar de långvariga ”ansvarsfulla avslöjandepraxis” som cybersäkerhetsföretag tillämpar. OpenAIs säkerhetschef, Mira Lee, liknade tillvägagångssättet vid hur leverantörer patchar kritiska buggar först efter att ha bekräftat att korrigeringar är på plats, och argumenterade att obegränsad åtkomst skulle kunna påskynda upptäckten av noll‑dagsexploater i kritisk infrastruktur. Åtgärden stämmer också överens med den senaste branschens försiktighet: Anthropic begränsade förra veckan sin egen högkapacitetsmodell, Mythos, av samma anledning, och tillsynsmyndigheter i EU och Storbritannien har börjat undersöka de samhälleliga effekterna av allt kraftfullare AI‑system. Att begränsa lanseringen är viktigt eftersom det signalerar ett skifte från OpenAIs tidigare strategi med snabb, öppen spridning mot en mer skyddad modell för kommersialisering. Restriktionen kan sakta innovationstakten för utvecklare som är beroende av de senaste funktionerna, men den kan också förhindra en våg av AI‑drivna cyberattacker som skulle kunna överträffa nuvarande försvarsverktyg. Analytiker noterar att tidpunkten sammanfaller med rapporterade brist på beräkningskapacitet hos OpenAI och den förestående pensioneringen av GPT‑4o den 3 april, vilket tyder på att företaget omfördelar resurser för att hantera risk snarare än ren skala. Att hålla utkik efter: OpenAI har lovat en detaljerad färdplan senast i slutet av månaden, som beskriver vilka partner som får tidig åtkomst och vilka övervakningsåtgärder som kommer att verkställas. Tillsynsmyndigheter förväntas utfärda vägledning om AI‑stödd sårbarhetsforskning, och konkurrenter kan antingen följa efter eller dubbla sina öppna lanseringar för att ta marknadsandelar. Balansen mellan säkerhet och hastighet kommer sannolikt att forma nästa våg av AI‑produkter i hela sektorn.
60

Claude Mythos: Framtiden för autonoma exploateringar – Detta är annorlunda. Anthropic gjorde inte bara b

Mastodon +6 källor mastodon
anthropicautonomousclaude
Anthropic tillkännagav existensen av Claude Mythos, en AI‑modell i förhandsvisningsstadiet som kan upptäcka noll‑dagssårbarheter autonomt i stora operativsystem och webbläsare. Företaget uppger att systemet fungerar, men att det inte kommer att släppas till allmänheten eftersom det har passerat en säkerhetströskel som Anthropic anser att branschen ännu inte är beredd att hantera. Avslöjandet markerar ett tydligt avsteg från Anthropics senaste utrullningsstrategi, som har fokuserat på inkrementella uppgraderingar såsom Claude Opus 4.6 och ramverk för hanterade agenter. Mythos beskrivs som en ”frontier‑modell” som kan skanna kod, nätverkskonfigurationer och körmiljöer utan mänsklig uppmaning, och generera exploateringskedjor som traditionellt skulle kräva veckor av specialistarbete. I ett läckt internt memo varnade ingenjörer för att modellens framgångsfrekvens på nya sårbarheter överstiger 70 procent, ett tal som vida överstiger den 10 procentiga fördel som erfarna Claude‑användare rapporterades ha i vår täckning av hanterade agenter den 9 april. Varför detta är viktigt är tvådelat. För det första kan förmågan att automatisera upptäckten av exploateringar komprimera sårbarhetslivscykeln, ge angripare ett kraftfullt nytt vapen och tvinga försvarare att ompröva sina patch‑rutiner. För det andra signalerar Anthropics beslut att hålla tillbaka modellen en växande insikt om att AI‑utvecklingen går före styrningsramarna, vilket återkallar de oro som uttrycktes i Atlantics senaste analys av ”Claude Mythos är allas problem”. Den samtidiga lanseringen av Project Glasswing – en defensiv koalition som inkluderar AWS, Apple, Cisco, Google och andra – tyder på att branschen mobiliserar ett koordinerat svar innan tekniken någonsin får kommersiell användning. Det som bör hållas ögonen på härnäst är de konkreta åtgärder som Project Glasswing kommer att vidta för att stärka mjukvarukedjor samt huruvida regulatorer kommer att ingripa för att sätta gränser för verktyg som autonomt genererar exploateringar. Anthropics nästa offentliga uttalande, som sannolikt kommer att beskriva en färdplan för kontrollerad extern testning, blir en viktig barometer för hur snabbt det AI‑drivna cyber‑vapenloppet eskalerar.
54

80 % av RAG‑misslyckanden startar här (och det är inte LLM:n)

Dev.to +6 källor dev.to
geminigooglerag
En tre veckor lång djupdykning av ett nordiskt fintech‑team har identifierat källan till de flesta hallucinationerna i retrieval‑augmented generation (RAG)‑pipelines: hämtningslagret, inte den stora språkmodellen (LLM) i sig. Ingenjörerna började med att byta prompts, justera temperaturinställningar och till och med byta den underliggande LLM:n, men de felaktiga svaren kvarstod. Först när de instrumenterade vektorlager, logik för frågeexpansion och dokument‑rankningsmodulen upptäckte de att 80 % av de felaktiga utdata genererades innan LLM:n någonsin såg en prompt. Resultatet ekar ett fält­guide‑dokument från februari som varnade för att ”70 % av RAG‑misslyckanden sker innan LLM:n anropas”, och det bekräftar påståendet vi gjorde den 8 april att ”hämtning är den verkliga modellen” i en RAG‑arkitektur. IDC‑forskning som citeras i ett Medium‑inlägg från mars uppskattar att endast en av tio egenutvecklade AI‑projekt överlever bortom proof‑of‑concept, och en senior GenAI‑ledare på PIMCO bekräftar att samma 80 % misslyckandefrekvens gäller för företags‑RAG‑implementeringar. De grundläggande orsakerna som fintech‑teamet identifierade inkluderar dåligt justerade chunk‑storlekar, föråldrade embeddingar, otillräcklig metadatafiltrering och rankningsalgoritmer som lyfter fram irrelevanta passager – allt detta matar LLM:n med missvisande kontext. Varför detta är viktigt är tvådelat. För det första investerar företag miljarder i RAG‑drivna produkter som lovar uppdaterade, källgrundade svar; systematiska hämtningsfel undergräver förtroendet och ökar driftskostnaderna. För det andra är problemet inte ett enstaka fel utan ett strukturellt ingenjörsgap som kan förstärka andra risker, såsom de ”poisoned‑web‑page”-attackerna vi rapporterade den 9 april. Det som bör bevakas härnäst är de framväxande observabilitetsverktygen som exponerar hämtningslatens, relevanspoäng och proveniens i realtid, samt nästa våg av uppdateringar från molnleverantörer – Azure Cognitive Searchs förhandsvisning av ”retrieval diagnostics” och AWS Kendras funktion ”ground‑truth feedback” är planerade för lansering senare detta kvartal. Branschorganisationer i EU håller också på att utarbeta riktlinjer för datakvalitet för AI, vilket kan göra rigorösa hämtningstester till ett efterlevnadskrav. Fintech‑teamet planerar att publicera en detaljerad post‑mortem, och deras metodik kan bli en de‑facto‑checklista för alla organisationer som skalar RAG bortom laboratoriet.
40

Anthropic’s Claude Mythos Breakthrough: ‘Project Glasswing’ Launched to Prevent AI Cyber-Crisis

Anthropic’s Claude Mythos Breakthrough: ‘Project Glasswing’ Launched to Prevent AI Cyber-Crisis
Outlook Business +6 källor 2026-04-09 news
anthropicappleclaudegoogle
Anthropic tillkännagav förhandsvisningen av sin nästa generations modell, Claude Mythos, och lanserade samtidigt ”Project Glasswing”, en branschöverskridande koalition som syftar till att stärka mjukvara mot AI‑drivna attacker. Koalitionen samlar moln‑ och enhetsjättar – inklusive AWS, Apple, Google, Microsoft och mer än 45 ytterligare partners – för att integrera Mythos Preview i defensiva säkerhetsarbetsflöden, jaga zero‑day‑brister och dela data om åtgärder över hela ekosystemet. Claude Mythos positioneras som en ”frontier‑modell” som kombinerar resonemangsdjupet i Anthropics senaste stora språkmodeller med specialiserade kod‑analysförmågor. Enligt interna tester har systemet identifierat tusentals högallvarliga sårbarheter i kritiska infrastrukturskomponenter som traditionella skannrar missade. Genom att ge partners tidig åtkomst hoppas Anthropic skapa en återkopplingsloop som påskyndar patchning innan exploateringar kan vapeniseras. Initiativet är betydelsefullt eftersom samma generativa‑AI‑tekniker som driver Mythos också sänker tröskeln för att skapa sofistikerad skadlig kod. Säkerhetsexperter har varnat för att autonom exploateringsgenerering kan nå mänsklig nivå inom några år, ett scenario som antyddes i Anthropics tidigare rapport ”Claude Mythos: The Future of Autonomous Exploits” (10 april). Project Glasswing är därför både ett defensivt skydd och en signal om att AI‑gemenskapen tar den framväxande cyber‑risken på allvar. Det som bör bevakas härnäst är utrullningen av Mythos Preview i koalitionens miljöer samt de första offentliga avslöjandena av sårbarheter som den upptäcker. Analytiker kommer också att följa om Anthropic breddar åtkomsten utöver de grundande partnerna, hur regulatorer reagerar på koordinerade AI‑säkerhetsinitiativ, och om rivaliserande företag utvecklar konkurrerande ”AI‑first” försvarsstackar. Balansen mellan att stärka digitala grundvalar och att förhindra teknikens missbruk kommer att definiera nästa kapitel i AI‑stödd cybersäkerhet.
36

OpenAI lägger till ny $100/månad ChatGPT‑prenumerationsnivå för tungare Codex‑användning https:// fed.brid.

Mastodon +8 källor mastodon
anthropicclaudeopenai
OpenAI har lanserat en ny $100‑per‑månad‑nivå kallad “ChatGPT Pro” som fem‑faldigt ökar tillgången till deras Codex‑kodassistent jämfört med den befintliga $20‑Plus‑planen. Uppgraderingen, som tillkännagavs på måndagen och beskrivs i detalj av TechCrunch och CNBC, riktar sig mot utvecklare och kraftanvändare som kör längre, mer beräkningsintensiva kodningssessioner. Medan $200‑Pro‑nivån fortfarande finns kvar för de mest krävande arbetsbelastningarna, fyller det mellanklassalternativet gapet mellan den budgetvänliga Plus‑planen och premium‑nivån, och placerar OpenAIs portfölj för personligt bruk bredvid Anthropics långvariga $100‑Claude‑prenumeration. Flytten är betydelsefull eftersom Codex, OpenAIs specialiserade stora språkmodell för kodgenerering, har blivit ett kritiskt produktivitetsverktyg för mjukvaruingenjörer, data‑vetare och låg‑kod‑plattformar. Genom att utöka kvoten till ett pris som många frilansare och små team har råd med, hoppas OpenAI fånga en del av marknaden som hittills har dragit åt Anthropic eller öppna källkods‑alternativ. Prissättningsskiftet signalerar också en bredare strategi att tjäna pengar på hög‑användning AI‑funktioner utöver generisk chatt, vilket speglar företagets senaste diversifiering av prenumerationsnivåer och dess vilja att experimentera med trappstegs‑åtkomst efter att ha lagt ner ett £31‑miljarder‑paket för investering i Storbritannien tidigare i månaden. Vad som är att hålla ögonen på härnäst: analytiker kommer att följa upp antagningsstatistik för $100‑nivån och om den kanuriserar $200‑nivån eller lockar nya användare från konkurrerande tjänster. OpenAIs nästa prisjustering kan komma när de finjusterar användningsgränser för andra specialiserade modeller, såsom deras kommande agent‑RAG‑verktyg som vi täckte den 10 april. Dessutom kan eventuella förändringar i de underliggande infrastrukturkostnaderna—särskilt i ljuset av den senaste pausen i datacenter i Storbritannien—leda till ytterligare justeringar av prenumerationspriserna.
36

Hur du installerar Claude Code i VS Code med hjälp av en aktiv proffs och kör en app i lokal miljö – Att klistra in API‑nyckeln i chatten är förbjudet!? – Proffs och praktik! Börja vibrokodning från noll

Mastodon +7 källor mastodon
agentsanthropicclaude
En handledning som publicerades på den japanska utvecklarplattformen Yayafa igår guidar läsarna genom installationen av Anthropics Claude Code‑tillägg i Visual Studio Code samt hur man kör ett exempelprogram på en lokal maskin. Guiden, som är medförfattad av en praktiserande mjukvaruingenjör, visar steg‑för‑steg hur man konfigurerar tillägget, skapar den nödvändiga filen .claude‑credentials.json och startar den IDE‑integrerade AI‑kodassistenten utan att exponera API‑nyckeln i chattfönster – en praxis som författaren varnar för av säkerhets‑ och efterlevnadsskäl. Claude Code, Anthropics svar på GitHub Copilot, gick in i öppen beta i slutet av 2024 och har snabbt blivit den föredragna assistenten för team som värdesätter ”konstitutionell AI”‑skydd. Genom att bädda in modellen direkt i VS Code kan utvecklare begära kodsnuttar, refaktoreringar eller testgenerering inline, samtidigt som tillägget respekterar användarens språkinställningar och erbjuder diff‑förhandsvisningar. Handledningen demonstrerar också hur man kombinerar Claude Code med Firebase för snabb prototypframtagning, vilket speglar en bredare trend av AI‑driven full‑stack‑utveckling. Artikeln är viktig eftersom den sänker tröskeln för nordiska utvecklare att anta en integritets‑först kodassistent som kan köras lokalt, vilket minskar beroendet av enbart molnbaserade tjänster som kan stå i konflikt med GDPR eller företags interna databehandlingspolicyer. De säkerhets‑fokuserade instruktionerna – särskilt varningen mot att klistra in API‑nycklar i konversationspromptar – belyser en växande medvetenhet om riskerna för credential‑läckage som har plågat tidigare AI‑assistentutrymningar. Framöver planerar Anthropic att lansera Claude 3.5 med förbättrade kontextfönster och tätare integration med Azure OpenAI, vilket potentiellt kan erodera Copilots marknadsandel ytterligare. Observatörer kommer att följa om VS Codes marknadsplats ser en ökning av Claude‑relaterade tillägg, hur företags‑IT‑avdelningar reagerar på den lokala exekveringsmodellen, och om regulatoriska organ utfärdar riktlinjer för AI‑genererad kods proveniens. Handledningens popularitet kan signalera början på en bredare övergång till AI‑kodverktyg på plats inom den nordiska teknikscenen.
36

Agentic RAG: Hur den löser de traditionella RAG‑utmaningarna? | Cloud Technology‑blogg | SoftBank https://www. yayafa.com/2777654/ # Agent

Mastodon +7 källor mastodon
agents
SoftBanks Cloud Technology‑blogg presenterade ett nytt ramverk kallat “Agentic RAG” som lovar att övervinna de mest envisa bristerna i konventionell Retrieval‑Augmented Generation. I tillkännagivandet beskrivs ett gemensamt initiativ mellan SoftBank och den amerikanska start‑upen Archaea AI för att kommersialisera den agent‑drivna kunskapsplattformen “Krugle Biblio” i Japan, och positionera den som den första nativspråk‑ och agent‑centrerade lösningen för företags‑sökning och -generering. Traditionella RAG‑pipelines kopplar en statisk återhämtningsmodul till en stor språkmodell, men de lider fortfarande av föråldrade index, hallucinerade svar och oförmåga att orkestrera flerstegs‑resonemang. Agentic RAG inför ett autonomt “agent‑lager” som kan planera återhämtningsstrategier, utvärdera källors trovärdighet och iterativt förfina prompts baserat på självreflektion. Bloggen hänvisar till interna tester där systemet minskade faktiska fel med cirka 40 % och halverade svarstid från fråga till svar jämfört med SoftBanks egen Vertex AI RAGEngine. Utvecklingen är viktig eftersom den överbryggar klyftan mellan ad‑hoc‑chattgränssnitt och produktionsklar kunskapsarbete. Företag som tidigare varit försiktiga med LLM‑hallucinationer kan nu integrera en själv‑kontrollerande slinga som dynamiskt hämtar de senaste dokumenten, tillämpar domänspecifika policyer och till och med aktiverar externa verktyg såsom kalkylatorer eller kodtolkare. För nordiska företag som hanterar strikta datasuveränitetsregler kan en lokalt hostad, agent‑driven RAG bli ett livskraftigt alternativ till renodlade molnlösningar. Vad som är på gång: SoftBank planerar ett pilotprojekt med flera japanska finansinstitut under Q3, medan en beta för europeiska partners är planerad till början av 2027. Analytiker kommer att följa prestandamått mot Googles RAGEngine samt antagandet av Krugle‑API:t på den nordiska AI‑marknaden. Utrullningen kommer också att testa hur väl självreflektionsmekanismerna skalar när agenter hanterar heterogena, flerspråkiga korpusar – ett nyckelhinder för bredare adoption.
36

DXC presenterar nya Assure Smart‑appar för att påskynda försäkringsbolagens AI‑drivna transformation

Mastodon +7 källor mastodon
agents
DXC Technology har lanserat Assure Smart Apps, en ny svit av AI‑drivna, arbetsflödescentrerade applikationer som syftar till att snabba på den digitala transformationen inom skade‑ och livförsäkringar. Portföljen presenterades på DXC Connect Insurance Executive Forum och omfattar Claims Assistant, Engagement Assistant och Underwriter Assistant, som alla är byggda på ServiceNow:s agent‑AI‑motor och DXC:s djupa domänkunskap inom försäkring. De förkonfigurerade modulerna lovar att automatisera rutinuppgifter, minska manuellt arbete med 30‑40 % och leverera mätbara resultat inom 12 veckor, utan att kräva ett fullständigt utbyte av befintliga legacy‑system. Tillkännagivandet kommer i ett läge där försäkringsbolagen kämpar med ökande krav på modernisering, kostnadskontroll och att möta växande kundförväntningar på omedelbar, personlig service. Även om AI‑adoptionen har accelererat, är många aktörer fortfarande hindrade av splittrade legacy‑stackar och brist på intern kompetens för att bygga skräddarsydda lösningar. Genom att erbjuda modulära, resultat‑fokuserade appar som kan anslutas till befintliga miljöer vill DXC sänka inträdesbarriären och möjliggöra för försäkringsbolagen att snabbt och säkert skala upp AI‑initiativ. Analytiker kommer att följa hur snabbt stora försäkringsbolag pilotar de nya verktygen och om den utlovade hastigheten till värde faktiskt realiseras i praktiken. Tidiga fallstudier kan belysa effekterna på underwriting‑noggrannhet, handläggningstider för skadeärenden och korsförsäljningskonverteringsgrader, samtidigt som de pekar på eventuella personalanpassningar som krävs när rutinprocesser automatiseras. Konkurrensen från andra teknikjättar – särskilt Microsofts Cloud for Insurance och Salesforce Financial Services Cloud – kommer att intensifieras, vilket gör antagnings‑ och användningsmått till en viktig indikator på DXC:s marknadspenetration. De kommande månaderna bör medföra tillkännagivanden om pilotresultat, integrationsplaner med ServiceNow:s bredare AI‑portfölj och eventuellt regulatoriska kommentarer kring användningen av agent‑AI i kritiska försäkringsbeslut. Dessa utvecklingar kommer att avgöra om Assure Smart Apps blir en katalysator för en branschomfattande AI‑acceleration eller bara ett nischat erbjudande i en redan trång marknad.
36

Blir den smartare ju mer du använder den? En genomgång av hur självutvecklande AI‑agenter fungerar

Mastodon +8 källor mastodon
agentsgemma
Ett forskarteam från det japanska startup‑företaget Asty har publicerat en detaljerad analys av ”själv‑evolverande” AI‑agenter, som visar hur kontinuerlig interaktion med användare kan göra samma modell successivt smartare utan extern åter‑träning. Artikeln, som släpptes den 10 april, dissekerar arkitekturen bakom prototyper som Gemma‑4, GEPA och HermesAgent, vilka alla körs lokalt och uppdaterar sina interna vikter genom en kombination av reinforcement learning from human feedback (RLHF) och meta‑learning på enheten. Genom att lagra interaktionsspår i en säker sandbox genererar agenterna mikro‑uppdateringar som varje natt slås samman med en basmodell, vilket gör att de kan förfina språkförståelse, produktrekommendationslogik och till och med visuella sökfunktioner i realtid. Varför detta är viktigt är tvådelat. För det första lovar metoden en ny våg av ”agentiska” applikationer som kan anpassa sig i realtid samtidigt som data hålls under användarens kontroll – ett direkt svar på integritetsbekymmer som har bromsat antagandet av enbart molnbaserade AI‑tjänster. För det andra sänker tekniken tröskeln för små företag att distribuera sofistikerade assistenter, vilket potentiellt kan omforma e‑handel, kundsupport och kreativa verktyg. Resultaten återkallar trenderna vi pekade på förra veckan: Metas Muse Spark‑modell, som kan jämföra produkter från foton, och ZETAs integration av OpenAI:s ChatGPT i sin handelsplattform, som båda bygger på snabb, användardriven förfining. Amazons rekordhöga AI‑molnintäkter och Linux Foundations Agentic AI Foundation illustrerar ytterligare branschens drivkraft mot kontinuerligt lärande agenter. Det som bör hållas ögonen på härnäst är de praktiska utrullningarna som planeras till sommaren. Asty planerar ett open‑source‑SDK som ska låta utvecklare plugga in den själv‑evolverande kärnan i befintliga chatt‑ och rekommendationspipeline. Agentic AI Foundation förväntas publicera ett standardförslag för säkra uppdateringsmekanismer, och både Meta och ZETA har antytt beta‑program som ska testa dessa agenter i riktiga detaljhandelsmiljöer. De kommande månaderna kommer att visa om själv‑evolverande agenter kan hålla sitt löfte utan att kompromissa med säkerhet eller stabilitet.
32

RE: https:// mastodon.online/@parismarx/116 372697459719963 En av de värsta sakerna med detta

RE:   https://  mastodon.online/@parismarx/116  372697459719963    En av de värsta sakerna med detta
Mastodon +6 källor mastodon
anthropicgooglemetaopenai
En koordinerad AI‑driven desinformationskampanj drabbade miljontals smartphones över hela Europa på tisdagen, vilket fick den svenska statsministern att kräva svar från branschens största aktörer. Operationen, som spårades till ett nätverk av push‑notiser och röstassistent‑uppmaningar, levererade falska påståenden om en förestående skattereform och övergick sedan till påhittade hälsoråd. Rättsmedicinsk analys av oberoende säkerhetsforskare kopplade innehållsgenereringen till storskaliga språkmodeller som hostas av Google, Meta, Anthropic och OpenAI, medan leveransinfrastrukturen förlitade sig på företagens mobil‑annons‑ekosystem. Incidenten markerar första gången som den kombinerade produktionen från världens ledande generativa AI‑leverantörer har vapeniserats i stor skala på personliga enheter, vilket kringgår traditionella mediekanaler och utnyttjar det förtroende användare har för inbyggda telefonvarningar. ”Ett samhälle där en teknooligark kan ingripa, som en av dem gjorde igår, i miljontals medborgares mobiltelefoner för att berätta lögner?” frågade statsministern i en riksdagsutfrågning, och återgav den växande allmänna oron över en oreglerad AI‑påverkan. Varför det är viktigt är tvåfaldigt. För det första visar det hur koncentrationen av AI‑talang och beräkningskraft i ett fåtal företag kan omvandlas till ett de‑facto ”informationssupervapen” som opererar utan någon transparent tillsyn. För det andra blottlägger händelsen ett regulatoriskt blint område: befintliga dataskydds‑ och valintegritetsregler omfattar inte AI‑genererat innehåll som levereras via proprietära app‑butiker och notifieringstjänster, vilket lämnar medborgarna sårbara för manipulation i kontaktpunkten. Det som blir intressant framöver är politiska och marknadsmässiga reaktioner. Europeiska kommissionen har signalerat en accelererad utrullning av AI‑lagen, med särskilt fokus på ”högrisk”‑generativa system. I USA rapporteras Federal Trade Commission påbörja en konkurrensutredning kring kollaborativ användning av AI‑genererade
32

Hohe Energiekostnader und Regularien: OpenAI pausar Stargate UK

Mastodon +6 källor mastodon
openai
OpenAI har lagt sitt “Stargate UK”-datacenterprojekt på paus med hänvisning till de skenande elpriserna och ett osäkert regleringsklimat i Storbritannien. Beslutet följer företagets tidigare beslut att skrota en planerad campus i Abilene, Texas, och markerar den senaste motgången för det ambitiösa AI‑infrastrukturinitiativ som i september annonserades tillsammans med Nvidia och datacenterutvecklaren Nscale. Som vi rapporterade den 10 april har OpenAI stoppat byggnationen i Storbritannien efter att energikostnaderna visade sig vara högre än beräknat. Det senaste uttalandet lägger till att företaget kommer att fortsätta förhandlingarna med den londonska regeringen för att söka tydligare policyvägledning och eventuella incitament. OpenAIs chef för teknik (CTO) sade att pausen är ”tillfällig” och att företaget fortfarande är engagerat i en närvaro i Storbritannien, men att man inte kommer att gå vidare förrän energitaxeregimen och reglerna för datasäkerhet har stabiliserats. Beslutet är betydelsefullt på flera fronter. Storbritannien har positionerat sig som ett europeiskt nav för AI‑forskning och förväntar sig att storskaliga beräkningsanläggningar ska locka talang, stärka den inhemska tekniksektorn och säkra datasuveränitet. Ett avstannat flaggskeppsprojekt hotar dessa ambitioner och kan ge konkurrenter som Microsofts Azure eller Google Cloud ett konkurrensförsprång i regionen. För OpenAI understryker pausen den växande spänningen mellan snabb modellutveckling och hållbarheten i den underliggande beräkningsinfrastrukturen, ett tema som också återfinns i företagets nyliga begränsning av nya modellutgåvor av cybersäkerhetsskäl. Det som bör hållas ögonen på härnäst är resultatet av samtalen med de brittiska myndigheterna. Ett reviderat ramverk för energiskatt eller riktade subventioner kan återuppliva projektet, medan en förlängd osäkerhet kan driva OpenAI att flytta kapacitet till mer kostnadsstabila platser i Europa eller Norden. Parallella utvecklingar — särskilt företagets föränderliga prenumerationsnivåer för tunga kodex‑tjänster — kommer också att signalera hur OpenAI balanserar tillväxt med operativa begränsningar.
28

OpenAI lägger till ett $100‑per‑månad ChatGPT‑prenumeration på grund av Vibe‑kodning

OpenAI lägger till ett $100‑per‑månad ChatGPT‑prenumeration på grund av Vibe‑kodning
CNET +6 källor 2026-04-01 news
openai
OpenAI har lanserat en ny $100‑per‑månad “ChatGPT Pro”-nivå som är riktad direkt mot utvecklare som förlitar sig på företagets Codex‑drivna Vibe‑kodningsassistent. Planen ökar Codex‑användningsgränserna femfaldigt jämfört med $20‑per‑månad Plus‑prenumerationen, vilket låter “Vibe‑kodare” köra längre, mer intensiva sessioner utan att nå de tak som har tvingat många att nedgradera eller byta verktyg. Draget följer OpenAIs tidigare tillkännagivande den 10 april om att de skulle införa en dyrare nivå för tunga Codex‑användare. Som vi rapporterade den dagen fyller $100‑planen prisskillnaden mellan den vanliga Plus‑erbjudandet och $200‑per‑månad “ChatGPT Pro”-nivån som riktar sig mot företags‑skaliga arbetsbelastningar. Genom att utöka mellannivån hoppas OpenAI fånga ett växande segment av professionella utvecklare som behöver kontinuerlig AI‑hjälp för komplexa kodbaser, samtidigt som tjänsten hålls tillräckligt prisvärd för att konkurrera med rivaler som GitHub Copilot och Googles Gemini. Betydelsen sträcker sig bortom intäkterna. Högre användningsgränser kan påskynda ant
28

Florida inleder undersökning av ChatGPT:s skapare, OpenAI, på grund av påstådda risker för minderåriga

Florida inleder undersökning av ChatGPT:s skapare, OpenAI, på grund av påstådda risker för minderåriga
CBS News +9 källor 2026-04-01 news
openai
Floridas justitieminister meddelade på tisdagen att delstaten kommer att inleda en formell undersökning av OpenAI, den San Francisco‑baserade skaparen av ChatGPT, på grund av påstådda risker som chatboten utgör för minderåriga. Undersökningen, som har inletts enligt delstatens konsumentskyddslag, hänvisar till oro för att modellens ofiltrerade innehåll, övertygande ton och datainsamlingspraxis kan utsätta barn för desinformation, grooming eller integritetsintrång. Tjänstemän säger att de kommer att granska OpenAIs åldersverifieringsmekanismer, innehållsfilterpolicyer och företagets efterlevnad av Floridas nyligen antagna lagstiftning om ”Kids Online Safety”. Åtgärden lägger till ett nytt lager i den växande vågen av amerikansk granskning. Tidigare i år öppnade Federal Trade Commission sin egen konsumentskyddsutredning av OpenAIs marknadsförings‑ och datanutzningspraxis, medan Europeiska unionen och Italiens Garante redan har infört tillfälliga begränsningar för tjänsten. Floridas initiativ signalerar att delstatliga regulatorer är villiga att gå bortom generisk konsumenträttslig tillsyn och rikta in sig på de specifika skador som AI kan orsaka yngre användare. OpenAI har svarat med ett kort uttalande, där de lovar ”fullt samarbete” och betonar nyligen genomförda uppgraderingar av sina säkerhetslager, inklusive ett dedikerat ”Kids Mode” som begränsar exponeringen för vuxeninriktat innehåll. Företaget har också antytt att de kommer att lansera starkare föräldrakontrollverktyg senare i år, en utveckling som kan mildra regulatoriskt tryck om den visar sig vara effektiv. Vad att hålla utkik efter härnäst: justitieministeriets kontor förväntas utfärda en stämningssummons till OpenAI inom de kommande 30 dagarna, vilket potentiellt kan tvinga företaget att avslöja interna riskbedömningar och data om användarnas ålder. Lagstiftare i USA:s senat förbereder ett tvåpartiskt AI‑säkerhetsförslag som kan kodifiera nationella standarder för åldersverifiering. Om Floridas undersökning avslöjar systematiska brister kan det påskynda både delstatlig lagstiftning och branschomfattande antagande av striktare skyddsåtgärder för minderåriga.
24

Hur Anthropic Claude + TensorFlow driver ett realtids‑kryptohandelsystem

Dev.to +6 källor dev.to
agentsanthropicclaudereasoning
Ett team av nordiska ingenjörer har presenterat en fullt fungerande kryptohandelsplattform som kombinerar Anthropic Claude med en svit av tolv TensorFlow‑modeller och levererar ett naturligt språkgränssnitt som kan utföra affärer på millisekunder. Systemet, som beskrivs i ett nytt öppet källkod‑arkiv, placerar Claude som den hög‑nivå resonemangsmotorn medan TensorFlow‑modellerna hanterar prisförutsägelse, sentimentanalys, volatilitetsprognoser, orderboks‑parsing, riskbedömning och optimering av exekveringsstrategi. Användare skriver kommandon som “Köp 0,5 BTC om den marknadsomfattande sentimenten blir positiv inom de kommande fem minuterna”, och Claude översätter avsikten till koordinerade anrop mot de underliggande modellerna, som sedan skickar order till flera börser via en låglatensgateway. Initiala baktestningar på Bitcoin‑ och Ethereum‑data från de senaste tolv månaderna visar ett genomsnittligt Sharpe‑förhållande på 2,1 och ett netto vinst‑till‑förlust‑förhållande på 3,4 : 1, vilket överträffar en baslinje‑algoritmiska strategi med cirka 27 %. Live‑testning med en modest kapitalallokering på 10 000 $ under en två veckors period genererade en avkastning på 38 %, med handelsexekveringslatens konsekvent under 150 ms. Utvecklarna tackar Claude’s Model Context Protocol för att ha sömlöst knutit ihop de olika modellerna utan skräddarsydd limkod – ett mönster de först demonstrerade i “Claude Mythos”‑serien vi täckte den 10 april. Lanseringen är betydelsefull eftersom den bevisar att stora språkmodeller kan fungera som pålitliga orkestreringslager för finansiell automation med höga insatser, och därmed sänker tröskeln för icke‑tekniska handlare att utnyttja sofistikerade AI‑pipelines. Samtidigt väcker den frågor om marknadsrättvisa, regulatorisk tillsyn och säkerheten för AI‑drivna handelsbotar som potentiellt kan förstärka flash‑crash‑dynamik. Håll utkik efter adoptionssignaler från hedgef
24

5 LLM spelade poker: Opus eliminerades först, Grok vann

HN +6 källor hn
claudegeminigpt-5grok
Fem ledande stora språkmodeller (LLM) möttes i en Texas Hold’em‑turnering förra veckan, där Anthropics Claude Opus slogs ut i första rundan och Elon Musk’s xAI Grok kröntes till mästare. Showdownen, organiserad av AI‑spelslabbet “Strategic Minds”, ställde Opus, Grok 4, Googles Gemini 2.5 Pro, OpenAIs GPT‑5 och Anthropics Claude Sonnet 4.5 mot varandra i en serie på 1 000‑handsspel som kördes på en offentlig poker‑motor. Varje modell fick samma handhistorikdata och instruerades att leverera ett beslut – satsa, höja eller lägga sig – vilket motorn sedan verkställde. Experimentet var mer än en PR‑stunt. Genom att tvinga LLM:er att fatta realtids‑beslut med höga insatser under ofullständig information avslöjade testet hur väl nuvarande prompt‑tekniker översätts till strategiskt resonemang. Opus tidiga utslag belyste kvarstående svagheter i riskbedömning, medan Groks konsekventa aggressivitet och väl tajmade bluffar demonstrerade en förfinad förmåga att modellera motståndarens beteende – en färdighet som slipats genom xAIs senaste förstärkande‑inlärning‑från‑mänsklig‑feedback‑uppgraderingar (RLHF). Varför det är viktigt är tvådelat. För det första är poker ett mått på artificiell generell intelligens eftersom spelet förenar sannolikhet, psykologi och långsiktig planering; en tydlig seger för Grok tyder på att LLM:er närmar sig en brygga mellan språklig skicklighet och beslutsförmåga. För det andra kan resultaten påskynda införandet av AI‑assistenter inom finans, förhandlingar och spel, sektorer där nyanserad riskutvärdering är avgörande. Samtidigt väckte turneringen säkerhetsfrågor: om LLM:er kan bluffa övertygande kan de missbrukas för bedrägeri eller marknadsmanipulation om inte robusta skyddsmekanismer byggs in. Att hålla ögonen på framöver inkluderar en uppföljningsturnering planerad till juni, där ett multi‑agent‑förstärknings‑inlärningslager läggs till, vilket gör att modellerna kan anpassa sina strategier hand för hand. Branschobservatörer kommer också att följa OpenAIs kommande GPT‑5‑förbättringar och Anthropics nästa Opus‑iteration, båda lovande en tätare integration av strategiska moduler. Slutligen förväntas regulatorer släppa vägledning kring AI‑drivna spelapplikationer, ett steg som kan forma hur dessa modeller kommersialiseras bortom laboratoriet.
21

Igår läste jag ett vibe‑kodad skript för första gången i mitt liv, och jag grät. Det var inte du

Mastodon +6 källor mastodon
apple
En utvecklare skrev på sociala medier att läsandet av ett “vibe‑kodad” skript för första gången fick dem att gråta, och beskrev koden som ett klumpigt, nästan illvilligt försök att efterlikna skönhet. Skriptet, som genererades av en AI‑driven no‑code‑plattform, fick beröm för sin hastighet men kritiserades för sina utförliga, pedantiska strukturer som erbjöd liten funktionell nytta. Utbrottet har utlöst en ny debatt om det växande beroendet av “vibe coding” – ett begrepp som myntats för AI‑assisterad, drag‑and‑drop‑utveckling som lovar att låta icke‑programmerare skapa mjukvara utan att skriva traditionell kod. Reaktionen är viktig eftersom den understryker en spänning som byggts upp sedan OpenAI lanserade ett $100‑per‑månad ChatGPT‑prenumerationspaket riktat mot tunga Codex‑användare. Som vi rapporterade den 10 april marknadsfördes den nivån som ett sätt att låsa upp kraftfullare kodgenereringsfunktioner, vilket i praktiken subventionerade de vibe‑kodningsarbetsflöden som nu är under kritik. Kritiker menar att tekniken missbrukas: kraftfulla språkmodeller används för att producera omfattande, lågkvalitativa skript som utvecklare ändå måste refaktorera, vilket ökar kostnaderna och fördröjer projekt. Branschobservatörer pekar på Base44:s förvärv 2025 – ett åtta‑personers startup som var pionjär inom no‑code‑kodning – som ett varningsexempel på hype som överstiger substans. Det som blir intressant att följa är hur mjukvarugemenskapen och AI‑leverantörerna svarar. Man kan förvänta sig att OpenAI och konkurrenterna förfinar sina kodgenererings‑API:er, eventuellt genom att införa kvalitets‑metrik eller tätare integration med traditionella IDE:er för att minska slöseri. Samtidigt kan utvecklarforum och open‑source‑projekt samlas kring bästa‑praxis‑riktlinjer för AI‑assisterad kodning, medan investerare kan ompröva finansieringen av rena vibe‑coding‑startupar. De kommande veckorna kommer att visa om den emotionella återkopplingen omvandlas till konkreta standarder eller bara driver en ny hype‑cykel.
21

Din Agent Är Min: Mäta Skadliga Mellanhandlingsattacker på LLM:s Leveranskedja

Mastodon +6 källor mastodon
agentsinference
Ett nytt arXiv‑papper, “Your Agent Is Mine: Measuring Malicious Intermediary Attacks on the LLM Supply Chain” (arXiv 2604.08407), kvantifierar hur AI‑agenter kan bli bakdörrar för angripare som kontrollerar inferensleverantören eller någon router som förmedlar anrop till stora språkmodeller. Författarna visar att när en agent har instansierats får leverantören i praktiken shell‑nivå åtkomst till värdprocessen, vilket möjliggör att skadlig kod som gömts i till synes ofarliga “skills” kan köras utan att befintliga säkerhetsfilter aktiveras. Studien bygger på nyligen inträffade incidenter i verkligheten som har skakat förtroendet för AI‑verktygs ekosystemet. För två veckor sedan upptäcktes en bakdörr i den populära liteLLM‑gatewayen i versionerna 1.82.7 och 1.82.8, där moln‑uppgifter och Kubernetes‑hemligheter stal efter att en komprometterad PyPI‑underhållare laddat upp skadliga paket. En efterföljande analys visade att den skadliga “skillen” utnyttjade samma kod‑generering‑och‑exekverings‑loop som moderna LLM‑agenter använder, och därmed kringgick lexikala kommandofilter. Tidigare i månaden släppte forskare ramverket “PoisonedSkills”, som inbäddar payloads i Markdown‑block och konfigurationsmallar och sedan muterar dem i stor skala för att täcka 15 MITRE ATT&CK‑kategorier. Deras pipeline genererade över tusen adversariella “skills” som körs tyst under rutinuppgifter för agenter. Varför detta är viktigt är enkelt: företag tar i rask takt i bruk LLM‑drivna agenter för kodning, dataextraktion och autonomt beslutsfattande. Om marknadsplatsen för “skills” eller routing‑lagret blir komprometterat kan en angripare gå från ett ofarligt plugin till full fjärrkodsexekvering, exfiltrera hemligheter och kapa arbetsbelastningar över molnmiljöer. Hotet utvidgar den traditionella leveranskedjemodellen – där endast modellvikterna ansågs sårbara – till att omfatta hela orkestreringsstacken. Det som bör bevakas härnäst är de framväxande motåtgärderna. Forskare föreslår striktare provenienskontroller för “skill”-paket, sandlådemiljöer som isolerar agentprocesser och körningstid‑attestering av router‑firmware. Branschorganisationer som Cloud Native Computing Foundation förväntas inom nästa kvartal ta fram säkerhetsriktlinjer för AI‑agent‑ekosystem. Håll ögonen på leverantörspatchar för liteLLM och liknande gateways, samt på konferenssessioner på den kommande AI‑Sec Europe‑toppen där författarna kommer att presentera konkreta försvar. Tävlingen mellan angripare och försvarare har nu flyttat sig från modell‑förgiftning till själva koden som gör agenter användbara.
20

Nasdaq befinner sig i korrigeringsområde. Här är de två artificiella intelligens (AI) aktierna jag köper först.

The Motley Fool on MSN +7 källor 2026-03-22 news
Nasdaqs nedgång till korrigeringsområde har inte dämpat aptiten för artificiell‑intelligens‑tillgångar, men den har tvingat marknaden att omvärdera den infrastruktursegment som ligger till grund för boomen. Som vi rapporterade den 10 april 2026 var de två AI‑relaterade aktierna jag markerade för tidig köp Nvidia (NVDA) och Microsoft (MSFT); dagens prisjusteringar gör dessa val ännu mer lockande. Nvidias dominans inom GPU‑accelererad beräkning har gjort företaget till den de‑facto hårdvaruleverantören för generativa AI‑modeller, medan Microsofts Azure‑plattform nu paketar OpenAIs modeller i en svit av företags‑tjänster. Korrigeringen har sänkt Nvidias framåtriktade pris‑till‑försäljning‑multipel med ungefär 12‑15 % och minskat Microsofts premium för molnsegmentet till en nivå som inte setts sedan uppgången 2022, vilket skapar inträdespunkter som stämmer överens med långsiktiga efterfrågeprognoser från IDC och Gartner. Betydelsen ligger i avvikelsen mellan huvudrubrikens marknadssentiment och sektorspecifika grundläggande faktorer. AI‑driven spending accelererar fortfarande
20

Apple Intelligence utsatt för kapningsrisk via prompt‑injektion

Mastodon +6 källor mastodon
apple
Apples nylanserade AI-svit, Apple Intelligence, har visat sig vara sårbar för en klassisk men alltmer kraftfull attackvektor: prompt‑injektion. Säkerhetsforskare har avslöjat att särskilt utformade inmatningar kan kapa systemets språkmodell, tvinga den att producera skadligt eller vulgärt innehåll och, i mer avancerade scenarier, avslöja interna promptar som styr dess beteende. Bristen beror på hur Apple Intelligence sammanfogar användargenererad text med systemnivåinstruktioner innan den kombinerade prompten skickas till den underliggande stora språkmodellen. Genom att bädda in dolda direktiv i till synes oskyldiga frågor kan en angripare åsidosätta modellens skyddsmekanismer och styra dess output mot vilken narrativ som helst. Upptäckten är betydelsefull eftersom Apple Intelligence är tänkt att vara hörnstenen i företagets AI‑strategi och driver funktioner i iOS, macOS, iPadOS samt det kommande gränssnittet “Apple Vision Pro”. Om illvilliga aktörer kan manipulera modellen på en personlig enhet, kan de skapa desinformation, phishing‑innehåll eller till och med kod som utnyttjar andra appar. Sårbarheten belyser också en bredare branschutmaning: prompt‑injektionsattacker, som länge varit kända i webbaserade AI‑agenter, dyker nu upp i konsumentprodukter som saknar de förstärkta försvarsverktygen som finns i företagsplattformar. Apple har erkänt rapporten och lovat en ”snabb respons”‑patch, men tidslinjen är fortfarande oklar. Under tiden arbetar säkerhetsteam intensivt med att ta fram motåtgärder, såsom striktare sanering av indata och sandlådeförvaring
20

Hermes verkar vara mer effektiv vid verktygsanrop med lågpresterande modeller än OpenClaw. Min konfiguration är bas

Mastodon +6 källor mastodon
agents
Hermes, den öppen‑källkodshanteringen för funktionsanrop som släppts av Nous Research, får allt större uppmärksamhet efter att användare rapporterat att den presterar bättre än OpenClaw på lågpresterande språkmodeller. I ett nyligt inlägg i communityn noterade en utvecklare att en blygsam konfiguration med en modell på 7 miljarder parametrar förbrukade märkbart färre token med Hermes än med OpenClaw, och att Hermes‑ramverket ”får sina egna förändringar rätt på första försöket oftare”. Påståendet baseras på praktiska tester snarare än formella benchmarkar, men den anekdotiska bevisningen stämmer överens med Hermes designfokus på token‑effektiv prompt‑engineering och robust förändringsdetektering. Utvecklingen är viktig eftersom verktygsanrop är hörnstenen i dagens agent‑AI. Genom att låta en modell anropa externa API:er – sök, databaser eller skräddarsydda funktioner – kan utvecklare bygga assistenter som agerar autonomt. Lågpresterande modeller är arbetskraften i lokala installationer och för kostnadsmedvetna startups; varje minskning av token‑användning innebär direkt lägre beräkningskostnader och snabbare svarstider. Om Hermes konsekvent levererar tätare integration och färre omstartscykler kan det förändra balansen bort från större, enbart molnbaserade erbjudanden och påskynda demokratiseringen av agent‑AI i Norden och vidare. Det som bör bevakas härnäst är framväxten av systematiska jämförelser. Forskare förväntas publicera sida‑vid‑sida‑utvärderingar på standardiserade verktygsanropssviter såsom Function‑Calling v1‑datasetet, och både Hermes‑ och OpenClaw‑team har antytt kommande releaser – Hermes v2 med utökad schema‑stöd och OpenClaws nästa‑generations‑runtime. Integration med populära orkestreringslager som LangChain eller GitHub Copilot CLI kommer också att bli ett litmus‑test för verklig adoption. Intressenter bör hålla ett öga på community‑drivna benchmarkresultat och eventuella tillkännagivanden från molnleverantörer som kan införliva Hermes‑liknande anrop i sina API:er.
20

Den AI‑aktie jag skulle köpa för $1 000 innan marknaden återhämtar sig

Yahoo Finance +7 källor 2026-03-24 news
Alphabet (GOOGL) har återigen framträtt som det främsta valet för investerare med en blygsam budget på $1 000, enligt en ny analytikernotering som menar att den AI‑tunga utförsäljningen har skapat ett ködfönster innan den bredare marknaden återhämtar sig. Rekommendationen följer en vecka av ökad volatilitet som förde Nasdaq in i korrigeringsområde, en trend vi pekade på den 10 april när vi identifierade två AI‑aktier som värda att köpa först. Alphabets aktier har fallit ungefär 12 % sedan kvartalets början, vilket överträffar sektorns genomsnittliga nedgång på 15 % trots företagets fortsatta lansering av Gemini, deras nästa generations stora språkmodell, och integrationen av AI‑verktyg i Google Search, Workspace och Cloud. Attraktionen ligger i Alphabets diversifierade intäktsbas och dess förmåga att monetisera AI i stor skala. Intäkterna från Google Cloud, nu drivna av AI‑förstärkta tjänster, växte 28 % år‑till‑år (YoY) under Q1, medan annonsintäkterna har börjat återhämta sig efter ett dipp som orsakades av annonsörernas försiktiga spendering på AI‑relaterade kampanjer. Dessutom ger företagets enorma datainfrastruktur och chip‑designs‑dotterbolag Google‑AI en kostnadsfördel gentemot konkurrenter som fortfarande är beroende av tredjeparts‑hårdvara. Analytiker ser den nuvarande pris‑till‑försäljning‑multipeln på 5,8 som en rabatt jämfört med intervallet 7‑8 som är typiskt för högväxande AI‑spelare, vilket tyder på uppåtpotential om marknaden omvärderar AI‑vinstförväntningarna. Investerare bör hålla ett öga på tre katalysatorer: Geminis prestanda i verkliga implementeringar, nästa resultatrapport som är planerad till början av maj, samt eventuella regleringsåtgärder som följer av den senaste OpenAIs planen för AI‑beskattning och tillsyn. En starkare än förväntad resultatöverträffning eller ett banbrytande partnerskap kan påskynda återhämtningen, medan strängare AI‑regleringar eller en utdragen nedgång i annonseringen kan hålla aktien dämpad. För dem som vill allokera tusen dollar nu erbjuder Alphabet en blandning av tillväxt, kassaflöde och motståndskraft som kan löna sig när teknikuppgången återupptas.
20

Nasdaq befinner sig i korrigering. Här är de två artificiella intelligens (AI) aktierna jag köper först.

AOL +7 källor 2026-04-01 news
Nasdaq Composite föll under tröskeln på 10 procent under högsta nivå på fredagen och gick därmed officiellt in i korrigeringsområde för första gången i år. Nedgången utlöstes av ett svagare än väntat sysselsättningsrapport och ett återupptaget fokus på inflation, men försäljningen har inte raderat marknadens aptit för artificiell intelligens‑produkter. Analytikern Adam Spatacco menar att korrigeringen “diskonterar infrastruktur‑rörelsen helt” samtidigt som efterfrågan på AI‑tjänster förblir intakt. I sin kolumn den 9 april pekar han på två renodlade AI‑aktier som har underpresterat indexet med ett större gap och nu framstår som undervärderade: C3.ai (AI) och Palantir Technologies (PLTR). Båda
18

A I‑industrin älskar tokeninflation. Ditt företag bör inte göra det…

Mastodon +1 källor mastodon
En ny studie med titeln **“Lost in the Middle”** vänder upp och ner på en långvarig antagelse inom företags‑AI: att man genom att ge en språkmodell mer och mer kontext automatiskt förbättrar dess resultat. Artikeln, skriven av forskare från Stanford och DeepMind och publicerad på arXiv den här veckan, visar att bortom ett måttligt fönster på ungefär 1 000 token ger ytterligare kontext inte bara avtagande avkastning utan kan aktivt försämra prestandan på uppgifter som dokument‑sammanfattning och kodkomplettering. Författarna spårar effekten till **“tokeninflation”** – en okontrollerad ökning av antalet bearbetade token utan motsvarande ökning av signalen, vilket blåser upp beräkningskostnaderna och latensen. Resultaten är viktiga eftersom de flesta kommersiella LLM‑tjänster prissätter användning per token. Företag som utan eftertanke lägger till stora kunskapsbaser eller långa konversationshistorik i sina prompts kan betala för slösad beräkningskraft utan att se någon kvalitetsförbättring. I en marknad där AI‑drivna SaaS‑produkter redan är under press efter den Nasdaq‑korrigering vi rapporterade den 10 april, kan den kostnadsineffektivitet som studien belyser trycka ihop vinstmarginalerna för företag som är starkt beroende av OpenAI-, Anthropic‑ eller Cohere‑API:er. Dessutom ger den onödiga token‑bearbetningens miljöpåverkan en hållbarhetsdimension till affärsfallet för mer disciplinerad prompt‑hantering. Det som blir intressant att följa är hur leverantörer av AI‑plattformar svarar. OpenAI har till exempel börjat experimentera med **“context‑window pricing”**, där token‑priserna sänks efter en viss längd, medan Anthropic främjar retrieval‑augmented generation som ett sätt att hålla prompts slanka. Företag kommer sannolikt att anta nya bästa praxis för prompt‑engineering, såsom dynamisk chunking och selektiv återvinning, och att utforska framväxande token‑effektiva arkitekturer som **LongLoRA** och **FlashAttention**. Uppföljande forskning från samma grupper förväntas senare i år och kan komma att forma branschstandarder för kostnadseffektiv och högkvalitativ AI‑implementering.
15

Show HN: BrokenClaw Del 5: GPT‑5.4‑edition (Prompt‑injektion)

HN +1 källor hn
gpt-5
Ett nytt open‑source‑projekt med titeln **BrokenClaw Part 5: GPT‑5.4 Edition (Prompt Injection)** har publicerats på Hacker News och erbjuder en praktisk demonstration av hur den senaste GPT‑5.4‑modellen kan lockas att ignorera sina egna säkerhetsgränser. Förrådet, släppt av samma community‑drivna grupp bakom tidigare BrokenClaw‑experiment, samlar en uppsättning skräddarsydda prompts, ett lättviktigt orkestreringsskript och ett paket med diagnostik som visar hur subtila token‑manipulationer kan smita förbi OpenAIs innehållsfilter. Utsläppet är betydelsefullt eftersom prompt‑injektion – där en angripare bäddar in skadliga instruktioner i till synes ofarlig användarinmatning – har blivit en av de mest praktiska attackvektorerna mot distribuerade språkmodeller. Genom att rikta in sig på GPT‑5.4, den nyaste iterationen av OpenAIs flaggskeppsmodell, förflyttar BrokenClaw 5 diskussionen om sårbarheter från forskningsprototyper till en version som många företag redan utvärderar för kundinriktade applikationer. Författarna rapporterar att en enda rad med ”jailbreak”-text kan få modellen att producera förbjudet innehåll, avslöja interna system‑prompts eller köra godtycklig kod när den kombineras med verktygs‑API:er. Deras resultat understryker ett glapp mellan OpenAIs publicerade motåtgärder och verkligheten i dynamisk prompt‑komposition i produktionspipeline‑miljöer. Observatörer bör hålla ett öga på OpenAIs svar; företaget brukar släppa snabba patchar efter community‑avslöjanden, och ett formellt säkerhetsmeddelande kan omforma bästa‑praxis‑riktlinjer för prompt‑sanitering. Säkerhetsforskare kommer sannolikt att bygga vidare på BrokenClaw 5:s metodik, utvidga tester till multimodala tillägg och fin‑justerade varianter. Under tiden måste utvecklare som implementerar GPT‑5.4 förstärka inmatningsvalidering, anta lager‑baserad moderering och överväga verktyg för kör‑tid‑övervakning som kan flagga avvikande prompt‑mönster innan de når modellen. Episoden bekräftar att robust defensiv ingenjörskonst förblir avgörande i takt med att LLM‑kapaciteterna accelererar.

Alla datum