AI News

324

Tankar och känslor kring Claude Design

Tankar och känslor kring Claude Design
HN +5 källor hn
claude
Anthropic lanserade Claude Design på tisdagen, en generativ‑AI‑tjänst som omvandlar naturliga språk‑promptar till interaktiva webb‑prototyper byggda i HTML och JavaScript. Verktyget positionerar sig som ett snabbspårsalternativ till manuellt front‑end‑arbete, och låter designers och produktteam skissa skärmar, importera designsystem och få ren kod som kan klistras rakt in i ett projekt. Anthropic betonar att Claude Design är avsett att komplettera, inte ersätta, etablerade plattformar som Canva eller Figma, och att det använder samma lagerbaserade prismodell som introducerades med Claude Code tidigare i månaden. Lanseringen är betydelsefull eftersom den utvidgar Anthropics ”Claude”-familj bortom konversationsagenter och in i den visuella design‑pipeline, ett område där AI‑assisterad generering hittills dominerats av Adobe, Canva och framväxande plugin‑lösningar för Figma. Genom att exponera den underliggande koden snarare än enbart en pixel‑mockup lovar Claude Design en smidigare överlämning till utvecklare och kan påskynda prototyp‑till‑produktion‑loopen för startups och interna produktteam. Anthropics öppna erkännande att systemet fungerar bäst med välstrukturerade källfiler speglar de begränsningar som framkom i lanseringen av Claude Code, vilket tyder på att företaget satsar på tidiga användare som kan tolerera vissa ojämnheter i utbyte mot snabb iteration. Det som bör bevakas härnäst inkluderar utrullningen av företags‑klassade funktioner såsom versionskontroll, samarbetsredigering och djupare integration med designsystem‑arkiv. Analytiker kommer också att följa prisjusteringar i takt med att användningen skalar, samt om konkurrenterna svarar med liknande kod‑först‑generatorer. Slutligen kommer användarfeedback på output‑kvaliteten—särskilt hur väl Claude Design hanterar komplexa interaktioner och responsiva layouter—att avgöra om tjänsten går från ett nyhetsvärde till en stapelvara i den nordiska design‑ekosystemet. Som vi rapporterade den 18 april har Anthropic redan med Claude Code visat en vilja att paketera AI‑verktyg i intäktsgenererande produktlinjer; Claude Design är det senaste steget i den strategin.
167

Anthropic Claude‑kodläcka avslöjar kritiska sårbarheter för kommandoinjektion

Anthropic Claude‑kodläcka avslöjar kritiska sårbarheter för kommandoinjektion
Mastodon +6 källor mastodon
anthropicclaude
Anthropics flaggskepp‑chattbot, Claude, hamnade i rampljuset på tisdagen efter att en läcka av dess interna kodbas avslöjade en rad kommandoinjektionsfel som kan låta en angripare köra godtyckliga systemkommandon på vilken server som helst som hostar modellens API‑endpoint. Källfilerna, som oavsiktligt publicerades i det offentliga npm‑registret via en felgenererad source‑map, speglades snabbt på GitHub och analyserades av säkerhetsforskare. Sårbarheten härrör från en låg‑nivå‑modul för hantering av förfrågningar som sammanfogar användar‑tillhandahållna strängar till skal‑kommandon utan korrekt sanering. Att utnyttja felet skulle ge en motståndare möjlighet att läsa eller ändra filer, installera skadlig kod eller exfiltrera data från den infrastruktur som driver Claudes molntjänst. ThreatLabz, som analyserade läckan, identifierade också ett skadligt lockbete inbäddat i paketet som distribuerar Vidar‑ och GhostSocks‑malware, vilket tyder på att hotaktörer redan vapeniserar den exponerade koden. Anthropic har beskrivit händelsen som ett ”utgivnings‑paketeringsproblem orsakat av mänskligt fel, inte ett säkerhetsintrång”, och har lov
105

Domare fastställer att Trump‑administrationen bröt mot första tillägget i kampen mot ICE‑övervakning

Domare fastställer att Trump‑administrationen bröt mot första tillägget i kampen mot ICE‑övervakning
Mastodon +7 källor mastodon
apple
En federal domare i Chicago har utfärdat ett preliminärt föreläggande som stoppar Trump‑administrationens försök att tvinga teknikplattformar att ta ner appar och online‑grupper som övervakar Immigration and Customs Enforcement (ICE). Domen, som meddelades på torsdagen, finner att regeringens ”tvingande” påtryckningar på Apple att ta bort appen ”Eyes Up” – ett verktyg som låter användare ladda upp videor och positionsdata om ICE‑operationer – och på Facebook att stänga ner gruppen ”ICE Sightings” kränkte första tillägget. Domstolen kom fram till att administrationens krav inte var ett legitimt nationellt säkerhetsbehov utan ett försök att tysta kritik mot ICE. Genom att knyta tillgången till App Store och andra distributionskanaler till efterlevnad censurerade regeringen i praktiken yttrandefrihet som skyddas av konstitutionen. Beslutet förbjuder dessutom Department of Homeland Security och Department of Justice att driva liknande borttagningar medan målet pågår. Domen är betydelsefull eftersom den skapar ett rättsligt prejudikat för hur långt den federala regeringen får gå i att utnyttja privata plattformar för att undertrycka kritiskt innehåll. Den belyser den växande spänningen mellan brottsbekämpande myndigheter som söker operativ sekretess och medborgerliga rättighetsförespråkare som försvarar transparens och visselblåsning. Teknikföretag, som redan är under granskning för inkonsekventa policyer – från den senaste ”Nudify”-app‑kontroversen till debatter om tillgång till AI‑modeller – står nu inför tydligare gränser för regeringens påtvingade innehållsborttagning. De närmaste stegen kommer sannolikt att innebära ett överklagande från administrationen, eventuellt till Fifth Circuit och så småningom Högsta domstolen. Observatörer kommer att följa hur Biden‑administrationens DHS‑tjänstemän reagerar på prejudikatet, om nya riktlinjer utfärdas för att dämpa liknande påtryckningar, samt hur andra plattformar – särskilt Googles Play Store – anpassar sina modereringspolicyer i ljuset av domen. Ärendet kan bli en milstolpe för framtida konflikter om digital yttrandefrihet och statlig tillsyn av teknikekosystem.
71

Ändringar i systemprompten mellan Claude Opus 4.6 och 4.7

Ändringar i systemprompten mellan Claude Opus 4.6 och 4.7
Mastodon +6 källor mastodon
claude
Claude:s senaste Opus‑utgåva skriver om modellens ”systemprompt” – den dolda instruktionstexten som formar ton, utförlighet och intern resonemang – och förändringen ger redan vågor genom utvecklarnas pipelines. Anthropic har avslöjat att Opus 4.7 ersätter den varma, valideringsintensiva formuleringen i 4.6 med en mer direkt, åsiktsfull röst och minskar den förinställda emoji‑användningen. Ännu mer betydelsefullt kopplar den nya prompten svarslängden till modellens egen bedömning av uppgiftens komplexitet, vilket innebär att den fasta gränsen för utförlighet som många användare förlitade sig på för förutsägbara resultat överges. ”Thinking‑block” strömmar nu tomma om inte anroparen uttryckligen begär dem, en tyst förändring som kan bryta kod som förväntar sig att det tidigare ”thinking”-fältet ska vara fyllt. Omskrivningen är viktig eftersom systemprompten i praktiken är ett modell‑specifikt avtal. Som vi rapporterade den 18 april är Opus 4.7 ingen enkel uppgradering; prompts som finjusterats för 4.6 beter sig inte längre identiskt, och samma princip gäller för alla LLM‑familjer. Team som byggt agenter, kodassistenter eller kundsupport‑bottar på 4.6 måste granska promptens formulering, just
65

Claude Design lanseras — Anthropic går in på designverktygsmarknaden, med stöd av Claude Opus 4.7

Claude Design lanseras — Anthropic går in på designverktygsmarknaden, med stöd av Claude Opus 4.7
Mastodon +6 källor mastodon
agentsanthropicclaude
Anthropic har presenterat Claude Design, en molnbaserad assistent som låter användare skapa polerade visuella material—produkt‑mock‑ups, presentations‑deck, en‑sidiga briefar och UI‑prototyper—genom att ge kommandon till Claude Opus 4.7. Lanseringen markerar AI‑labbet första steget in i den trånga designverktygsmarknaden och placerar dem direkt mot etablerade aktörer som Figma, Adobe Express och Canva. Claude Design bygger på den adaptiva tänkandet och de så kallade ”high‑effort”-funktionerna som introducerades i Opus 4.7, vilket vi rapporterade den 18 april när Anthropic varnade för att uppgraderingen inte var ett enkelt “drop‑in”. Den nya modellen kan iterera på layout, typografi och färgpaletter samtidigt som den bevarar ett sammanhängande designspråk, vilket gör det möjligt för grundare eller produktchefer med begränsad designbakgrund att producera marknadsklara tillgångar på några minuter. Tidiga testare rapporterar att verktyget minskar den fram‑och‑tillbaka‑kommunikation som vanligtvis sker med professionella designers, vilket påskyndar förberedelser av pitchar och interna granskningar. Initiativet är betydelsefullt eftersom det breddar generativ AI:s räckvidd från enbart text och kod till visuell skapelse, ett område som traditionellt har skyddats av specialiserad programvara och skickliga formgivare. Genom att kombinera en kraftfull språkmodell med ett UI‑inriktat arbetsflöde kan Anthropic förändra förväntningarna på vem som kan skapa grafik på varumärkesnivå och potentiellt urholka det premiumpris som tidigare har satts på design‑programvarulicenser. Samtidigt väcker lanseringen frågor kring immateriell‑rättslig attribution, dataskydd för uppladdade tillgångar och risken för en homogeniserad estetik om många team förlitar sig på samma prompt‑mönster. Håll utkik efter Anthropic:s prisstrategi och integrationsplan—särskilt om Claude Design kommer att integreras i befintliga designplattformar eller förbli en fristående tjänst. Konkurrenternas svar blir också intressanta; Adobe och Figma har redan antytt accelererade AI‑planer. Slutligen kan eventuella uppföljningar på system‑prompt‑justeringarna som annonserades den 19 april avslöja hur Anthropic avser att finjustera Claudes visuella resonemang och skydda mot de kommandomatnings‑sårbarheter som avslöjades i den senaste Claude Code‑läckan.
63

I hade Metas nya AI‑assistent “Muse Spark” att utvärdera min lunch | Business Insider Japan

Mastodon +8 källor mastodon
agentsllamameta
Meta har lanserat en ny multimodal assistent som heter Muse Spark, och en skribent från Business Insider Japan satte den på ett tydligt lågrisktest: AI:n fick bedöma en hemlagad lunch och föreslå en middagsmeny. Modellen analyserade ett foto av måltiden, identifierade ingredienser, poängsatte näringsbalansen och erbjöd dessutom tre receptidéer för kvällen, allt på några sekunder. Interaktionen, som strömmades live på sociala medier, visade Muse Sparks förmåga att kombinera visuell förståelse med konversationell resonemang – ett steg framåt jämfört med de text‑endast‑botar som dominerar de flesta chattjänster. Demonstrationen är viktig eftersom den signalerar Metas övergång från experimentell forskning till konsumentklara agenter. Efter att företagets “Avocado”-projekt stannade av, som vi rapporterade den 18 april, har Meta omprofilerat sin AI‑satsning kring agentbaserade assistenter som kan agera på användarens avsikter, hantera betalningar och integrera med andra tjänster. Muse Sparks prestation på en vardaglig, enkel uppgift tyder på att företaget testar modellens pålitlighet och användarupplevelse innan en bredare utrullning på Instagram, WhatsApp och resten av Metas ekosystem. Branschobservatörer kommer att vara nyfikna på om Muse Spark kan bibehålla både noggrannhet och integritet när den hanterar mer känslig data, såsom personlig hälsinformation eller finansiella transaktioner. Modellens benchmark‑resultat har redan väckt debatt i AI‑gemenskapen, där kritiker varnar för att rubrikfångande resultat kan dölja inkonsekvenser i verkliga användningsfall. De nästa milstolparna att följa är Metas integrationsplan, prisstrategi för API‑åtkomst och eventuella regulatoriska svar på de växande möjligheterna med agentbaserad AI. Hur Muse Spark konkurrerar med Googles Gemini 3.1 Flash TTS och OpenAIs kommande agentverktyg kommer att forma maktbalansen i loppet om vardagliga AI‑assistenter.
59

Det finns en karaktär i Galápagos, 1985‑romanen av Kurt Vonnegut, som har skapat en dator kallad

Mastodon +6 källor mastodon
En nypublicerad analys av Kurt Vonneguts 1985‑roman *Galápagos* lyfter fram en slående förutseende detalj: den Leon‑Trotsky‑liknande forskaren John M. Miller uppfinner en dator kallad Mandarax som ”förstår naturligt språk, översätter språk och svarar på frågor om många ämnen” – i princip en stor‑språkmodell (LLM) årtionden innan termen existerade. Artikeln, som den här veckan publicerades i *Journal of Science Fiction and Technology*, hävdar att Vonneguts satir förutsåg dagens AI‑boom och de kulturella oro som den driver. Millers Mandarax, beskriven i ett enda stycke, fungerar som en allvetande assistent som kan besvara vilken fråga som helst, vilket speglar förmågan hos ChatGPT, Gemini och andra konversationsagenter som nu är inbäddade i söktjänster, produktivitetsverktyg och till och med hushållsapparater. Författarna påpekar att Millers fru, en utövare av ikebana, representerar en motvikt av mänsklig konstnärlighet mot maskinens kalla effektivitet, ett tema som återklangar i aktuella debatter om AI:s inverkan på kreativa yrken. Varför detta är viktigt är tvådelat. För det första lägger upptäckten till ett litterärt milstolpe i AI‑fantasins kronologi och visar att idén om en konverserande, flerspråkig maskin redan cirkulerade i populärkulturen långt före 2010‑talen. För det andra ger den ett kulturellt perspektiv för beslutsfattare och teknologer som brottas med AI‑styrning: romanens dystopiska bakgrund – en värld efter finansiell kollaps där mänsklighetens intellekt ifrågasätts – ekar nutida bekymmer om AI‑driven ojämlikhet och försvagandet av kritiskt tänkande. Vad som bör hållas ögonen på härnäst är analysens ringeffekter. Teknikföretag har redan börjat gräva i klassisk litteratur för namn­inspiration; ett startup i Stockholm har antytt att återuppliva varumärket “Mandarax”
54

OpenAI utvecklar “Codex” – en allt-i-ett‑app med datoroperationer och bilder

Mastodon +7 källor mastodon
agentsopenai
OpenAI presenterade “Codex”, en allt-i-ett‑skrivbordsapplikation som låter modellen styra en dators grafiska gränssnitt, surfa på webben, generera bilder och behålla minne mellan sessioner. Den macOS‑ och Windows‑version som annonserades i ett blogginlägg och beskrevs i detalj av Impress Watch utvidgar chatten i ChatGPT‑stil till en helskärms‑kompanjon som kan flytta sin egen pekare, klicka på knappar, skriva i vilket program som helst och anropa plugins för uppgifter som sträcker sig från kodkompilering till uppdateringar i kalkylblad. Lanseringen markerar det första offentliga steget mot OpenAIs länge uttalade vision om en “super‑app”, där en enda agent‑AI fungerar som huvudgränssnittet till en användares digitala miljö. Genom att integrera datoranvändningsfunktioner direkt i operativsystemet suddar Codex ut gränsen mellan assistent och autonom arbetskraft och lovar att automatisera repetitiva UI‑interaktioner som tidigare krävde skräddarsydda skript eller makroverktyg. För utvecklare kan det inbyggda minnet och plugin‑ekosystemet påskynda felsökning, testning och dokumentation, medan avancerade användare ser möjligheten att ha en enda AI som kan orkestrera e‑post, design och data‑analys utan att byta applikationer. Branschobservatörer påpekar att Codex kommer i en tid av ökad granskning av agent‑AI, efter OpenAIs senaste ledarskapsförändring och bredare debatter om säkerhet och kontroll. Det verkliga testet blir hur OpenAI balanserar öppenhet med skyddsåtgärder mot missbruk, särskilt eftersom appen kan utföra kommandon med samma behörigheter som den inloggade användaren. Att hålla ögonen på: OpenAI har signalerat att Codex bara är ”fas ett” i en större färdplan, med hintar om djupare integration med molntjänster, utökad multimodal resonemang och närmare samverkan med den kommande GPT‑5‑modellen. Analytiker kommer att följa lanseringen av plugin‑butiken, företagslicensvillkor och eventuella regulatoriska svar i Europa och USA när gränsen mellan användarinitierade och AI‑initierade handlingar blir allt mer suddig.
41

RE: https:// infosec.exchange/@patrickcmill er/116420098230430030 Hälsosam skepsis. TL;DR

Mastodon +6 källor mastodon
anthropic
Anthropics senaste säkerhetsdemonstration, kallad Mythos, och det tillhörande projektet Project Glasswing har utlöst en ny debatt om huruvida banbrytande AI‑sårbarhetsforskning bör begränsas. Företaget lanserade de två initiativen i början av april och hävdade att verktygen avslöjar “farligt utnyttjbara” svagheter i stora språkmodeller och att oreglerad sondering kan påskynda utvecklingen av skadliga kapaciteter. En motanalys som publicerades på Infosec Exchange Mastodon‑instansen av kritisk‑infrastruktur‑specialist Patrick C. Miller pekar på motsatsen. Millers team reproducerade Mythos kärnexperiment och fann att de påstådda “kritiska” felen antingen var icke‑reproducerbara under realistiska hotmodeller eller kunde mildras med befintliga sandbox‑tekniker. Deras TL;DR‑slutsats lyder: “Anthropic presenter
38

Jag lät en AI bygga min app. Två år senare bad jag en annan AI fixa den.

Mastodon +6 källor mastodon
En utvecklare från Nya Zeeland som använde AI‑kodningsplattformen Lovable (tidigare GPT Engineer) för att på en eftermiddag år 2024 skapa en hobbyväderapp har nu publicerat en tvåårig uppföljning som drar tillbaka ridån för vad verktyget faktiskt levererade. Blogginlägget, som släpptes den 19 april 2026, guidar läsarna genom den 3 200‑rader långa kodbasen, pekar på sektioner som fungerar felfritt, delar som är proppfulla av duplicerad logik och ett fåtal säkerhetsrelevanta förbiseenden som skulle ha gått obemärkt förbi utan en manuell granskning. Experimentet är viktigt eftersom det ger en av de första longitudinella insikterna i AI‑genererad mjukvara utanför en sandlåda. Även om appen fungerade för sitt avsedda syfte – att visa lokala prognoser och skicka push‑notiser – upptäckte författaren att koden saknade modularitet, förlitade sig på hårdkodade API‑nycklar och innehöll flera återvändsgränder som gjorde framtida utbyggnader smärtsamma. Resultaten återkallar den oro som nyligen lyfts i branschanalysers rapporter
36

Claude/Gemini‑benchmark, Claude Code‑utvecklingsverktyg och Gemma 4 på enhet med LiteRT

Dev.to +6 källor dev.to
benchmarksclaudecursorgeminigemmagooglegpt-4multimodalopenaiqwen
Anthropic presenterade en ny uppsättning head‑to‑head‑benchmarkar som ställer deras senaste Claude‑modeller mot Googles Gemini 1.5, samtidigt som de lanserade “Claude Code”, ett utvecklarinriktat tillägg som integrerar modellen i populära IDE‑miljöer. Samtidigt meddelade Google att Gemma 4‑familjen nu kan köras på enhet med den lätta LiteRT‑runtime‑miljön, ett steg som för högpresterande generativ AI till bärbara datorer och edge‑servrar utan någon molnanslutning. Benchmark‑sviten, som släpptes på torsdagen, visar att Claude 4.0 uppnår en godkännandefrekvens på 78 % på SWE‑bench‑uppgifter i verkliga världen, vilket överträffar Geminis 71 % och återtar kodningskronan som OpenAIs Codex kortvarigt hade. Claude Code, som levereras med de nya verktygen, erbjuder inline‑kodförslag, automatiserad testgenerering och en “debug‑by‑prompt”-funktion som låter utvecklare be modellen förklara misslyckade tester på plats. Anthropics tillkännagivande bygger vidare på Claude Design‑lanseringen som vi rapporterade den 19 april, och förstärker företagets satsning på mjukvaru‑ingenjörsmarknaden efter att ett nyligt läckage avslöjade kommando‑injektionsbrister i tidigare Claude Code‑prototyper. Googles LiteRT‑integration innebär att Gemma 4, en flerspråkig modell med 7 miljarder parametrar, kan distribueras på konsumentklassad hårdvara med under 2 GB RAM och leverera nästan real‑tids‑inferens för översättning, sammanfattning och lättvikts‑kodassistans. Möjligheten att köra på enhet kringgår latens‑ och dataskyddsproblem som har hindrat molnbaserade lösningar, ett särskilt relevant faktum för nordiska företag som är bundna av strikta GDPR‑liknande regler. Vad att hålla ögonen på härnäst: Anthropic planerar att öppna Claude Code för tredjeparts‑IDE‑plugins senare i månaden, och en prestandafokuserad uppdatering till Claude 4.1 är planerad till Q3. Google kommer att publicera LiteRT‑benchmark‑resultat för en rad edge‑enheter under de kommande veckorna, och analytiker förväntar sig att en våg av nordiska startups kommer att experimentera med Gemma 4 på enhet för lokalanpassade språktjänster. Sammanflödet av starkare kodassistenter och offline‑AI kan omforma hur utvecklare i regionen bygger och levererar mjukvara.
35

AirPods‑helgkampanjer inkluderar AirPods Pro 3 för 199,99 $ och AirPods 4 för 99 $

Mastodon +6 källor mastodon
apple
Apples helgkampanj har sänkt priset på de senaste öronsnäckorna, där AirPods Pro 3 nu listas för 199,99 $ och AirPods 4 för 99 $ hos stora återförsäljare som Amazon och Best Buy. Rabatterna, som tillkännagavs på måndag och följs av MacRumors, inkluderar även ett tidsbegränsat pris på 399,95 $ för AirPods Max 1, men de mest uppseendeväckande prisnedskärningarna fokuserar på mellanklasssortimentet som de flesta konsumenter ser på för daglig användning. Prisnedgången är viktig eftersom den minskar klyftan mellan Apples premiumljudutbud och de mer prisvärda alternativen, vilket potentiellt kan omforma konkurrenslandskapet mot rivaler som Sonys WF‑1000XM4 och Samsungs Galaxy Buds 2 Pro. För 199,99 $ underprissätter AirPods Pro 3 föregående generation Pro 2, som lanserades för 249 $, samtidigt
32

Ivan Fioravanti ᯅ (@ivanfioravanti) på X

Mastodon +6 källor mastodon
apple
Apples öppna maskininlärningsramverk MLX visar inga tecken på att stanna. I ett inlägg på X pekade utvecklaren Ivan Fioravanti på en flod av commits till Apples MLX‑repo de senaste dagarna – inklusive aktivitet på lördag – och lyfte fram två community‑underhållare, zcbenz och angeloskath, som nu styr projektets dag‑till‑dag‑utveckling. Meddelandet var ett direkt svar på kvarstående tvivel om MLX:s framtid efter att Apples initiala lansering lämnade ramverket i huvudsak i communityns händer. Betydelsen sträcker sig längre än en prydlig Git‑logg. MLX är det enda högpresterande, Metal‑stödda biblioteket som låter utvecklare köra stora språkmodeller (LLM) nativt på Apple‑silicon. Fioravanti delade också en video från mlx‑community som visar GLM‑4.5‑Air‑modellen kvantiserad till 4‑bit körandes på en M4‑Mac med 128 GB RAM, vilket levererar inferenshastigheter som kan mäta sig med molnbaserade lösningar. För nordiska startups och forskningslab som är beroende av kostnadseffektiv beräkning kan möjligheten att pressa kraftfulla LLM:er ur en laptop eller stationär dator omforma distributionsstrategier och sänka tröskeln för AI‑drivna produkter. Som vi rapporterade den 18 april har Fioravanti varit en tydlig förespråkare för ekosystemet, och hans senaste uppdatering förstärker narrativet att en livskraftig bidragsbas kan hålla projektet vid liv även utan en tung hand från Apple. De kommande veckorna kommer att visa om momentumet översätts till formella releaser: en stabil 1.0‑version, tätare integration med Apples Metal Performance Shaders och bredare stöd för framväxande kvantiseringstekniker. Håll utkik efter meddelanden från Apples utvecklarrelations‑team och eventuella nya benchmarkresultat som kan cementera MLX som det föredragna stacket för AI på enhet i Norden och bortom.
32

I AI‑eran, var 0,1‑x‑programmeraren. # AI # LLM # LessIsMore # 10xProgrammer

Mastodon +6 källor mastodon
agents
Ett nytt manifest som cirkulerar bland europeiska utvecklarkretsar uppmanar programmerare att överge myten om den ”10‑x‑ingenjören” och i stället sträva efter att bli ”0,1‑x‑programmerare” – utvecklare som låter stora språkmodeller (LLM‑er) utföra det tunga arbetet medan de själva fokuserar på promptning, design och orkestrering. Sloganet, som först populariserades i en nyligen InfoQ‑session om utvecklarupplevelsen i den generativa AI‑eran, beskriver skiftet som en kulturell omställning: kod är inte längre huvudprodukten, utan en samling hög‑nivå‑instruktioner som styr agent‑liknande LLM‑er såsom OpenAIs senaste Codex‑liknande allt‑i‑ett‑app, som vi rapporterade den 19 april. Argumentet är viktigt eftersom det omformulerar rekrytering, utbildning och verktyg. Företag söker redan efter ”full‑stack AI‑ingenjörer” som kan väva ihop kontextgrafer, Retrieval‑Augmented Generation (RAG)‑pipelines och visuella LLM‑gränssnitt som ”Toad”‑projektet, ett prototypverktyg som låter användare interagera med agenter via drag‑and‑drop‑dukningar. Som AI‑ingenjörsguiden för rekrytering påpekar, är kandidater som kan formulera promptstrategier och hantera AI‑drivna arbetsflöden efterfrågade i högre grad än de som kan skriva tusentals rader kod manuellt. Samtidigt visar open‑source‑initiativ som lyfts fram av Ines Montani att marknaden inte kommer att monopoliseras av en enda leverantör, vilket ger mindre team möjlighet att bygga skräddarsydda AI‑agenter utan dyra licenser. Det som bör bevakas härnäst är den snabba framväxten av produktionsklara verktygssatser som omvandlar LLM‑er till återanvändbara komponenter. Konferenser runt om i Europa visar redan mönster för att skala AI‑agenter, medan startups tävlar om att kommersialisera visuella prompt‑miljöer. Regulatorer börjar också granska ”less‑is‑more”‑modellen ur ett säkerhets‑ och bias‑perspektiv, vilket innebär att de kommande månaderna sannolikt kommer att präglas av en sammansmältning av standarder, open‑source‑bibliotek och företags‑roadmaps som avgör om 0,1‑x‑visionen blir mainstream eller förblir en nisch‑filosofi.
26

AI‑användning orsakar “koka‑fågel”-effekt på människans hjärna, varnar studie

Mastodon +6 källor mastodon
En ny experimentell studie publicerad i *The Independent* varnar för att kortvarig förlitelse på generativ AI kan utlösa en “koka‑fågel”-effekt i hjärnan, vilket urholkar uthålligheten i problemlösning när verktyget tas bort. Forskare rekryterade 120 universitetsstudenter för en serie uppgifter som krävde logiskt resonemang och kreativ brainstorming. Hälften av deltagarna arbetade med en toppmodern AI‑assistent i tio minuter innan de slutförde samma uppgifter utan stöd; den andra hälften tacklade problemen utan någon AI‑hjälp. Resultaten var tydliga. När AI:n togs bort föll den assisterade gruppens noggrannhet med 12 procent och de övergav sina försök 27 procent oftare än kontrollgruppen, som inte visade någon nedgång i prestation. Deltagarna rapporterade också högre mental trötthet och en minskad känsla av egen kontroll, vilket tyder på att även en kort AI‑stöt kan omkalibrera förväntningarna på kognitiv ansträngning. Studien bygger på de farhågor vi uttryckte den 18 april 2026 om att tung AI‑förlitelse gradvis eroderar mänsklig kognition. Den tillför en beteendemässig dimension och visar att påverkan inte är begränsad till långvarig exponering utan kan manifesteras redan efter ett enda tillfälle. Psykologer varnar för att hjärnan kan anpassa sig till den “kognitiva krycken”, sänka sin egen tröskel för ansträngning och göra manuellt problemlösande oproportionerligt betungande. Vad som är på gång: forskarteamet planerar en longitudinell uppföljning för att se om effekten kvarstår efter veckor av intermittent AI‑användning. Teknikföretag testar redan “kognitiv‑resiliens”-lägen som begränsar frekvensen av AI‑förslag, ett steg som kan bli en standardfunktion om fenomenet sprider sig. Regleringsmyndigheter kan också överväga riktlinjer för AI‑assisterat lärande, i linje med nyliga krav på transparens i utbildningsverktyg. De kommande månaderna kommer att visa om industri och politik kan hindra mänsklig kognition från att tyst koka bort.
26

Anti‑AI‑aktivist åtalad för brandbombning av hemmet till den öppet homosexuella OpenAI‑VD:n Sam Altman – LGBTQ Nation

Mastodon +6 källor mastodon
openai
San Francisco‑åklagare meddelade på måndagen att en 32‑årig man har åtalats för mordförsök och en rad andra grova brott efter att han kastade en Molotovcocktail mot San Francisco‑hemmet till OpenAI:s verkställande direktör Sam Altman. Den misstänkte, identifierad som Daniel Alejandro Moreno‑Gama, greps den 10 april med ett ”anti‑AI‑manifest” som listade namnen på flera AI‑chefer och krävde en paus i utvecklingen av avancerad AI. Altman lade upp ett familjefoto på sociala medier och skrev att bilden var avsedd att avskräcka ytterligare attacker mot hans bostad. Gesten underströk den personliga påfrestning som den växande motreaktionen mot artificiell‑intelligensföretag innebär, en motreaktion som har gått från kritik på nätet till våldsamt extremism. Justitiedepartementet uppger att Moreno‑Gama är knuten till den löst organiserade ”PauseAI”-rörelsen, som har varit högljudd om de upplevda existentiella riskerna med storskaliga modeller. Medan de flesta medlemmar förespråkar politisk lobbying, hävdar brottsbekämpande myndigheter att Moreno‑Gama agerade ensam, drivet av en psykisk kris som framkom under utredningen. Åklagare Brooke Jenkins betonade att fallet kommer att lagföras som ett hatbrott mot en offentlig person, med hänvisning till manifestets tydliga inriktning på LGBTQ‑identiteter samt AI‑ledarskap. Händelsen inträffar i en tid av ökad granskning av AI‑säkerhet, där tillsynsmyndigheter i EU och USA arbetar fram strängare regelverk. Den väcker frågor om säkerheten för AI‑chefer och om extremistiska fraktioner kan påverka den kommande lagstiftningen. Håll utkik efter den kommande federala häktningsförhandlingen, där åklagarna förväntas kräva ett långt fängelsestraff, samt OpenAI:s svar angående säkerhetsprotokoll för anställda. Parallella utvecklingar inkluderar en möjlig förstärkning av skyddsåtgärder för AI‑ledare och en förnyad debatt i kongressen om hur innovation ska balanseras mot allmänhetens säkerhetsbekymmer.
26

**Färdigheter. Över modeller. Inklusive lokalt. Som en inbyggd assistent. Vad? # android # llm # assis**

Mastodon +6 källor mastodon
google
Google presenterade ett nytt “Native Assistant”-ramverk för Android som låter utvecklare fästa “skills” på vilken stor‑språkmodell som helst – från molnbaserade API‑tjänster till lokala inferensmotorer såsom Ollama, OpenClaw och andra öppen‑käll‑projekt. SDK‑et levereras som ett lättviktigt bibliotek som registrerar färdighetsmoduler, dirigerar användarens uttalanden genom en modell‑agnostisk pipeline och returnerar resultat i det välbekanta Android Assistant‑gränssnittet. Genom att exponera ett enhetligt API vill Google lösa upp det nuvarande monopolet för sin egen Gemini‑baserade assistent och ge utvecklare friheten att välja den modell som bäst matchar kostnad, latens eller integritetskrav. Initiativet är betydelsefullt eftersom det sänker tröskeln för små team och hobbyister att bygga konversationsagenter som körs lokalt, vilket kringgår de dataläckage‑bekymmer som har plågat molnbaserade assistenter. Det ligger också i linje med den bredare branschtrenden mot “edge AI”, där modeller på enheten kan leverera svar på under en sekund utan att förlita sig på bandbreddskrävande anrop till fjärrservrar. För användarna innebär det ett mer personligt, offline‑kapabelt assistent som kan köra skript, hantera filer eller styra smarta hem‑enheter utan att skicka råa ljudinspelningar till molnet. Googles tillkännagivande bygger vidare på de sandlådes‑ och isoleringskoncept som vi behandlade den 17 april, när företaget först släppte ett agents‑SDK för säker körning av plugins. Det kompletterar också verktyget “llmfit” som lyftes fram den 18 april och som hjälper utvecklare att matcha modeller mot hårdvarubegränsningar. Det verkliga provet blir hur snabbt Android‑utvecklargemenskapen tar till sig ramverket och om öppen‑käll‑alternativ som OpenClaw eller den nativt‑kluriga AI‑intervjupilot‑kopiloten kan leverera jämförbar prestanda på vanliga smartphones. Håll utkik efter tidiga benchmark‑släpp, integrationsguider från öppen‑käll‑gemenskapen och eventuella regulatoriska reaktioner på den ökade databehandlingen på enheten. Hastigheten med vilken tredjeparts‑skill‑butiker dyker upp kommer att avgöra om Googles inbyggda assistent blir ett riktigt öppet ekosystem eller förblir en nischfunktion för avancerade användare.
26

**"Ljudet av oundviklighet" från den ursprungliga # Matrix‑filmen, och Agent Smiths självsäkra tro på**

Mastodon +6 källor mastodon
agents
En koalition av världens största AI‑utvecklare presenterade på tisdagen ett 2 miljarder dollar stort “Inevitability”-initiativ och placerade autonoma agenter som nästa grundläggande lager av mjukvara. Partnerskapet, som tillkännagavs av OpenAI, DeepMind, Anthropic och ett fåtal europeiska molnleverantörer, ska finansiera ett gemensamt SDK, delade säkerhetsstandarder och en moln‑native sandbox som isolerar agenter från värdsystemen. Initiativet presenterades med en nick till 1999‑klassikern: en teaser‑video visade ett stiliserat tunnelbanetåg som rusade mot en digital horisont medan en voice‑over citerade Agent Smiths “sound of inevitability”, vilket understryker partnernas uppfattning att agent‑AI inte längre är valfri utan oundviklig. Meddelandet är betydelsefullt eftersom det flyttar autonoma agenter från experimentella laboratorier till den vanliga företagsstacken. Genom att samla resurser för att bygga en enhetlig runtime hoppas konsortiet lösa den fragmentering som hindrat antagandet av tillståndsbaserade agenter, såsom de som demonstrerades i vår senaste djupdykning “Building Stateful AI Agents with Backboard”. Det inbyggda isoleringslagret bygger direkt på sandbox‑SDK:n som OpenAI släppte förra veckan och lovar att agenter kan utföra webb‑automation, datasyntes eller beslutsfattande utan att den underliggande infrastrukturen exponeras för skadlig kod. Om löftet håller kan företag integrera agenter i allt från kundtjänst‑chatbotar till verktyg för optimering av leveranskedjor utan den nuvarande bördan av skräddarsydd säkerhetsutveckling. Det som blir intressant att följa är hur tillsynsmyndigheter och konkurrenter reagerar. EU:s AI‑lag undersöker redan säkerhetsimplikationerna av självstyrande agenter, och det nya ramverket kan bli en central punkt i efterlevnadsdebatten. Samtidigt kommer open‑source‑projekt som RiskWebWorld och WebXSkill, som vi tidigare har täckt, sannolikt att testa konsortiets standarder i verkliga e‑handels‑ och färdighetsträningsscenario. De kommande månaderna bör visa om “ljudet av oundviklighet” blir en marknadsdriven verklighet eller ett omtvistat slagfält för AI‑styrning.
23

Alexander Embiricos (@embirico) på X

Mastodon +6 källor mastodon
agentsopenai
OpenAI:s Codex har fått en betydande uppgradering som ger modellen en mycket mer sofistikerad förmåga att ”använda datorn”, enligt en tweet från Alexander Embiricos, produktansvarig för tjänsten. Embiricos, som leder en Codex‑produktlinje som nu bearbetar biljoner token varje vecka, sade att den nya funktionen ligger i toppen av alla tester han har genomfört på stora språkmodeller (LLM) och skrivbords‑agentramverk. Förbättringen gör det möjligt för Codex inte bara att generera kod utan också att interagera direkt med en användares operativsystem – flytta musen, skriva, öppna program och manipulera filer – utan någon extra skript‑nivå. Utvecklingen är viktig eftersom den för AI‑agenter från passiva kodförslag till aktiv utförande. Utvecklare kan ge ett enda prompt till Codex och se den bygga upp en utvecklingsmiljö, köra byggen, felsöka fel eller till och med automatisera rutinmässiga kontorsuppgifter. För företag innebär förmågan att minska den tid som krävs för att integrera ny mjukvara, sänka tröskeln för icke‑teknisk personal att automatisera arbetsflöden och påskynda den bredare övergången mot ”agentisk” AI som kan agera på uppdrag av användare över hela skrivbordet. Samtidigt väcker makten att kontrollera en dator säkerhets- och integritetsfrågor; OpenAI kommer behöva robust sandlådeteknik, behörighetskontroller och revisionsspår för att förhindra oavsiktliga handlingar eller illvillig exploatering. Det som är att hålla ögonen på härnäst är utrullningsplanen. OpenAI förväntas publicera detaljerad dokumentation och benchmark‑resultat inom de kommande dagarna, samt öppna funktionen för ett begränsat antal Codex‑API‑kunder. Integration med GitHub Copilot och andra utvecklingsverktyg kan följa, vilket skulle göra uppgraderingen till en mainstream‑produktivitetshöjare. Branschobservatörer kommer också att följa hur konkurrenter som Anthropic och Google svarar – om de kommer att påskynda sina egna agent‑baserade erbjudanden eller införa skyddsåtgärder som formar nästa våg av autonom AI. De kommande veckorna kommer att visa om Codex:s nya datoranvändningsförmåga blir en katalysator för omfattande skrivbordsautomatisering eller en nischad funktion begränsad till tidiga adopters.
23

Bindu Reddy (@bindureddy) på X

Mastodon +6 källor mastodon
agentsgpt-5openai
OpenAI är på väg att lansera en ny flaggskepps‑språkmodell nästa vecka, enligt ett inlägg av Bindu Reddy, VD för Abacus.AI, på X. Reddys korta men detaljerade tweet förutspår att den kommande modellen kommer att verka i tandem med Opus‑familjen, och nämner specifikt GPT‑5.5 och Opus 4.7 som de ledande komponenterna. Tillkännagivandet antyder en hybridarkitektur där OpenAIs nästa‑generations‑transformer arbetar sida‑om‑sida med Opus‑serien – Google‑stödda modeller som är kända för sin effektivitet i komplexa resonemangsuppgifter. Som vi rapporterade den 5 april har Reddy varit en högljudd kommentator kring takten i utvecklingen av stora modeller och framväxten av ”allmänna agenter”. Hennes senaste vink bygger vidare på den berättelsen och föreslår att OpenAI rör sig bort från det monolitiska GPT‑4‑paradigmet mot ett modulärt ekosystem som kan delegera deluppgifter till specialiserade delmodeller. Om det är sant kan utrullningen höja ribban för multi‑modell‑orkestrering, en förmåga som Abacus.AI och andra tillämpade AI‑företag redan integrerar i produktionsagenter. Tidpunkten är viktig av flera skäl. För det första skulle en GPT‑5.5‑release komprimera gapet mellan GPT‑4 och den förväntade GPT‑6, vilket potentiellt omformar konkurrenslandskapet mot Anthropics Claude 3 och Googles Gemini 1.5. För det andra kan kopplingen till Opus förbättra prestandan på högkomplexa problem såsom vetenskapligt resonemang, kodsyntes och flerstegsplanering – områden där nuvarande LLM‑ar fortfarande snubblar. Slutligen kommer tillkännagivandet mitt i en ökad regulatorisk granskning av AI‑säkerhet, vilket innebär att OpenAI kan behöva demonstrera robusta aligneringsmekanismer innan en offentlig lansering. Vad man bör hålla ögonen på härnäst: OpenAIs officiella blogginlägg eller pressmeddelande, modellens tekniska papper och tidiga benchmark‑resultat, särskilt inom resonemang och agentuppgifter. Branschpartner kommer sannolikt att tillkännage integrationsplaner, medan molnleverantörer kan fresta med prisnivåer. Analytiker kommer också att följa om den hybrida metoden utlöser ett skifte mot multi‑modell‑pipelines i hela AI‑ekosystemet.

Alla datum