AI News

324

Tankerne og følelserne omkring Claude Design

Tankerne og følelserne omkring Claude Design
HN +5 kilder hn
claude
Anthropic lancerede Claude Design tirsdag, en generativ‑AI‑tjeneste, der omsætter naturlige sprog‑prompt til interaktive web‑prototyper bygget i HTML og JavaScript. Værktøjet positionerer sig som et hurtigt alternativ til manuelt front‑end‑arbejde og giver designere og produktteams mulighed for at skitsere skærme, importere designsystemer og modtage ren kode, som kan indsættes direkte i et projekt. Anthropic understreger, at Claude Design skal supplere, ikke erstatte, etablerede platforme som Canva eller Figma, og at den anvender den samme lagdelte prisstruktur, som blev introduceret med Claude Code tidligere denne måned. Lanceringen er vigtig, fordi den udvider Anthropics “Claude”-familie ud over samtale‑agenter til den visuelle design‑pipeline, et område hvor AI‑assisteret generering hidtil har været domineret af Adobe, Canva og nye plugins til Figma. Ved at afsløre den underliggende kode i stedet for kun en pixel‑baseret mock‑up lover Claude Design en glattere overlevering til udviklere og kan fremskynde prototyping‑til‑produktion‑løbet for startups og interne produktteams. Anthropics åbne indrømmelse af, at systemet fungerer bedst med ryddelige kildefiler, spejler de begrænsninger, der blev fremhævet ved udrulningen af Claude Code, og tyder på, at virksomheden satser på tidlige adoptanter, som kan tolerere ujævnheder til gengæld for hurtig iteration. Det, der skal holdes øje med
167

Anthropic Claude‑kode‑lækage afslører kritiske kommando‑injektionssårbarheder

Anthropic Claude‑kode‑lækage afslører kritiske kommando‑injektionssårbarheder
Mastodon +6 kilder mastodon
anthropicclaude
Anthropic’s flagskibs‑chatbot, Claude, blev kastet i rampelyset tirsdag, da et læk af den interne kodebase afslørede en række kommando‑injektionsfejl, som kunne give en angriber mulighed for at køre vilkårlige systemkommandoer på enhver server, der hoster modellens API‑endpoint. Kildefilerne, som ved en fejl blev offentliggjort i den offentlige npm‑registry via et fejlagtigt genereret source‑map, blev hurtigt spejlet på GitHub og analyseret af sikkerhedsforskere. Sårbarheden stammer fra et lavt‑niveau request‑handling‑modul, der sammenkæder bruger‑leverede strenge med shell‑kommandoer uden korrekt sanitering. Udnyttelse af fejlen ville give en modstander evnen til at læse eller ændre filer, installere malware eller eksfiltrere data fra den infrastruktur, der driver Claudes cloud‑tjeneste. ThreatLabz, som analyserede lækket, identificerede også en ondsindet lokkemad indlejret i pakken, som distribuerer Vidar‑ og GhostSocks‑malware, hvilket tyder på, at trusselsaktører allerede udnytter den eksponerede kode. Anthropic har karakteriseret hændelsen som et “release‑packaging‑problem forårsaget af menneskelig fejl, ikke et sikkerhedsbrud” og har lovet at udsende en nød‑opdatering til alle produktionsinstanser inden for 48 timer. Virksomhedens respons er kritisk, fordi Claude understøtter et voksende økosystem af enterprise‑grade applikationer, fra kundesupport‑bots til kode‑genereringsassistenter, hvor mange er afhængige af de samme backend‑tjenester, som det fejlbehæftede modul berører. Hvad man skal holde øje med fremover: om Anthropics tidsplan for afhjælpning holder, og om uafhængige revisorer vil certificere, at opdateringen er fuldstændig; hvor hurtigt downstream‑udviklere adopterer de opdaterede SDK’er; samt om regulatorer i EU og USA vil undersøge hændelsen som et potentielt brud på databeskyttelsesforpligtelser. Episoden rejser også bredere spørgsmål om sikkerhedshygiejnen i AI‑model‑forsyningskæder, et tema vi udforskede i vores artikel den 19. april om Claudes designfilosofi.
105

Dommer fastslår, at Trump‑administrationen overtrådte første amendment i kampen mod ICE‑sporing

Dommer fastslår, at Trump‑administrationen overtrådte første amendment i kampen mod ICE‑sporing
Mastodon +7 kilder mastodon
apple
En føderal dommer i Chicago har udstedt en foreløbig påbud, som blokerer Trump‑administrationens bestræbelser på at tvinge teknologiplatforme til at fjerne apps og online‑grupper, der overvåger Immigration and Customs Enforcement (ICE). Afgørelsen, der blev afsagt torsdag, finder, at regeringens “tvangs‑” pres på Apple for at fjerne “Eyes Up”-appen – et værktøj, der lader brugere uploade video‑ og lokationsdata om ICE‑operationer – og på Facebook for at lukke “ICE Sightings”-gruppen, krænker første amendment. Retten konkluderede, at administrationens krav ikke var et legitimt national‑sikkerhedsønske, men et forsøg på at stilne kritik af ICE. Ved at betinge adgang til App Store og andre distributionskanaler på efterlevelse censurerede regeringen i praksis ytringer, der er beskyttet af forfatningen. Afgørelsen forbyder også Department of Homeland Security og Department of Justice at forfølge lignende fjernelser, mens sagen pågår. Afgørelsen er vigtig, fordi den skaber en juridisk præcedens for, hvor langt den føderale regering kan gå i at udnytte private platforme til at undertrykke kritisk indhold. Den understreger den voksende spænding mellem retshåndhævende myndigheder, der søger operationel hemmeligholdelse, og menneskerettigheds‑aktivister, der forsvarer gennemsigtighed og whistle‑blowing. Teknologivirksomheder, som allerede er under granskning for inkonsekvente politikker – fra den seneste “Nudify”-app‑kontrovers til debatter om adgang til AI‑modeller – står nu over for klarere grænser for regeringens pålagte indholds‑fjernelser. De næste skridt vil sandsynligvis omfatte en appel fra administrationen, som potentielt kan bringe tvisten til Fifth Circuit og efterfølgende til Højesteret. Observatører vil følge, hvordan Biden‑administrationens DHS‑embedsmænd reagerer på præcedensen, om der udstedes nye retningslinjer for at begrænse lignende pres, og hvordan andre platforme – især Googles Play Store – tilpasser deres moderationspolitikker i lyset af afgørelsen. Sagen kan blive et vendepunkt for fremtidige kampe om digital ytringsfrihed og regeringens tilsyn med teknologiske økosystemer.
71

Ændringer i systemprompten mellem Claude Opus 4.6 og 4.7

Ændringer i systemprompten mellem Claude Opus 4.6 og 4.7
Mastodon +6 kilder mastodon
claude
Claude's seneste Opus‑udgivelse omskriver modellens “systemprompt” – det skjulte instruktionssæt, der former tone, omfang og intern ræsonnement – og ændringen spreder sig allerede gennem udvikleres pipelines. Anthropic har afsløret, at Opus 4.7 erstatter den varme, validerings‑tunge formulering i 4.6 med en mere direkte, meningsfuld stemme og reducerer den standardmæssige brug af emojis. Endnu mere betydningsfuldt knytter den nye prompt svarlængden til modellens egen vurdering af opgavens kompleksitet, og opgiver den faste grænse for omfang, som mange brugere stolede på for forudsigelige output. Tænkeblokke strømmer nu tomme, medmindre kaldere eksplicit anmoder om dem, en tavs ændring, der kan bryde kode, der forventer, at det tidligere “thinking”-felt er udfyldt. Omskrivningen er vigtig, fordi systemprompten i praksis er en model‑specifik kontrakt. Som vi rapporterede den 18. april, er Opus 4.7 ikke en simpel opgradering; prompts, der er finjusteret til 4.6, opfører sig ikke længere identisk, og samme princip gælder på tværs af LLM‑familier. Teams, der har bygget agenter, kodeassistenter eller kundesupport‑bots på 4.6, skal revidere promptformuleringen, justere “tænk grundigt”-signalering
65

Claude Design lanceres — Anthropic træder ind på designværktøjsmarkedet, støttet af Claude Opus 4.7

Claude Design lanceres — Anthropic træder ind på designværktøjsmarkedet, støttet af Claude Opus 4.7
Mastodon +6 kilder mastodon
agentsanthropicclaude
Anthropic har præsenteret Claude Design, en cloud‑baseret assistent, der lader brugere generere polerede visuelle materialer — produkt‑mockups, præsentations‑slides, én‑sides‑briefs og UI‑prototyper — ved at give kommandoer til Claude Opus 4.7. Lanceringen markerer AI‑laboratoriets første indtog på det overfyldte designværktøjsmarked og placerer den direkte i konkurrence med etablerede aktører som Figma, Adobe Express og Canva. Claude Design bygger på den adaptive tænkning og de “high‑effort” funktioner, der blev introduceret i Opus 4.7, som vi dækkede den 18. april, da Anthropic advarede om, at opgraderingen ikke var en simpel udskiftning. Den nye model kan iterere på layout, typografi og farvepaletter, samtidig med at den bevarer et sammenhængende design‑sprog, hvilket gør det muligt for grundlæggere eller produktchefer med begrænset design‑erfaring at producere markeds‑klar materiale på få minutter. Tidlige testere
63

Jeg lod Metas nye AI “Muse Spark” vurdere min frokost | Business Insider Japan

Mastodon +8 kilder mastodon
agentsllamameta
Meta har lanceret en ny multimodal assistent kaldet Muse Spark, og en skribent fra Business Insider Japan satte den på en udpræget lav‑risiko test: AI’en blev bedt om at bedømme en hjemmelavet frokost og foreslå en middagsmenu. Modellen analyserede et foto af måltidet, identificerede ingredienserne, gav en score på den ernæringsmæssige balance og kom endda med tre opskriftforslag til aftenen – alt sammen på få sekunder. Interaktionen, som blev streamet live på sociale medier, fremhævede Muse Sparks evne til at kombinere visuel forståelse med samtalemæssig ræsonnement – et skridt fremad i forhold til de tekst‑kun bots, der dominerer de fleste chat‑tjenester. Demoen er vigtig, fordi den signalerer Metas skift fra eksperimentel forskning til forbruger‑klare agenter. Efter virksomhedens “Avocado”-projekt gik i stå, som vi rapporterede den 18. april, har Meta omdøbt sit AI‑push omkring agent‑assistenter, der kan handle på brugerens intentioner, håndtere betalinger og integrere med andre tjenester. Muse Sparks præstation på en afslappet, hverdagsopgave tyder på, at firmaet tester modellens pålidelighed og brugeroplevelse, før den rulles bredere ud på Instagram, WhatsApp og i det bredere Meta‑økosystem. Brancheobservatører vil holde øje med, om Muse Spark kan opretholde nøjagtighed og privatliv, når den håndterer mere følsomme data, såsom personlige sundhedsoplysninger eller finansielle transaktioner. Modellens benchmark‑resultater har allerede udløst debat i AI‑fællesskabet, hvor kritikere advarer om, at overskrifts‑fængende resultater kan skjule inkonsistens i virkelige anvendelsestilfælde. De næste milepæle at følge er Metas integrations‑tidsplan, prisstrategi for API‑adgang og eventuelle regulatoriske reaktioner på de voksende evner inden for agent‑AI. Hvordan Muse Spark konkurrerer med Googles Gemini 3.1 Flash TTS og OpenAIs kommende agent‑værktøjer, vil forme magtbalancen i kapløbet om hverdags‑AI‑assistenter.
59

Der er en karakter i Galápagos, Kurt Vonneguts roman fra 1985, som har skabt en computer kaldet

Mastodon +6 kilder mastodon
En nyudgivet analyse af Kurt Vonneguts roman fra 1985 *Galápagos* fremhæver en slående forudsigende detalje: den Leon Trotsky‑lignende videnskabsmand John M. Miller opfinder en computer kaldet Mandarax, som “forstår naturligt sprog, oversætter sprog og besvarer spørgsmål om mange emner” – i bund og grund en stor‑sprogsmodel (LLM) årtier før udtrykket fandtes. Papiret, der denne uge er offentliggjort i *Journal of Science Fiction and Technology*, argumenterer for, at Vonneguts satire forudså nutidens AI‑boom og de kulturelle bekymringer, den vækker. Millers Mandarax, beskrevet i et enkelt afsnit, fungerer som en alvidende assistent, der kan håndtere enhver forespørgsel, og spejler dermed evnerne hos ChatGPT, Gemini og andre samtage‑agenter, som nu er indlejret i søgemaskiner, produktivitetsværktøjer og endda husholdningsapparater. Forfatterne bemærker, at Millers kone, en udøver af ikebana, udgør en modvægt af menneskelig kunstnerisk sans over for maskinens kolde effektivitet – et tema, der resonerer med aktuelle debatter om AI’s indvirkning på kreative erhverv. Hvorfor det betyder noget, er todelt. For det første tilføjer opdagelsen et litterært milepæl til kronologien for AI‑fantasier og viser, at idéen om en samtale‑, flersproget maskine allerede cirkulerede i populærkulturen længe før 2010’erne. For det andet giver den et kulturelt perspektiv for politikere og teknologer, der beskæftiger sig med AI‑styring: romanens dystopiske baggrund – en post‑finanskriseverden, hvor menneskehedens intelligens sættes på prøve – spejler nutidens bekymringer om AI‑drevet ulighed og erosion af kritisk tænkning. Hvad man bør holde øje med fremover, er de bølgeeffekter, analysen kan udløse. Teknologivirksomheder har allerede begyndt at udvinde navneinspiration fra klassisk litteratur; en startup i Stockholm har antydet, at de vil genoplive “Mandarax”-mærket til en privatlivs‑første LLM. Samtidig planlægger akademiske konferencer om AI‑etik paneler om “Litterære forudsigelser af kunstig intelligens”, og en dokumentar om Vonneguts teknologisk skarpe satire er sat til at blive udgivet senere på året. Sammenløbet mellem fiktion og fakta kan forme, hvordan det nordiske AI‑fællesskab indrammer sin egen fortælling om ansvar og innovation.
54

OpenAI udvikler “Codex” – en alt‑i‑én‑app med computeroperationer og billeder

Mastodon +7 kilder mastodon
agentsopenai
OpenAI præsenterede “Codex”, en alt‑i‑én‑desktop‑applikation, der giver modellen mulighed for at styre en computers grafiske brugerflade, browse på nettet, generere billeder og bevare hukommelse på tværs af sessioner. Den macOS‑ og Windows‑version, som blev annonceret i et blogindlæg og uddybet af Impress Watch, udvider ChatGPT‑lignende chatvinduet til en fuldskærms‑assistent, der kan flytte sin egen markør, klikke på knapper, skrive i ethvert program og aktivere plugins til opgaver så forskellige som kodekompilering og opdatering af regneark. Lanceringen markerer det første offentlige skridt mod OpenAIs længe udtalte “super‑app”‑vision, hvor en enkelt agentbaseret AI fungerer som den primære grænseflade til en brugers digitale miljø. Ved at indlejre computer‑brugsfunktioner direkte i operativsystemet udvisker Codex grænsen mellem assistent og autonom arbejdskraft og lover at automatisere gentagne UI‑interaktioner, som traditionelt har krævet specialskripter eller makro‑værktøjer. For udviklere kan den indbyggede hukommelse og plugin‑økosystemet accelerere fejlfinding, test og dokumentation, mens power‑users ser frem til en enkelt AI, der kan orkestrere e‑mail, design og data‑analyse‑arbejdsgange uden at skifte mellem apps. Brancheobservatører bemærker, at Codex kommer i en periode med øget granskning af agentbaseret AI, efter OpenAIs nylige ledelsesomstrukturering og de bredere debatter om sikkerhed og kontrol. Den reelle prøve vil blive, hvordan OpenAI balancerer åbenhed med beskyttelsesforanstaltninger mod misbrug, især da appen kan udføre kommandoer med de samme rettigheder som den indloggede bruger. Hvad man skal holde øje med: OpenAI har signaleret, at Codex kun er “fase én” i en større køreplan, med løfter om dybere integration med cloud‑tjenester, udvidet multimodal resonnering og tættere kobling til den kommende GPT‑5‑model. Analytikere vil følge lanceringen af plugin‑butikken, vilkårene for enterprise‑licensering og eventuelle regulatoriske reaktioner i Europa og USA, efterhånden som grænsen mellem bruger‑initierede og AI‑initierede handlinger bliver stadig mere udvisket.
41

RE: https://infosec.exchange/@patrickcmill er/116420098230430030 Sund skepsis. TL;DR

Mastodon +6 kilder mastodon
anthropic
Anthropics seneste sikkerhedspræsentation, kaldet Mythos, og det tilhørende Project Glasswing har udløst en ny debat om, hvorvidt banebrydende AI‑sårbarhedsforskning bør begrænses. Virksomheden frigav de to initiativer i begyndelsen af april og argumenterede for, at værktøjerne afslører “farligt udnyttelige” svagheder i store sprogmodeller, og at ubegrænset undersøgelse kunne fremskynde udviklingen af ondsindede kapaciteter. En mod‑analyse, der blev postet på Infosec Exchange‑Mastodon‑instansen af kritisk‑infrastruktur‑specialist Patrick C. Miller, antyder det modsatte. Millers team gentog Mythos’ kerneeksperimenter og fandt, at de påståede “kritiske” fejl enten var ikke‑reproducerbare under realistiske trusselsmodeller eller kunne afhjælpes med eksisterende sandbox‑teknikker. Deres TL;DR‑konklusion lyder: “Anthropic præsenterer Mythos og Project Glasswing som bevis på, at avanceret AI‑sårbarhedsforskning bør begrænses. Men vores replikation peger på en anden konklusion: påstanden er overdrevet.” Striden er vigtig, fordi lovgivere allerede kæmper med, hvordan de skal balancere åben forskning mod risikoen for at gøre AI til et våben. Hvis Anthropics fortælling får fodfæste, kan regulatorer indføre strengere kontrol med red‑team‑aktiviteter, hvilket potentielt kan kvæle det arbejde, der afdækker og udbedrer systematiske fejl. Omvendt forstærker Millers fund synspunktet om, at gennemsigtig, fagfællebedømt test – kombineret med robuste isoleringsrammer som dem, OpenAI for nylig annoncerede – forbliver det mest effektive forsvar. Hvad man skal holde øje med: Anthropic forventes at udsende et formelt svar inden for få dage, og EU‑Kommissionens høringer om AI‑forordningen kan citere episoden som et casestudie. Samtidig vil andre AI‑laboratorier sandsynligvis offentliggøre replikationsforsøg, og cybersikkerhedsfællesskabet vil følge, om sandbox‑standarder udvikler sig til de‑facto politiske værktøjer. Resultatet kan forme den næste bølge af AI‑sikkerhedslovgivning i Norden og videre.
38

Jeg lod en AI bygge min app. To år senere bad jeg en anden AI om at reparere den.

Mastodon +6 kilder mastodon
En udvikler fra New Zealand, som brugte AI‑kodningsplatformen Lovable (tidligere GPT Engineer) til at bygge en hobby‑vejrapp på en enkelt eftermiddag i 2024, har nu offentliggjort en to‑års opfølgning, der afslører, hvad værktøjet faktisk leverede. Blogindlægget, udgivet den 19. april 2026, guider læserne gennem den 3.200‑linjers kodebase, peger på sektioner, der fungerer fejlfrit, dele, der er gennemsyret af duplikeret logik, og en håndfuld sikkerhedsrelevante oversights, som ville være gået ubemærket uden en manuel revision. Eksperimentet er vigtigt, fordi det giver et af de første longitudinale indblik i AI‑genereret software uden for en sandkasse. Selvom appen fungerede til sit tiltænkte formål – at vise lokale vejrudsigter og sende push‑meddelelser – opdagede forfatteren, at koden manglede modularitet, var afhængig af hårdkodede API‑nøgler og indeholdt flere døde grene, som gjorde fremtidige udvidelser smertefulde. Resultaterne spejler bekymringer, der er rejst i nylige brancheanalyser om den “black‑
36

Claude/Gemini‑benchmark, Claude Code‑udviklingsværktøj og Gemma 4 på enhed med LiteRT

Dev.to +6 kilder dev.to
benchmarksclaudecursorgeminigemmagooglegpt-4multimodalopenaiqwen
Anthropic præsenterede et nyt sæt direkte sammenlignings‑benchmark‑tests, der stiller deres seneste Claude‑modeller op mod Googles Gemini 1.5, samtidig med at de lancerede “Claude Code”, et udvikler‑fokuseret udvidelsesværktøj, der integrerer modellen i populære IDE‑miljøer. På samme tid annoncerede Google, at deres Gemma 4‑familie nu kan køre på enheden ved hjælp af den letvægts‑LiteRT‑runtime, et skridt der bringer avanceret generativ AI til bærbare computere og edge‑servere uden behov for en cloud‑forbindelse. Benchmark‑pakken, der blev udgivet torsdag, viser at Claude 4.0 opnår en beståelsesrate på 78 % på SWE‑bench‑opgaverne, som er virkelige software‑opgaver, og dermed overgår Geminis 71 % og genvinder kodningskronen, som OpenAI’s Codex kortvarigt havde. Claude Code, som leveres med de nye værktøjer, tilbyder inline‑kodesuggest‑ioner, automatisk testgenerering og en “debug‑by‑prompt”‑funktion, der lader udviklere bede modellen om at forklare fejlslagne tests direkte i konteksten. Anthropics meddelelse bygger videre på Claude‑Design‑lanceringen, som vi dækkede den 19. april, og udvider virksomhedens satsning på software‑ingeniørmarkedet efter et nyligt lækage, der afslørede kommando‑injektionsfejl i tidligere Claude Code‑prototyper. Googles integration af LiteRT betyder, at Gemma 4, en 7‑milliarder‑parameter‑multisprogsmodel, kan implementeres på forbruger‑klasse hardware med under 2 GB RAM og levere næsten real‑time inferens til oversættelse, opsummering og letvægts‑kodeassistance. Den on‑device‑kapacitet omgår latens‑ og dataprivathedsproblemer, som har hæmmet cloud‑kun‑løsninger, et særligt relevant aspekt for nordiske virksomheder, der er bundet af strenge GDPR‑lignende reguleringer. Hvad der er at holde øje med: Anthropic planlægger at åbne Claude Code for tredjeparts‑IDE‑plugins senere på måneden, og en præstations‑fokuseret opdatering til Claude 4.1 er planlagt til Q3. Google vil offentliggøre LiteRT‑benchmark‑tal for en række edge‑enheder i de kommende uger, og analytikere forventer, at en bølge af nordiske startups vil eksperimentere med on‑device Gemma 4 til lokalt tilpassede sprog‑tjenester. Sammenløbet af stærkere kodeassistenter og offline‑AI kan omforme, hvordan udviklere i regionen bygger og leverer software.
35

AirPods‑Weekendtilbud inkluderer AirPods Pro 3 til $199,99 og AirPods 4 til $99

Mastodon +6 kilder mastodon
apple
Apples weekend‑udsalg har sænket prisen på de nyeste ørepropper, så AirPods Pro 3 nu er prissat til $199,99 og AirPods 4 til $99 hos store forhandlere som Amazon og Best Buy. Rabatterne, som blev annonceret mandag og sporet af MacRumors, inkluderer også en tidsbegrænset pris på $399,95 for AirPods Max 1, men de mest iøjnefaldende prisnedslag fokuserer på mellemklassesortimentet, som de fleste forbrugere ser på til daglig brug. Prisnedgangen er vigtig, fordi den indsnævrer afstanden mellem Apples premium‑lydløsninger og de mere prisvenlige alternativer, hvilket potentielt kan omforme konkurrencelandskabet i forhold til rivaler som Sonys WF‑1000XM4 og Samsungs Galaxy Buds 2 Pro. Til $199,99 underbyder AirPods Pro 3 den foregående generation Pro 2, som blev lanceret til $249, samtidig med at den leverer den nyeste version af aktiv støjreduktion, rumlyd med dynamisk hovedsporing og en ny H2‑klasse chip, der
32

Ivan Fioravanti ᯅ (@ivanfioravanti) på X

Mastodon +6 kilder mastodon
apple
Apple’s open‑source machine‑learning framework MLX viser ingen tegn på at gå i stå. I et opslag på X fremhævede udvikleren Ivan Fioravanti en strøm af commits til Apple MLX‑repository’en i løbet af de seneste dage – inklusive aktivitet lørdag – og pegede på to community‑maintainere, zcbenz og angeloskath, som nu styrer projektets dag‑til‑dag‑udvikling. Beskeden var et direkte svar på vedvarende tvivl om MLX’s fremtid, efter at Apples oprindelige lancering efterlod rammeværket stort set i fællesskabets hænder. Betydningen rækker ud over et pænt Git‑log. MLX er det eneste højtydende, Metal‑baserede bibliotek, der lader udviklere køre store sprogmodeller (LLM’er) native på Apple‑silicon. Fioravanti delte også en video fra mlx‑community, som viser GLM‑4.5‑Air‑modellen kvantiseret til 4‑bit kørende på en M4‑Mac med 128 GB RAM, og leverer inferenshastigheder, der kan måle sig med cloud‑baserede opsætninger. For nordiske startups og forskningslaboratorier, der er afhængige af omkostningseffektiv beregning, kan evnen til at presse kraftfulde LLM’er ud af en laptop eller desktop omforme implementeringsstrategier og sænke barrieren for AI‑drevne produkter. Som vi rapporterede den 18. april, har Fioravanti været en vokal fortaler for økosystemet, og hans seneste opdatering forstærker fortællingen om, at en levende bidragsyderbase kan holde projektet i live, selv uden en tung hånd fra Apple. De kommende uger vil vise, om momentumet omsættes til formelle udgivelser: en stabil version 1.0, tættere integration med Apples Metal Performance Shaders og bredere støtte til nye kvantiseringsteknikker. Hold øje med meddelelser fra Apples developer‑relations‑team og eventuelle nye benchmark‑resultater, der kan cementere MLX som den foretrukne stack for on‑device AI i Norden og videre.
32

**I alderen af “AI”, vær 0,1x‑programmeren. # AI # LLM # LessIsMore # 10xProgrammer**

Mastodon +6 kilder mastodon
agents
Et nyt manifest, der cirkulerer i europæiske udviklerkredse, opfordrer programmører til at opgive myten om den “10‑x‑ingeniør” og i stedet stræbe efter at blive “0,1‑x‑programmere” – udviklere, der lader store sprogmodeller (LLM’er) udføre det tunge løft, mens de selv fokuserer på prompt‑udformning, design og orkestrering. Sloganet, som først blev populært i en nylig InfoQ‑session om udvikleroplevelsen i den generative AI‑alder, beskriver skiftet som en kulturel nulstilling: kode er ikke længere hovedoutputtet, men et sæt af højniveau‑instruktioner, der guider agent‑agtige LLM’er såsom OpenAIs seneste Codex‑lignende alt‑i‑én‑app, som vi dækkede den 19. april. Argumentet er vigtigt, fordi det omdefinerer rekruttering, uddannelse og værktøjer. Virksomheder leder allerede efter “full‑stack AI‑ingeniører”, der kan sammenvæve kontekst‑grafer, Retrieval‑Augmented Generation (RAG)‑pipelines og visuelle LLM‑grænseflader som “Toad”‑projektet, en prototype der lader brugere interagere med agenter via træk‑og‑slip‑lærreder. Som AI‑ingeniør‑ansættelsesguiden påpeger, er kandidater, der kan formulere prompt‑strategier og styre AI‑drevne arbejdsgange, i højere efterspørgsel end dem, der manuelt kan skrive tusinder af kodelinjer. Samtidig viser open‑source‑initiativer fremhævet af Ines Montani, at markedet ikke vil blive monopolis­eret af én enkelt leverandør, hvilket giver mindre teams mulighed for at bygge skræddersyede AI‑agenter uden dyre licenser. Det, man skal holde øje med, er den hurtige fremkomst af produktions‑klare værktøjssæt, der forvandler LLM’er til genanvendelige komponenter. Konferencer rundt om i Europa viser allerede mønstre for skalering af AI‑agenter, mens startups kæmper om at kommercialisere visuelle prompt‑miljøer. Regulatorer begynder også at undersøge “less‑is‑more”‑modellen med hensyn til sikkerhed og bias, hvilket betyder, at de kommende måneder sandsynligvis vil bringe en konvergens af standarder, open‑source‑biblioteker og virksomheders roadmap‑planer, der afgør, om 0,1‑x‑visionen bliver mainstream eller forbliver en niche‑filosofi.
26

AI‑brug forårsager ‘kogende frø’-effekt på den menneskelige hjerne, advarer undersøgelse

Mastodon +6 kilder mastodon
En ny eksperimentel undersøgelse offentliggjort i *The Independent* advarer om, at kortvarig afhængighed af generativ AI kan udløse en “kogende‑frø”-effekt i hjernen, som nedbryder udholdenheden i problemløsning, når værktøjet fjernes. Forskere rekrutterede 120 universitetsstuderende til en række opgaver, der krævede logisk ræsonnement og kreativ brainstorming. Halvdelen af deltagerne arbejdede med en topmoderne AI‑assistent i ti minutter, før de færdiggjorde de samme opgaver uden hjælp; den anden halvdel løste problemerne uden nogen AI‑støtte. Resultaterne var markante. Når AI’en blev fjernet, faldt den assisterede gruppes nøjagtighed med 12 procent, og de opgav forsøg 27 procent oftere end kontrolgruppen, som ikke oplevede nogen nedgang i præstationen. Deltagerne rapporterede også højere mental træthed og en reduceret følelse af handlekraft, hvilket tyder på, at selv en kortvarig AI‑hjælp kan omkalibrere forventningerne til kognitiv indsats. Undersøgelsen bygger på bekymringer, vi rejste den 18. april 2026, om at tung AI‑afhængighed gradvist kan erodere menneskelig kognition. Den tilføjer en adfærdsmæssig dimension ved at vise, at påvirkningen ikke kun er begrænset til langvarig eksponering, men også kan manifestere sig efter en enkelt session. Psykologer advarer om, at hjernen kan tilpasse sig “den kognitive støttepind”, sænke sin egen tærskel for indsats og gøre manuel problemløsning uforholdsmæssigt belastende. Hvad der er på vej: Forskningsholdet planlægger en longitudinel opfølgning for at undersøge, om effekten vedvarer efter uger med intermitterende AI‑brug. Teknologivirksomheder tester allerede “kognitiv‑resiliens”-tilstande, der begrænser hyppigheden af AI‑forslag, et skridt der kan blive en standardfunktion, hvis fænomenet spreder sig. Reguleringsmyndigheder kan også overveje retningslinjer for AI‑assisteret læring, i tråd med nylige opfordringer til gennemsigtighed i uddannelsesværktøjer. De kommende måneder vil vise, om industri og politik kan forhindre, at den menneskelige kognition stille og roligt “koger væk”.
26

Anti‑AI‑aktivist anklaget for brandbombeangreb på hjemmet til homoseksuel OpenAI‑administrerende direktør Sam Altman – LGBTQ Nation

Mastodon +6 kilder mastodon
openai
San Francisco‑anklagerne meddelte mandag, at en 32‑årig mand er blevet anklaget for drabsforsøg og en række andre alvorlige forbrydelser, efter han kastede en Molotov‑cocktail på San Francisco‑hjemmet til OpenAI’s administrerende direktør Sam Altman. Den mistænkte, identificeret som Daniel Alejandro Moreno‑Gama, blev arresteret den 10. april i besiddelse af et “anti‑AI”‑manifest, der opregnede navnene på flere AI‑ledere og opfordrede til en pause i udviklingen af avanceret AI. Altman lagde et familiefoto op på sociale medier og forklarede, at billedet var ment som en afskrækkelse mod yderligere angreb på hans bolig. Gestussen understregede den personlige belastning af den stigende modstand mod kunstig‑intelligens‑virksomheder, en modstand der er gået fra online‑kritik til voldelig ekstremisme. Justitsministeriet hævder, at Moreno‑Gama er forbundet med den løst organiserede “PauseAI”‑bevægelse, som har været vokal om de opfattede eksistentielle risici ved store modeller. Mens de fleste af dens medlemmer arbejder for politisk lobbyvirksomhed, påstår politimyndighederne, at Moreno‑Gama handlede alene, drevet af en psykisk krise, der kom frem under efterforskningen. Anklagemyndigheden, repræsenteret af
26

Færdigheder. På tværs af modeller. Inklusive lokalt. Som en indbygget assistent. Hvad? # android # llm # assis

Mastodon +6 kilder mastodon
google
Google præsenterede et nyt “Native Assistant”-framework til Android, som giver udviklere mulighed for at knytte “færdigheder” til enhver stor‑sprogsmodel – fra sky‑hostede API’er til on‑device inferens‑motorer som Ollama, OpenClaw og andre open‑source‑projekter. SDK’en leveres som et letvægtsbibliotek, der registrerer færdighedsmoduler, ruter bruger‑udtalelser gennem en model‑agnostisk pipeline og returnerer resultater i den velkendte Android Assistant‑brugerflade. Ved at udsætte et samlet API sigter Google efter at opløse det nuværende monopol med sin egen Gemini‑baserede assistent og give udviklere friheden til at vælge den model, der bedst opfylder krav til omkostninger, latenstid eller privatliv. Initiativet er vigtigt, fordi det sænker barrieren for små teams og hobbyister til at bygge samtale‑agenter, der kører lokalt, og dermed omgår de datalæk‑bekymringer, som har plaget cloud‑kun‑assistenter. Det stemmer også overens med den bredere branchebevægelse mod “edge AI”, hvor on‑device‑modeller kan levere svar på under et sekund uden at være afhængige af båndbredde‑intensive kald til fjern‑servere. For brugerne betyder det et mere personligt, offline‑kapabelt assistentsystem, der kan udføre scripts, håndtere filer eller styre smart‑home‑enheder uden at sende rå lyd til skyen. Googles meddelelse bygger videre på de sandbox‑ og isolationskoncepter, vi dækkede den 17. april, da virksomheden først udgav et agents‑SDK til sikker plugin‑eksekvering. Den hænger også sammen med “llmfit”-værktøjet, som blev fremhævet den 18. april, og som hjælper udviklere med at matche modeller til hardware‑begrænsninger. Den reelle test vil være, hvor hurtigt Android‑udviklerfællesskabet tager frameworket i brug, og om open‑source‑alternativer som OpenClaw eller den nativt‑klare AI‑interview‑copilot kan levere sammenlignelig ydeevne på typiske smartphones. Hold øje med tidlige benchmark‑udgivelser, integrations‑guides fra open‑source‑fællesskabet og eventuelle regulatoriske reaktioner på den øgede on‑device‑databehandling. Hastigheden, hvormed tredjeparts‑færdigheds‑butikker dukker op, vil afgøre, om Googles native assistant bliver et ægte åbent økosystem eller forbliver en nichefunktion for power‑brugere.
26

**"Lyden af uundgåelighed" fra den originale # Matrix‑film, og Agent Smiths selvtilfredse tro på den**

Mastodon +6 kilder mastodon
agents
**Sammenfatning** En koalition af verdens største AI‑udviklere præsenterede tirsdag et 2 milliarder dollars stort initiativ kaldet “Inevitability”, og placerede autonome agenter som det næste grundlæggende lag i software. Partnerskabet, som blev annonceret af OpenAI, DeepMind, Anthropic og en håndfuld europæiske cloud‑udbydere, skal finansiere et fælles SDK, fælles sikkerhedsstandarder og en cloud‑native sandbox, der isolerer agenter fra værtsystemerne. Initiativet blev indrammet med en reference til klassikeren fra 1999: En teaser‑video viste et stiliseret undergrundstog, der styrtede mod en digital horisont, mens en voice‑over citerede Agent Smiths “sound of inevitability”, og understregede partnernes overbevisning om, at agentbaseret AI ikke længere er valgfri, men uundgåelig. Kunngørelsen er vigtig, fordi den flytter autonome agenter fra eksperimentelle laboratorier ind i den almindelige erhvervs‑stack. Ved at samle ressourcerne for at bygge en samlet runtime håber konsortiet at løse den fragmentering, der hidtil har hæmmet udbredelsen af stateful‑agenter, som dem der blev demonstreret i vores seneste dybdegående artikel “Building Stateful AI Agents with Backboard”. Det native isolationslag bygger direkte på den sandbox‑SDK, som OpenAI udgav i sidste uge, og lover, at agenter kan udføre web‑automatisering, datasyntese eller beslutningstagning uden at eksponere den underliggende infrastruktur for ondsindet kode. Hvis løftet holder, kan virksomheder indlejre agenter i alt fra kundeservice‑chatbots til optimeringsværktøjer for forsyningskæder uden den nuværende byrde af specialiseret sikkerheds‑engineering. Det, der skal holdes øje med, er, hvordan regulatorer og konkurrenter reagerer. EU’s AI‑Act undersøger allerede sikkerhedsmæssige implikationer af selvstyrende agenter, og den nye ramme kan blive et centralt punkt i compliance‑debatten. Samtidig vil open‑source‑projekter som RiskWebWorld og WebXSkill, som vi har dækket tidligere, sandsynligvis teste konsortiets standarder i virkelige e‑commerce‑ og færdighedslærings‑scenarier. De kommende måneder bør afsløre, om “lyden af uundgåelighed” bliver en markedsdrevet realitet eller et omstridt slagmark for AI‑styring.
23

Alexander Embiricos (@embirico) på X

Mastodon +6 kilder mastodon
agentsopenai
OpenAI’s Codex har fået en betydelig opgradering, der giver modellen en langt mere sofistikeret “computer‑brug” evne, ifølge en tweet fra Alexander Embiricos, produktlederen bag tjenesten. Embiricos, som har ansvaret for en Codex‑produktlinje, der nu behandler billioner af tokens hver uge, sagde, at den nye funktion rangerer øverst i alle de tests, han har udført på store sprogmodeller (LLM’er) og desktop‑agent‑rammer. Forbedringen gør det muligt for Codex ikke kun at generere kode, men også at interagere direkte med en brugers operativsystem – flytte musen, skrive, åbne programmer og manipulere filer – uden nogen ekstra scripting‑lag. Udviklingen er vigtig, fordi den flytter AI‑agenter fra passiv kodeforslag til aktiv udførelse. Udviklere kan give et enkelt prompt til Codex og se den samle et udviklingsmiljø, køre builds, fejlfinde problemer eller endda automatisere rutineopgaver på kontoret. For virksomheder lover evnen at forkorte den tid, der kræves for at integrere ny software, sænke barrieren for ikke‑teknisk personale til at automatisere arbejdsprocesser og accelerere den bredere bevægelse mod “agentisk” AI, der kan handle på vegne af brugere på skrivebordet. Samtidig rejser muligheden for at kontrollere en computer sikkerheds‑ og sikkerhedsspørgsmål; OpenAI vil have brug for robuste sandbox‑miljøer, tilladelsesstyring og revisionsspor for at forhindre utilsigtede handlinger eller ondsindet udnyttelse. Det, der skal holdes øje med, er udrulningsplanen. OpenAI forventes at offentliggøre detaljeret dokumentation og benchmark‑resultater i de kommende dage og at åbne funktionen for et begrænset sæt af Codex‑API‑kunder. Integration med GitHub Copilot og andre udviklingsværktøjer kan følge, hvilket vil gøre opgraderingen til en mainstream produktivitetsforbedring. Brancheobservatører vil også følge, hvordan konkurrenter som Anthropic og Google reagerer – om de vil accelerere deres egne agent‑type tilbud eller indføre sikkerhedsforanstaltninger, der former den næste bølge af autonom AI. De kommende uger vil afsløre, om Codex’ nye computer‑brugsfærdighed bliver en katalysator for udbredt skrivebordsautomatisering eller en nichefunktion begrænset til tidlige adoptanter.
23

Bindu Reddy (@bindureddy) på X

Mastodon +6 kilder mastodon
agentsgpt-5openai
OpenAI er klar til at afsløre en ny flagskibs‑sprogsmodel i næste uge, ifølge et opslag af Bindu Reddy, administrerende direktør for Abacus.AI, på X. Reddys korte men detaljerede tweet forudsiger, at den kommende model vil operere i tandem med Opus‑familien, specifikt navngiver GPT‑5.5 og Opus 4.7 som de ledende komponenter. Meddelelsen antyder en hybridarkitektur, hvor OpenAIs næste‑generations transformer arbejder sammen med Opus‑serien – Google‑støttede modeller kendt for deres effektivitet på komplekse resonneringsopgaver. Som vi rapporterede den 5. april, har Reddy været en tydelig kommentator på tempoet i udviklingen af store modeller og fremkomsten af “generelle agenter”. Hendes seneste hint bygger videre på den fortælling og antyder, at OpenAI bevæger sig ud over den monolitiske GPT‑4‑paradigme mod et modulært økosystem, der kan delegere delopgaver til specialiserede undermodeller. Hvis det er sandt, kan udrulningen hæve barren for multi‑model‑orkestrering, en evne som Abacus.AI og andre anvendte AI‑virksomheder allerede integrerer i produktionsagenter. Timing er vigtig af flere grunde. For det første ville en GPT‑5.5‑udgivelse komprimere afstanden mellem GPT‑4 og den forventede GPT‑6, potentielt omforme konkurrencelandskabet mod Anthropic’s Claude 3 og Googles Gemini 1.5. For det andet kunne koblingen af modellen med Opus forbedre ydeevnen på højt komplekse problemer såsom videnskabelig resonnering, kode‑syntese og fler‑trins planlægning – områder hvor nuværende LLM‑er stadig vakler. Endelig kommer meddelelsen i en periode med øget regulatorisk granskning af AI‑sikkerhed, hvilket betyder, at OpenAI muligvis skal demonstrere robuste aligneringsmekanismer før en offentlig lancering. Hvad man skal holde øje med: OpenAIs officielle blogindlæg eller pressemeddelelse, modellens tekniske papir og tidlige benchmark‑resultater, især inden for resonnering og agent‑opgaver. Industri‑partnere vil sandsynligvis annoncere integrations‑roadmaps, mens cloud‑udbydere kan tease pris‑niveauer. Analytikere vil også følge, om den hybride tilgang udløser et skift mod multi‑model‑pipelines i det bredere AI‑økosystem.

Alle datoer