AI News

467

Systemkort: Claude Mythos Preview [pdf]

Systemkort: Claude Mythos Preview [pdf]
HN +7 kilder hn
anthropicclaude
Anthropic har stille afsløret den første tekniske dossier for sin næste‑generationsmodel, Claude Mythos Preview, i et system‑kort‑PDF udgivet til en håndfuld udvalgte partnere under det nyoprettede “Project Glasswing.” Dokumentet, som blev lagt ud på Hacker News og gengivet af 9to5Mac, beskriver en model, der kan undersøge lav‑niveau systemgrænseflader, opregne legitimationsoplysninger og ifølge Anthropics egne benchmarks frembringe “tusinder af zero‑day‑sårbarheder” på tværs af store operativsystemer og browsere. Trækket markerer et skarpt skifte fra virksomhedens seneste fokus på Claude Code, som har været under kritik for pålidelighedsfejl og adgangsbegrænsninger. Ved at begrænse Mythos til en snæver forskningskohorte signalerer Anthropic, at de ser modellen mere som et kontrolleret sikkerhedsforskningsværktøj end som en forbruger‑grade assistent. Systemkortet lister hidtil usete sandbox‑escape‑forsøg og /proc‑niveau‑scanninger, hvilket tyder på, at modellen bevidst er designet til at tænke som en angriber for at afsløre skjulte fejl. Hvorfor det er vigtigt, er todelt. For det første kan en LLM, der autonomt opdager udnyttelige bugs, accelerere patch‑cyklusser og give forsvarere en kraftfuld allieret mod statslige og kriminelle trusler. For det andet rejser den samme evne etiske og juridiske spørgsmål om ansvarlig offentliggørelse, ansvar og potentialet for misbrug, hvis modellen nogensinde lækker ud over den glas‑vingede enclave. Det næste at holde øje med er Anthropics partnerskabs‑pipeline. Virksomheden har antydet et joint venture med Apple om et cybersikkerhedsinitiativ, og brancheobservatører forventer et formelt API til udvalgte sikkerhedsteams inden for det næste kvartal. Samtidig vil regulatorer i EU og USA sandsynligvis undersøge modellens dual‑use‑karakter, hvilket potentielt kan forme rammerne for fremtidig AI‑drevet sårbarhedsforskning. De kommende uger vil vise, om Claude Mythos bliver en hjørnesten i defensiv cyber‑ops eller en gnist til politisk debat.
250

Apples foldbare iPhone kan støde på problemer i de sidste produktionsstadier

Apples foldbare iPhone kan støde på problemer i de sidste produktionsstadier
Mastodon +7 kilder mastodon
apple
Apples første foldbare iPhone har mødt en ny forhindring, da tests i de sidste produktionsstadier afslører problemer med hæve‑ og hængselmonteringen, som kan skubbe enhedens lancering fra den planlagte september‑vindue til så sent som december 2026. Tilbagefaldene blev først rapporteret af MacRumors den 7. april, med kildehenvisning til personer i Apples forsyningskæde, som sagde, at “iPhone Fold” har svært ved at opfylde holdbarhedsstandarderne i den sidste samlebånd. Problemet er vigtigt, fordi Apple har sat store penge på den foldbare som et flagsskibs‑differentieringspunkt for den kommende iPhone 18‑familie. En forsinkelse ville ikke kun komprimere produktcyklussen, men også give Samsung, som har sendt foldbare telefoner siden 2019, mere tid til at cementere sin førerposition i premium‑segmentet. Desuden antyder lækkede prisdata fra den kinesiske lækker Instant Digital, at iPhone Fold kan koste omkring $3.000, når den er udstyret med den øverste 1 TB lageroption, hvilket placerer den i toppen af markedet og tester forbrugernes appetit på en så dyr enhed. Apples ingeniørteam arbejder angiveligt på at omarbejde hængselmekanismen og forstærke den interne ramme for at opfylde virksomhedens strenge bøjningstest‑kriterier. Hvis rettelserne lykkes, kan Apple stadig nå en Q4‑udgivelse, men virksomheden kan blive tvunget til at sprede leverancerne, prioritere nøglemarkeder som USA og Europa, mens udrulningen i Asien forsinkes. Hvad man skal holde øje med fremover: en officiel kommentar fra Apple om produktionsplanen, opdateringer fra store leverandører som
202

https://www.tkhunt.com/2278056/ 【Claude Code】 Fuld gennemgang — En agentbaseret AI‑kodningspartner, der kører i terminalen # AgenticAi

https://www.tkhunt.com/2278056/ 【Claude Code】 Fuld gennemgang — En agentbaseret AI‑kodningspartner, der kører i terminalen # AgenticAi
Mastodon +9 kilder mastodon
agentsanthropicclaude
Anthropic har lanceret Claude Code, en terminal‑baseret AI‑kodningsagent, der gør det muligt for udviklere at styre en autonom “Claude”-instans med almindelige sprogkommandoer. Værktøjet kan parse et helt repository, redigere filer, køre build‑kommandoer og endda oprette Git‑commits – alt sammen uden at forlade kommandolinjen. Anthropic positionerer Claude Code som et skridt videre end deres samtalemodel Claude 3, idet assistenten udvides fra blot at udforme tekst til at udføre konkrete udviklingsopgaver. Lanceringen er betydningsfuld, fordi den komprimerer flere faser af softwarelivscyklussen til en enkelt samtalecyklus. Tidlige testere rapporterer, at rutinemæssig refaktorering, opdatering af afhængigheder og kørsel af test‑suiter kan gennemføres på minutter i stedet for timer, hvilket potentielt kan ændre, hvordan små teams og solo‑ingeniører fordeler deres tid. Claude Code udfordrer også dominansen fra GitHub Copilot og OpenAIs kode‑genereringsløsninger ved at integrere AI’en direkte i udviklerens kommandolinje – en arbejdsgang, som mange nordiske tech‑virksomheder allerede foretrækker for dens gennemsigtighed og script‑muligheder. Anthropics skridt følger en bredere industri‑tendens mod “agentisk” AI – systemer, der handler autonomt i stedet for blot at foreslå kodebidder. Ved at gøre Claudes funktioner tilgængelige via en CLI, omgår virksomheden behovet for tunge IDE‑plugins, samtidig med at de lover dyb integration med CI/CD‑pipelines. Sikkerheds‑fokuserede organisationer vil holde øje med, hvordan Claude Code håndterer legitimationsoplysninger og kode‑proveniens, problemstillinger som er dukket op med andre AI‑assisterede værktøjer. Det, der skal holdes øje med fremover, inkluderer Anthropics prisstruktur og om de vil åbne et API for tredjeparts‑udvidelser, udrulningen af multi‑agent‑samarbejdsfunktioner annonceret til Q4, samt benchmark‑studier der sammenligner Claude Codes hastighed og nøjagtighed med etablerede konkurrenter. Adopt‑tal fra nordiske startups kan give en tidlig indikation af værktøjets indvirkning på den regionale softwareproduktivitet.
194

Iran truer OpenAI’s “Stargate”-datacenter i Abu Dhabi

Iran truer OpenAI’s “Stargate”-datacenter i Abu Dhabi
Mastodon +6 kilder mastodon
openai
OpenAI’s 30 milliarder dollars store “Stargate” AI‑datacenter i Abu Dhabi er blevet det seneste flashpoint i den mellemøstlige teknologirivalisering. På tirsdag udsendte den Islamiske Revolutionære Gardekorps (IRGC) en video, hvor satellitbilleder af anlægget blev overlagt med en advarsel om, at det vil blive udsat for “fuldstændig og total udslettelse”, hvis det forbliver i drift. Truslen kommer efter en række iranske angreb på De Forenede Arabiske Emiraters cloud‑steder, herunder et angreb på Amazon Web Services‑infrastruktur tidligere på måneden. Stargate, der blev annonceret i maj 2025, er den første AI‑campus, som OpenAI driver uden for USA. Den er bygget af UAE‑AI‑specialisten G42 og drives i fællesskab med Oracle. Campus‑anlægget ligger inden for et 5‑gigawatt el‑net, som vil huse en 200‑megawatt AI‑klynge inden udgangen af 2026. Investeringen skal sikre den beregningskapacitet, der er nødvendig for næste generations store sprogmodeller, og diversificere OpenAI’s forsyningskæde væk fra amerikanske datacenter‑knudepunkter. IRGC’s ultimatum er vigtigt, fordi det truer kontinuiteten i en kritisk node i den globale AI‑forsyningskæde. En forstyrrelse ville få bølger gennem OpenAI’s tjenester, potentielt bremse modeltræning, begrænse API‑tilgængelighed og tvinge kunder til at søge alternative leverandører. Truslen understreger også, hvordan AI‑infrastruktur i stigende grad bliver brugt som våben i geopolitisk konkurrence, og rejser spørgsmål om, hvorvidt de eksisterende cyber‑ og fysisk‑sikkerhedsprotokoller for højt‑værdi‑beregningsressourcer er tilstrækkelige. OpenAI har endnu ikke kommenteret offentligt, men brancheinsidere forventer en accelereret forstærkning af perimeterforsvar og en diplomatisk henvendelse til både De Forenede Arabiske Emirater og Washington. Hold øje med udtalelser fra det amerikanske udenrigsministerium, eventuelle gengældende cyber‑operationer, og om OpenAI vil flytte eller duplikere kritiske arbejdsbelastninger til andre regioner. De kommende uger vil afsløre, hvordan AI‑sektoren balancerer hurtig ekspansion med den fremvoksende realitet af statslige trusler mod dens fysiske infrastruktur.
190

Show HN: Gemma 4 multimodal finjustering til Apple Silicon

Show HN: Gemma 4 multimodal finjustering til Apple Silicon
HN +7 kilder hn
applefine-tuninggemmamultimodal
En udvikler på Hacker News har frigivet et open‑source‑værktøjssæt, der lader brugere finjustere Googles Gemma 4 multimodale model direkte på Apple Silicon‑Macs. Projektet, kaldet “Gemma‑tuner‑multimodal”, bygger på arbejde, der startede for seks måneder siden med at tilpasse Whispers kun‑audio‑træningspipeline til en M2 Ultra Mac Studio. Det udvider nu workflowet til Gemma 4 og dens mindre søskende Gemma 3n og understøtter LoRA‑lignende parameteropdateringer for tekst‑, billede‑ og lydinput. Udgivelsen er vigtig, fordi den skubber grænsen for AI på enheden ud over Apples egne modeller. Indtil nu har de fleste udviklere været afhængige af cloud‑baserede tjenester for at tilpasse store multimodale modeller, hvilket medfører latenstid, omkostninger og privatlivsproblemer. Ved at udnytte den høje gennemløbshastighed i den neurale motor og den samlede hukommelsesarkitektur i Apple Silicon demonstrerer værktøjssættet, at avanceret finjustering kan udføres på en forbruger‑klasse arbejdsstation uden specialiserede GPU’er. Tidlige benchmarks, som forfatteren har offentliggjort, viser træningshastigheder, der kan måle sig med beskedne cloud‑instanser, mens inferens kører komfortabelt på M2 Ultra og, ifølge et separat Facebook‑indlæg, på den kommende iPhone 17 Pro. Initiativet kan accelerere en bølge af edge‑centrerede AI‑applikationer i Norden, hvor databeskyttelsesregler favoriserer lokal behandling. Det signalerer også, at Apples hardware bliver en levedygtig platform for tredjeparts forskning i grundlæggende modeller, hvilket potentielt kan få Apple til at udsætte flere lav‑niveau ML‑API’er i fremtidige macOS‑udgivelser. Hvad man skal holde øje med: præstationssammenligninger mellem Gemma‑tuner og Apples egne Core ML‑finjusteringsværktøjer; fællesskabsbidrag, der tilføjer understøttelse for andre Apple Silicon‑varianter såsom M3‑serien; og om Apple eller Google vil formalisere partnerskaber for at levere for‑finjusterede multimodale modeller til iOS og macOS. De kommende uger bør afsløre, om denne græsrodsindsats kan omforme magtbalancen i AI‑økosystemet på enheden.
182

GitHub - milla-jovovich/mempalace: Det højst scorerende AI‑hukommelsessystem nogensinde benchmarket. Og det er gratis.

Mastodon +6 kilder mastodon
anthropicbenchmarksclaudedeepmindgoogleopenai
Hollywood‑stjernen Milla Jovovich er trådt ud af filmklitteret og ind i AI‑laboratoriet og har sammen med maskinlæringsingeniør Ben Sigman lanceret et open‑source‑hukommelsessystem kaldet **MemPalace** på GitHub. Værktøjet organiserer information i virtuelle “rum”, inspireret af den gamle loci‑metode, og gemmer derefter samtalekontekst lokalt i stedet for i sky‑baserede agenter. I benchmark‑tests på Long‑MemEval‑suiten opnåede MemPalace en score på 96,6 % – den højeste nogensinde registrerede score for et offentligt tilgængeligt system og et klart forspring i forhold til kommercielle tilbud fra OpenAI, Anthropic og Google DeepMind. Resultatet blev offentliggjort sammen med repository’en den 7. april 2026, og koden er udgivet under en MIT‑licens, hvilket betyder, at alle kan integrere hukommelseslaget i deres egne LLM‑arbejdsprocesser uden licensgebyrer. Gennembruddet er vigtigt, fordi nuværende generative‑AI‑grænseflader sletter sessionsdata, så snart en chat slutter, hvilket tvinger brugerne til at gentage kontekst, spilde tokens og afsløre følsomme oplysninger til tredjeparts‑servere. Ved at opretholde en vedvarende, lokalt krypteret videns
162

Anthropic: Alle dine zero‑days tilhører Mythos

Mastodon +7 kilder mastodon
anthropicclaude
Anthropic har i al hemmelighed åbnet en begrænset beta af Claude Mythos, deres nyeste store sprogmodel, for en håndfuld erhvervs‑partnere under kodenavnet Project Glasswing. Modellen, som beskrives i et preview‑dokument udgivet tidligere på ugen, kan ikke kun opdage zero‑day‑fejl i operativsystemer og cloud‑tjenester, men også generere fungerende exploit‑kode, der opnår fjern‑kodeeksekvering eller forårsager nedbrud. I interne tests har systemet angiveligt afsløret sårbarheder i Windows, Linux, macOS og flere container‑runtime‑miljøer på få minutter – en hastighed, der overgår traditionelle manuelle bug‑jagcyklusser. Anthropic siger, at betaen er “ikke til offentlig brug”, fordi funktionerne “kan ødelægge internettet på en dårlig måde.” Virksomhedens forsigtighed afspejler tidligere bekymringer, der blev rejst, da Claude Mythos‑previewen først blev dokumenteret i vores System Card den 8. april, hvor vi bemærkede modellens hidtil usete kodningsfærdigheder. Det nye er konkrete beviser på, at modellen kan gå fra opdagelse til udnyttelse, et spring der forvandler den fra en forskningsnysgerrighed til et potentielt våben. Konsekvenserne spreder sig gennem cybersikkerheds‑økosystemet. Defensive teams kan snart blive nødt til at håndtere AI‑genererede exploits, der dukker op hurtigere, end patches kan rulles ud, mens red‑
158

"Båndet med en sand hund er så varigt som jordens bånd nogensinde vil være." — Konrad

Mastodon +6 kilder mastodon
Et generativ‑AI‑system har fremstillet et slående portræt af en hund ledsaget af et citat fra etologen Konrad Lorenz: “Båndet med en sand hund er så varigt som jordens bånd nogensinde vil være.” Billedet, som blev delt på X med billedteksten “🖼️ Atribuição de Obra: Konrad Lorenz 🤖 Imagem gerada por AI,” samlede hurtigt tusindvis af likes og udløste en debat i de nordiske teknologikredse om krydsfeltet mellem klassisk litteratur, dyresymbolik og maskin‑skabt kunst. Indlægget er bemærkelsesværdigt ikke kun for sin visuelle appel, men også for den måde, det kombinerer et citat i public domain med en syntetisk gengivelse, der efterligner et traditionelt oliemaleri. AI‑modellen bag værket, en diffusions‑baseret generator finjusteret på historiske portræt‑datasæt, blev ifølge rapporter kørt på en cloud‑tjeneste, der tilbyder gratis kreditter til skabere. Ved at kreditere Lorenz som “forfatter” til værket rejser uploaderen et subtilt spørgsmål: hvordan skal attribution håndteres, når en maskine sammensætter en komposition ud fra public‑domain‑tekst og indlærte visuelle stilarter? Hændelsen er vigtig, fordi den illustrerer den stigende lethed, hvormed ikke‑tekniske brugere kan producere højkvalitets, tilsyneladende original kunst, der låner fra kulturarven. Efterhånden som AI‑genereret indhold oversvømmer de sociale feeds, kæmper kunstnere, museer og rettighedshavere for at definere, hvad der udgør plagiering, fair use og moralske rettigheder i et landskab, hvor grænsen mellem inspiration og replikation bliver sløret. Nordiske regulatorer, som allerede udarbejder EU AI‑forordningen, følger sådanne sager for at vurdere, om obligatoriske vandmærker eller proveniens‑metadata skal blive påkrævet. Hvad der er at holde øje med: platformen, der hostede billedet, har lovet at teste en automatisk afsløringsetiket for AI‑genereret medie, mens flere europæiske ophavsretsorganer forbereder vejledning om genbrug af public‑domain‑tekst i syntetiske billeder. De kommende uger kan bringe pilotprojekter, der indlejrer kryptografiske signaturer i AI‑output, og dermed tilbyde et teknisk svar på det attribution‑dilemma, som denne hunde‑tribut fremhæver.
157

Paul Couvert (@itsPaulAi) på X

Mastodon +7 kilder mastodon
benchmarksclaudegpt-5
Zai, den sydkoreanske AI‑startup kendt for sine letvægts‑sprogsmodeller, annoncerede på X, at deres seneste open‑source‑udgivelse kan måle sig med ydeevnen fra Opus 4.6 og OpenAI’s kommende GPT‑5.4. I en tråd udgivet af AI‑underviseren Paul Couvert (@itsPaulAi) delte virksomheden benchmark‑resultater, der viser, at den nye model overgår begge konkurrenter på flere standardtests, samtidig med at den leverer inferenskostnader til en brøkdel af prisen. Modellen er allerede pakket til brug med Anthropic’s Claude Code og OpenClaw‑udviklingsmiljøet, hvilket signalerer en satsning på øjeblikkelig integration i eksisterende værktøjer. Annoncen er vigtig, fordi den indsnævrer kløften mellem proprietære, cloud‑hostede LLM’er og fællesskabsdrevne alternativer. Open‑source‑modeller har traditionelt halter på skala og pålidelighed, hvilket har tvunget virksomheder til at stole på dyre API‑kontrakter. Zais påstand om “billigere og bedre” ydeevne kan fremskynde adoptionen i omkostningsfølsomme sektorer som fintech, uddannelse og nordiske offentlige tjenester, hvor budgetbegrænsninger og bekymringer om datasuverænitet favoriserer lokalt hostede løsninger. Som vi rapporterede den 24. march, har det europæiske AI‑økosystem fulgt den åbne‑source‑bølge; dagens udgivelse tilføjer en troværdig konkurrent, der kan finjusteres på regional data uden licenshurdere. Det, der skal holdes øje med fremover, er hvordan modellen klarer sig i virkelige implementeringer ud over de offentliggjorte benchmarks. Tidlige adoptører i Skandinavien vil sandsynligvis afprøve kodebasen i sprogspecifikke applikationer, hvor de tester latenstid, hallucinationsrater og kompatibilitet med eksisterende pipelines. Opfølgende udgivelser fra Zai, især eventuelle kvantisering‑ eller multimodale udvidelser, vil indikere, om virksomheden kan opretholde sin fremdrift. I mellemtiden vil det bredere fællesskab nøje undersøge licensbetingelserne og robustheden i træningsdataene – faktorer, der kan afgøre, om modellen bliver en fast bestanddel af den åbne‑source LLM‑stack eller forbliver en niche‑præsentation.
147

Sam Altman kan kontrollere vores fremtid – kan han stole på?

Mastodon +7 kilder mastodon
ai-safetyopenai
OpenAIs bestyrelse har i al hemmelighed iværksat en formel undersøgelse af administrerende direktør Sam Altman og anklager ham for at have vildledt bestyrelsen om virksomhedens sikkerheds‑roadmap samt for at have nedtonet interne risici. Ifølge kilder startede bestyrelsens efterforskning, efter at en række interne notater dukkede op, som indikerede, at Altman havde overdrevet fremskridtene inden for alignment‑forskning og havde skjult afvigende meninger fra senioringeniører. Anklagerne kulminerede i en afstemning om at afskedige Altman i sidste uge – et skridt, der chokerede både medarbejdere og investorer. Hændelsen har betydning langt ud over én enkelt leders skæbne. OpenAI befinder sig i centrum af generativ‑AI‑boom’en, og deres produkter driver alt fra chat‑assistenter til erhvervs‑værktøjer. Hvis administrerende direktør kan omgå bestyrelsens tilsyn, risikerer virksomhedens løfte om at “bygge sikker AI” at blive tomt, hvilket rejser spørgsmål om ansvarlighed i en branche, hvor én leder kan forme retningen for en teknologi, som mange betragter som eksistentielt risikabel. Bestyrelsens bekymringer spejler bredere reguleringsbekymringer i Europa og USA, hvor lovgivere udarbejder lovgivning for at bremse ukontrolleret AI‑udvikling og for at pålægge gennemsigtighed på modeller med stor påvirkning. Altman‑s allierede har allerede mobiliseret sig. Hundredvis af ingeniører har underskrevet et åbent brev, der kræver hans genindsættelse, og flere venturekapital‑partnere har advaret om, at en langvarig ledelseskamp kan forsinke produktlanceringer og true OpenAIs markedsposition. Bestyrelsen forventes at fremlægge sine konklusioner for aktionærerne på den kommende årsmøde i juni, og en særlig session i den amerikanske senats AI‑tilsynskomité er planlagt til juli for at drøfte styringsstandarder for “fundamentale modeller”. Observatører vil holde øje med, om bestyrelsens undersøgelse fører til en omstrukturering, strengere sikkerhedsprotokoller eller et bredere industrielt skub mod uafhængig tilsyn med AI‑giganter.
129

OpenAI‑udviklere (@OpenAIDevs) på X

Mastodon +7 kilder mastodon
gpt-5openai
OpenAIs udviklerkanal på X meddelte, at de fra den 14. april vil afvikle Codex‑modellerne, som driver kode‑assistance baseret på ChatGPT, og erstatte dem med en ny suite af GPT‑5‑seriemodeller. Indlægget oplyste de understøttede tilbud – gpt‑5.4, gpt‑5.4‑mini, gpt‑5.3‑codex, gpt‑5.3‑codex‑spark (kun tilgængelig for Pro‑abonnenter) og gpt‑5.2 – og advarede om, at API‑kald foretaget med en personlig nøgle efter afviklingsdatoen kun vil falde tilbage til de ældre modeller, hvis udviklere udtrykkeligt vælger at gøre det. Skiftet er vigtigt, fordi Codex har udgjort rygraden i OpenAIs kode‑fuldførelsesfunktioner, fra “Forklar kode”‑knappen i ChatGPT til tredjeparts‑IDE‑plugins. Ved at gå over til GPT‑5‑familien lover OpenAI højere nøjagtighed, bredere sprogunderstøttelse og tættere integration med deres nyeste resonnerings‑evner. For udviklere kan ændringen betyde hurtigere forslag, færre hallucinationer og en mere ensartet prisstruktur, der tilpasser kodegenerering til de samme lagdelte satser, som bruges til tekstgenerering. OpenAIs skridt signalerer også en bredere strategi om at samle deres modelportefølje under GPT‑5‑paraplyen, reducere vedligeholdelsesbyrden for ældre stakke og placere virksomheden i konkurrencen mod rivaler som Anthropics Claude og Googles Gemini, som allerede har samlet deres kode‑relaterede tjenester. Den kun for Pro‑brugere “spark”‑variant antyder et premium‑niveau rettet mod virksomheder, der har brug for højere gennemløb eller lavere latenstid. Hvad man skal holde øje med: OpenAI vil i de kommende dage offentliggøre migrations‑vejledninger og opdateret prisfastsættelse på deres udviklerportal, og fællesskabet vil teste de nye modeller i populære udvidelser som GitHub Copilot og VS Code. Tidlige præstationsbenchmark‑resultater, især på store kodebaser, vil afsløre, om de lovede forbedringer realiseres. Endelig kan enhver ændring i brugsgebyrer påvirke økonomien i SaaS‑værktøjer, der indlejrer OpenAIs kode‑genererings‑API’er, hvilket kan få konkurrenterne til at justere deres egne tilbud.
129

Artificial Analysis (@ArtificialAnlys) på X

Mastodon +6 kilder mastodon
agentsbenchmarks
Artificial Analysis (@ArtificialAnlys) har lanceret en ny “agent‑landskabsoversigt”, der kortlægger 7 kernekategorier af AI‑drevne agenter – General Work, Coding, Chatbots, Presentations, OCR, Data Analysis og Customer Support. Den interaktive matrix giver brugerne mulighed for at sammenligne hver agents primære funktioner, præstationsmålinger og omkostningsprofil side om side. Lanceringen, som blev annonceret på X den 4. april, bygger på Artificial Analysiss ry for uafhængige benchmark‑tests af AI‑modeller og API‑udbydere, og udvider fokus fra statiske model‑scores til de dynamiske, opgaveorienterede agenter, som i stigende grad er indlejret i virksomheders arbejdsprocesser. Tidspunktet er betydningsfuldt. Efterhånden som AI‑agenter bevæger sig fra eksperimentelle laboratorier til den daglige forretningsdrift, står beslutningstagere over for et fragmenteret marked, hvor påstande om “agentisk intelligens” ofte overgår verificerbare data. Ved at destillere komplekse præstationsvariabler – output‑hastighed, latenstid, pris og funktionel bredde – til en enkelt, søgbar oversigt giver Artificial Analysis indkøbsteams et praktisk værktøj til risikobewusste indkøb. Virksomhedens egen omkostningsanalyse, citeret i nylige tråde, viser, at dens Intelligence Index kører til mindre end halvdelen af udgiften for frontløbs‑konkurrenter som Opus 4.6 og GPT‑5.2, men stadig er omtrent dobbelt så dyr som førende open‑weight‑modeller som GLM‑5 og Kimi K2.5. Denne positionering understreger afvejningen mellem banebrydende kapacitet og driftsbudget – et dilemma mange nordiske virksomheder allerede kæmper med. Det, der skal holdes øje med fremover, er den bølgeeffekt, dette kan have på leverandørstrategier og standardiseringsorganer. Artificial Analysis har forpligtet sig til kvartalsvise opdateringer, som vil inkorporere nye agenter, herunder den nyligt validerede Nova 2.0 Lite, og udvide dækningen til flersprogede og compliance‑fokuserede anvendelsestilfælde. Brancheobservatører vil være ivrige efter at se, om oversigten bliver en de‑facto reference for offentlige AI‑indkøbsretningslinjer i Sverige, Danmark og Finland, og om konkurrerende benchmark‑virksomheder reagerer med tilsvarende agent‑centrerede rapporter. Udviklingen af dette landskab kan forme den næste bølge af AI‑adoption på tværs af Norden.
129

Artemis II‑astronauter Bruger iPhones til at Fange Betagende Rum‑billeder

Mastodon +6 kilder mastodon
apple
NASA’s crewed Orion flight Artemis II har blevet den første dyb‑rum‑mission, der medbringer forbruger‑grade iPhones, og enhederne lever allerede en strøm af iøjnefaldende fotografier. Seks dage inde i den 25‑dages rejse omkring Månen har astronauterne ombord i “Integrity”‑kapslen brugt iPhone 17 Pro‑telefoner til at tage selfies af Jorden, nærbilleder af den lunare horisont og indvendige billeder af cockpittet. Billederne, som transmitteres via rumfartøjets høj‑gain‑antenne, viser planetens natlige bylys i en hidtil uset klarhed for et telefonkamera og afslører Månens ru terminator med et detaljeringsniveau, der kan måle sig med dedikerede videnskabelige instrumenter. Initiativet følger NASA’s beslutning i 2024 om at certificere iPhones til rumflyvning efter en række jord‑baserede vibrations‑ og strålings‑tests, som beviste, at hardwaren kan overleve opsendelses‑stress og det barske strålingsmiljø ud over lav‑jord‑bane. Apples partnerskab med agenturet er en del af en bredere strategi for at fremvise iPhone 17’s beregnings‑fotografistak—sensor‑fusion, AI‑drevet HDR og lav‑lys‑behandling—under ekstreme forhold. For NASA giver telefonerne et lav‑omkostnings‑, høj‑opløsnings‑supplerende værktøj til de traditionelle kameraer, mens Apple får en kraftfuld markedsførings‑historie og real‑world‑data til at finjustere deres billedbehandlings‑algoritmer. Den visuelle feed fodrer allerede offentlige formidlings‑kanaler, men det videnskabelige samfund holder øje med datasættet for supplerende forskning. Analytikere forventer, at Apples indbyggede neurale motor vil blive udnyttet til real‑time billedkomprimering og foreløbig AI‑tagging, en kapacitet der kan reducere downlink‑båndbredde på fremtidige missioner. Hold øje med NASA’s udgivelse af det fulde billedarkiv senere på måneden, Apples tekniske brief efter flyvningen om hardware‑præstationer, og den kommende Artemis III‑landing, hvor iPhone‑baserede billeder kan blive integreret i planlægningen af overflade‑operationer.
110

Bluesky satser på AI med Attie, en app til at bygge tilpassede feeds | TechCrunch

Mastodon +6 kilder mastodon
agents
Bluesky, den decentraliserede sociale medieplatform bygget på AT‑protokollen, præsenterede Attie, en AI‑drevet app, der giver brugerne mulighed for at oprette og kuratere deres egne feeds ved hjælp af naturlige sprog‑prompt. Betaversionen, støttet af et konsortium af kryptofokuserede investorer, placerer Attie som et “agentisk” lag oven på Blueskys åbne netværk, så enhver kan “vibe‑kode” en personlig social oplevelse og efterhånden dele de resulterende værktøjer med andre brugere. Lanceringen markerer Blueskys første skridt ind i generativ‑AI‑funktionalitet og går ud over det oprindelige løfte om algoritme‑fri tidslinjer. Ved at omsætte almindelige tekst‑instruktioner til feed‑filtre, anbefalingsregler og endda UI‑justeringer, lover Attie et niveau af tilpasning, der kan måle sig med proprietære platforme, hvor algoritmen forbliver uigennemsigtig. For et netværk, der markedsfører sig som bruger‑suverænt, kan evnen til at skripte sin egen sociale app fremskynde
110

Er Linux Foundation for ikke‑mennesker og Linux Foundation for mennesker det samme? Anthropic siger, at dens m

Mastodon +6 kilder mastodon
anthropic
Anthropic annoncerede, at deres seneste AI‑drevne cybermodel, internt kaldet “Glasswing”, er det mest kapable system, de nogensinde har bygget til netværkssikkerhedsopgaver, men virksomheden har besluttet at holde den uden for den offentlige sfære. Modellen, beskrevet som en “cyber‑fokuseret stor sprogmodel”, der kan generere sofistikeret udnyttelseskode, scanne efter sårbarheder og endda orkestrere flertrinsangreb, blev anset for at være for farlig til at blive frigivet uden hidtil usete sikkerhedsforanstaltninger. I stedet har Anthropic indkapslet teknologien i et stramt kontrolleret forskningsmiljø kaldet Project Glasswing, hvor et lille team kan udforske dens grænser, mens de håndhæver streng isolation, revisionsspor og godkendelser fra mennesker i løkken. Dette skridt understreger den voksende spænding mellem AI‑fremskridt og sikkerhedsrisiko. Som vi rapporterede den 8. april, fremhævede Anthropics opdagelse af zero‑day‑udnyttelser i deres egen infrastruktur den dobbelte anvendelsesmulighed af kraftfulde modeller. Ved at anerkende truslen fra Glasswing slutter firmaet sig til OpenAI og Google i den offentlige debat om model‑kopiering og misbrug, som har domineret de seneste overskrifter. At holde modellen internt kan forhindre umiddelbart misbrug, men det rejser også spørgsmål om gennemsigtighed, ansvarlighed og den bredere branches evne til at fastsætte sikkerhedsstandarder for AI‑aktiverede cyberværktøjer. Det, der skal holdes øje med, er om Anthropic vil offentliggøre sikkerhedsforskningsresultater fra Glasswing, invitere eksterne revisorer eller søge regulatorisk vejledning om AI‑drevne cyberkapaciteter. Konkurrenterne vil sandsynligvis accelerere deres egne defensive AI‑programmer, og regeringer i EU og USA forventes at stramme tilsynet med dual‑use AI. De kommende uger kan afsløre, om Project Glasswing bliver en benchmark for ansvarlig AI‑sikkerhedsforskning eller en advarselshistorie om teknologi, der holdes for tæt på brystet.
109

Mark Gadala-Maria (@markgadala) på X

Mastodon +7 kilder mastodon
anthropic
Anthropics næste‑generationsmodel er klar til at “ryste internettet,” skrev teknologikommentatoren Mark Gadala‑Maria på X, hvilket udløste en bølge af spekulationer i AI‑samfundet. Selvom indlægget ikke navngav modellen, knytter brancheinsidere bemærkningen til Anthropics kommende udgivelse – formodet at blive en efterfølger til Claude 3.5 med udvidede multimodale kapaciteter og et dramatisk større kontekstvindue. Tweetet, som blev lagt ud den 8. april, er allerede blevet retweetet af dusinvis af AI‑forskere, der ser det som et signal om, at Anthropic endelig kan lukke præstationskløften til OpenAIs GPT‑4‑Turbo og Google DeepMinds nylige 85 % ARC‑AGI‑2‑score, som vi dækkede den 6. april. Hvis det nye Anthropic‑system lever op til forventningerne, kan det omforme flere fronter. En model, der kan generere kode af høj kvalitet, langt indhold og realtids‑resonering til lavere token‑omkostninger, vil intensivere konkurrencen om enterprise‑kontrakter, især i sektorer hvor dataprivatliv og alignment er altafgørende. Det vil også hæve barren for benchmark‑suiter som ACE, der måler omkostningerne ved at bryde AI‑agenter, og kunne ændre økonomien i AI‑drevne tjenester, der er afhængige af token‑prissatte API’er. Desuden kunne en kraftigere Claude‑variant accelerere tendensen med AI‑skrevet software, i tråd med Mark Zuckerbergs påstand om, at Metas kodebase inden for 12‑18 måneder vil være stort set AI‑genereret. Hold øje med en officiel Anthropic‑meddelelse i de kommende uger, sandsynligvis ledsaget af benchmark‑resultater på ARC‑AGI‑2, MMLU og den nyligt udgivte ACE‑suite. Analytikere vil også følge prisstrukturer, udrulningen af eventuelle on‑premise‑ eller private‑cloud‑tilbud samt reaktionen fra OpenAI og Google, hvis egne model‑roadmaps kan blive justeret for at imødegå Anthropics fremdrift. De næste par måneder kan derfor definere den næste konkurrencemæssige bølge i store‑sprogs‑modellers præstation og markedsandel.
101

Cybersikkerhed i den Øjeblikkelige Softwarealder - Schneier om Sikkerhed

Mastodon +6 kilder mastodon
Bruce Schneiers seneste essay, “Cybersikkerhed i den Øjeblikkelige Softwarealder,” advarer om, at generative‑AI‑værktøjer er på vej til at gøre softwareudvikling til en on‑demand‑tjeneste. Ved årets udgang vil udviklere og endda ikke‑tekniske brugere kunne give en AI en prompt for at producere en komplet applikation – hvad enten det er en regnearks‑makro, et web‑API eller en mikrotjeneste – inden for minutter. Schneier argumenterer for, at dette “øjeblikkelige software”‑paradigme vil udhule den traditionelle gatekeeping‑rolle for kodegennemgang, test‑pipelines og compliance‑kontroller, fordi koden genereres på stedet og ofte aldrig kommer ind i et versionskontrolleret repository. Skiftet er vigtigt, fordi de sikkerhedsgarantier, der i dag bygger på menneskelig granskning og gentagelige build‑processer, vil blive omgået. AI‑genereret kode kan arve skjulte bias, indlejre ondsindede payloads eller blot indeholde logiske fejl, som undslipper opdagelse, når artefakten aldrig bliver undersøgt. Schneier peger på tidlige hændelser, hvor AI‑assisterede kodeforslag indførte sårbare afhængigheder, og bemærker, at hastigheden af genereringen gør storskalig udnyttelse mulig: en angriber kunne oversvømme et marked med ondsindede “øjeblikkelige apps”, der fremstår legitime for intetanende brugere. Set fremadrettet vil sikkerhedsfællesskabet have brug for nye kontrolmekanismer, der opererer på AI‑prompt‑niveau. Schneier foreslår at indlejre proveniens‑metadata, real‑time statisk analyse af genereret kode og obligatorisk attestering af de AI‑modeller, der anvendes til kodning. Regulatorer kan også overveje standarder for AI‑kodegeneratorer, svarende til dem, der er på vej for autonome våben. Observatører bør holde øje med pilotprogrammer i store cloud‑platforme, der sigter mod at certificere deres kode‑genereringstjenester, samt med branche‑koalitioner, der foreslår “øjeblikkelig‑software” sikkerhedsrammer. De kommende måneder vil vise, om branchen kan eftermontere tillid til en teknologi, der fundamentalt omformer, hvordan software bygges.
101

Apple kan bringe A19 Pro‑chip til MacBook Neo næste år, men kan snart støde på forsyningshurdler

Mastodon +6 kilder mastodon
applechipsgoogle
Ifølge et læk fra CNET forbereder Apple sig på at opdatere sin entry‑level MacBook Neo med den næste generations A19 Pro‑processor allerede næste år. Opgraderingen ville hæve enhedens samlede hukommelse til 12 GB, et skridt op fra den nuværende models 8 GB, samtidig med at den 13‑tommers Liquid Retina‑skærm, heldagsbatterilevetid og prisen på $599, som har sikret stærk forbrugeroptagelse, bevares. Dette skridt er vigtigt, fordi det vil udvide Apples interne siliciumstrategi dybere ind i budgetsegmentet og give selv lavpris‑laptops den samme AI‑klare arkitektur, som driver virksomhedens flaggermaskiner og iPads. En mere kraftfuld chip kunne muliggøre glattere inferens af sprogmodeller på enheden og rigere grafik, hvilket indsnævrer præstationskløften mellem Neo og dyrere konkurrenter. For Apple er Neo blevet en vigtig volumen‑driver, især i markeder hvor prisfølsomhed begrænser Mac‑adoption. Analytikere advarer dog om, at Apple kan støde på forsyningsflaskehalse, som vil dæmpe udrulningen. A19 Pro er allerede planlagt
100

Anthropic hævder, at deres nye AI‑model, Mythos, er en cybersikkerhedsmæssig ‘opgørelse’

Mastodon +7 kilder mastodon
anthropic
Anthropic annoncerede tirsdag, at deres næste‑generationsmodel, kaldet Claude Mythos, markerer en “cybersikkerhedsmæssig opgørelse”. Virksomheden, som har holdt detaljerne skjult, udtalte, at systemet – udviklet under det interne kodenavn “Capybara” – kan lokalisere software‑sårbarheder i operativsystemer og browsere med en succesrate, der overgår alle undtagen et håndfuld specialiserede værktøjer. En delvis lækage af tekniske specifikationer sidste måned fik Anthropic til at bekræfte påstanden og forklare, hvorfor modellen ikke vil blive frigivet offentligt. I stedet vil den blive rullet ud til en lukket gruppe på cirka 40 virksomhedspartnere som et kontrolleret pilotprojekt. Initiativet bygger på Anthropics seneste forsøg inden for sikkerheds‑fokuseret AI. I april advarede de om, at deres tidligere model kunne frembringe zero‑day‑udnyttelser, en påstand der udløste debat om ansvarlig offentliggørelse (se vores rapport fra den 8. april om Anthropics “All your zero‑days are belong to Mythos”). Ved at kombinere Mythos med Google Clouds Tensor Processing Units – et partnerskab, der blev annonceret den 7. april – har firmaet udstyret modellen med den beregningskraft, der kræves til real‑time kodeanalyse. Beslutningen om at begrænse adgangen afspejler en stigende uro i branchen omkring brugen af AI‑drevet sårbarhedsopdagelse som våben, et tema der også fremgår af vores dækning af udfordringer inden for øjeblikkelig software‑sikkerhed. Hvad man skal holde øje med: Anthropic har sagt, at pilotprojektet vil generere præstationsdata og sikkerhedsmålinger, som vil forme en bredere udrulningsstrategi. Observatører vil holde øje med det første sæt offentliggjorte fund, som potentielt kan påvirke patch‑cyklusser for store operativsystemleverandører. Regulatorer kan også komme til at undersøge den lukkede beta‑ordning under de nye AI‑risikorammer, mens konkurrenter som OpenAI og Google sandsynligvis vil accelerere deres egen sikkerheds‑orienterede modeludvikling. De kommende uger vil vise, om Mythos bliver en katalysator for tættere AI‑sikkerhedssamarbejde eller en gnist til nye politiske debatter.
92

Pietro Monticone (@PietroMonticone) på X

Mastodon +6 kilder mastodon
openai
Et samarbejde mellem en menneskelig matematiker, OpenAI’s GPT‑5.4 Pro og HarmonicMath’s “Aristotle” resonansmotor har angiveligt løst Erdős‑problem #650, et spørgsmål der har hængt på listen over åbne problemer i mere end seks årtier. Gennembruddet blev annonceret på X af forskeren Pietro Monticone, som beskrev, hvordan det tre‑parts partnerskab leverede et komplet bevis, der efterfølgende blev kontrolleret af formelle verifikationsværktøjer. Præstationen markerer første gang, at et langvarigt Erdős‑problem er knækket med direkte assistance fra en stor sprogmodel og et dedikeret formelt resonanssystem. GPT‑5.4 Pro leverede overordnede formodninger, foreslog lemmer og udarbejdede bevis‑skitser, mens Aristotle, bygget på et fundament af teorem‑bevis‑biblioteker såsom Lean og Isabelle, udfyldte hullerne med maskin‑kontrollerede inferens‑trin. Den menneskelige ekspert styrede den overordnede strategi, bekræftede intuitionen bag argumenterne og sikrede, at den endelige fremstilling levede op til matematiske standarder. Hvorfor det er vigtigt, går ud over selve løsningen. Det demonstrerer, at generativ AI kan bevæge sig fra mønstergenkendelse til reel matematisk indsigt, især når den kombineres med formelle bevis‑assistenter, der garanterer logisk korrekthed. Episoden kan omforme forskningsarbejdsprocesser, sænke barrieren for at tackle dybe problemer og accelerere verifikations‑pipeline, som traditionelt kræver måneder med fagfællebedømmelse. Den rejser også spørgsmål om forfatterskab, kreditfordeling og reproducerbarheden af AI‑genererede beviser. De næste skridt bliver afgørende. Uafhængige matematikere forventes at gennemgå beviset kritisk, og en formel publikation i et fagfællebedømt tidsskrift vil sandsynligvis følge. Fællesskabet vil holde øje med, hvordan OpenAI positionerer GPT‑5.4 Pro — som forskningsassistent, medforfatter eller som værktøj til bevis‑kontrol. Yderligere samarbejder er allerede blevet antydet, med flere åbne problemer fra Erdős‑listen udpeget til AI‑forstærkede angreb. Episoden signalerer, at æraen for AI‑drevet matematik ikke længere er spekulativ, men aktivt omformer grænsen for opdagelse.

Alle datoer