AI News

150

Forståelse af Transformere – Del 4: Introduktion til Selv‑opmærksomhed

Forståelse af Transformere – Del 4: Introduktion til Selv‑opmærksomhed
Dev.to +5 kilder dev.to
embeddings
Rijul Rajesh’s “Understanding Transformers Part 4: Introduction to Self‑Attention” gik live den 9. april og udvider hans populære serie, der afmystificerer arkitekturen bag nutidens store sprogmodeller. Det nye indlæg fortsætter fra Del 3, hvor Rajesh forklarede, hvordan ord‑embedding‑er og positions‑kodninger smelter mening sammen med rækkefølge, og dykker ned i selv‑opmærksomhedsmekanismen, der gør det muligt for en transformer at vurdere hvert token i forhold til alle andre tokens i én enkelt gennemløb. Artiklen nedbryder matematikken bag forespørgsels‑ (query), nøgle‑ (key) og værdi‑ (value)‑vektorer, illustrerer multi‑head‑attention med kode‑uddrag og viser, hvordan operationen skalerer fra et håndfuld tokens til de milliarder, der behandles af kommercielle LLM‑er. Ved at omsætte abstrakte tensor‑operationer til konkrete eksempler giver Rajesh udviklere et praktisk udgangspunkt for at bygge eller fin‑tune deres egne modeller – en særligt værdifuld ressource for det nordiske AI‑fællesskab, hvor startups og forskningslaboratorier hurtigt adopterer transformer‑baserede løsninger til alt fra flersprogede chatbots til klimadata‑analyse. Hvorfor det er vigtigt, er todelt. For det første er selv‑opmærksomhed den motor, der driver den kontekstuelle forståelse og genereringskapacitet, som har gjort generativ AI til en mainstream‑teknologi; at forstå den er nu en forudsætning for enhver seriøs AI‑praktiker. For det andet kommer indlægget i en bølge af undervisningsindhold, der har til formål at lukke kompetencekløften, som har bremset adoptionen af topmoderne modeller i mindre europæiske markeder. Rajesh’s klare, kode‑først‑tilgang supplerer de nylige tekniske dybdegange, vi har dækket, såsom artiklen “Self‑Attention Mechanism” den 8. april, og hjælper med at omsætte teori til produktionsklar indsigt. Ser man fremad, har Rajesh signaleret, at Del 5 vil tage fat på feed‑forward‑netværket og layer‑norm‑komponenterne, som fuldender transformer‑blokken, mens det bredere fællesskab holder øje med nye varianter – sparsommelig opmærksomhed, lineær‑kompleksitet‑alternativer og hardware‑bevidste optimeringer – som kan omforme effektivitetens benchmarke. At følge disse udviklinger vil være afgørende for alle, der ønsker at forblive konkurrencedygtige i det hastigt udviklende AI‑landskab.
127

OpenAI lægger banebrydende investeringspakke på £31 mia i Storbritannien på hylden

OpenAI lægger banebrydende investeringspakke på £31 mia i Storbritannien på hylden
Mastodon +6 kilder mastodon
copyrightopenai
OpenAI har trukket stikket til sit £31 milliarder “Stargate UK”-program og stoppet planerne om at bygge et enormt AI‑computecenter i Cobalt i Northumberland. Virksomheden pegede på skyhøje energipriser og et stadigt mere usikkert reguleringsmiljø som de afgørende faktorer bag tilbagetrækket. Beslutningen afslutter et højtprofileret britisk‑amerikansk partnerskab, der skulle “integrere AI” i den britiske økonomi, skabe tusindvis af højtuddannede jobs og cementere Storbritanniens position som et europæisk AI‑knudepunkt. Investeringen ville have været den største enkeltstående udenlandske AI‑forpligtelse i landets historie og suppleret OpenAIs $500 milliarder store amerikanske “Stargate”-udrulning. Aflysningen fratager Nordøst England en potentiel økonomisk katalysator og signalerer, at Storbritanniens nuværende politik‑ og energiramme måske er ude af takt med de kapitalintensive krav fra frontlinje‑AI‑modeller. Som vi rapporterede den 9. april, har OpenAI også sat en separat datacenteraftale på pause og skiftet til forbrugsbaseret prisfastsættelse for sin Codex‑API, hvilket understreger en bredere omkalibrering af den europæiske strategi. Det seneste tilbagetrækning forstærker bekymringer om, at Storbritannien kan miste terræn til rivaler som Europas DeepMind og USA, hvor mere forudsigelige reguleringsveje og billigere strøm allerede tiltrækker store AI‑infrastrukturprojekter. Hvad man skal holde øje med: den britiske regerings reaktion, herunder om den vil tilbyde målrettede subsidier, fremskynde AI‑licenser eller genforhandle aftalens vilkår. Brancheobservatører vil også følge, om andre AI‑virksomheder træder ind for at udfylde tomrummet, og hvordan episoden påvirker den kommende britiske AI‑lovgivning, som kan omforme balancen mellem innovationsincitamenter og offentlighedens interessebeskyttelse. Resultatet vil forme udviklingen af Storbritanniens AI‑økosystem i mange år fremover.
119

OpenAI sætter Stargate UK‑datacenter på pause på grund af energipriser

Bloomberg +14 kilder 2026-03-25 news
openai
OpenAI meddelte i dag, at de sætter udrulningen af deres “Stargate” kunstig‑intelligens‑infrastrukturprojekt i Storbritannien på pause, med henvisning til skyhøje energipriser og et stadig mere komplekst regulatorisk landskab. Beslutningen standser byggeriet af det højtydende datacenter, som skulle huse virksomhedens næste generations GPU‑klynger og fungere som et knudepunkt for europæiske kunder. Trækket bygger videre på advarslen, der blev udsendt den 9. april, hvor OpenAI første gang satte deres aftale om et britisk datacenter på pause på grund af lignende bekymringer. På det tidspunkt havde virksomheden allerede signaleret, at den £31 milliarder store investeringspakke, de havde lovet den britiske regering, kunne blive truet. Ved at sætte Stargate på pause skalerer OpenAI i praksis deres europæiske beregningsambitioner ned, indtil energipriserne stabiliserer sig, og der fremkommer klarere vejledning om AI‑relateret regulering. Pausen er vigtig af flere grunde. Storbritannien har positioneret sig som en potentiel AI‑supermagt og satset på OpenAIs tilstedeværelse for at tiltrække talent, stimulere lokale forsyningskæder og retfærdiggøre offentlige tilskud til vedvarende energi. Et
106

OpenAI støtter lovforslag, der begrænser ansvar for AI‑muliggjorte masse dødsfald eller finansielle katastrofer

OpenAI støtter lovforslag, der begrænser ansvar for AI‑muliggjorte masse dødsfald eller finansielle katastrofer
Mastodon +7 kilder mastodon
openai
OpenAI har kastet sin vægt bag Illinois Senate Bill 2155, et forslag, der ville beskytte udviklere af kunstig intelligens mod civilretligt ansvar, selv når deres modeller anvendes til at forårsage masseofre eller tab på milliarder af dollars. Virksomheden afholdt vidneudsagn for statens Senate Judiciary Committee tirsdag og argumenterede for, at pålæggelse af streng ansvarlighed på AI‑laboratorier ville kvæle innovation og udsætte firmaer for “urimelige, åbent endelige” retssager. Lovforslaget, indført af demokratiskt‑orienterede lovgivere, har til formål at skabe et “ansvars­skjold” for AI‑udbydere, begrænse erstatningskrav til et fastsat loft og kræve, at sagsøgere beviser, at udviklerens uagtsomhed – snarere end modellens output – direkte forårsagede skaden. Kritikere mener, at loven kan lade virksomheder slippe for ansvar ved katastrofale udfald, fra ulykker med selvkørende køretøjer til algoritme‑drevet markedsmanipulation. Forbruger‑advokatgrupper og flere forskere inden for teknologisk etik har advaret om, at sådanne beskyttelser kan udhule ansvarligheden på et tidspunkt, hvor AI‑systemer integreres i højt risikofyldte områder. OpenAIs støtte markerer et strategisk skifte fra den seneste defensive holdning til reguleringsspørgsmål, såsom den energikost‑drevne pause i deres britiske datacenter og den strammere kontrol med modeludgivelser på grund af cybersikkerhedsbekymringer. Ved at bakke lovforslaget op signalerer det San Francisco‑baserede firma en vilje til at forme den juridiske ramme for AI‑risiko i stedet for blot at reagere på den. De næste skridt afhænger af statens lovgivningsmæssige drøftelser. Hvis lovforslaget vedtages, kan Illinois blive den første amerikanske jurisdiktion, der kodificerer begrænset AI‑ansvar, hvilket kan få andre stater til at overveje lignende tiltag. Hold øje med lobbyvirksomhed fra rivaliserende AI‑firmaer, mulige ændringer, der indsnævrer skjoldets omfang, og enhver føderal respons, der måtte forudgå et lappetæppe af statslige regler. Resultatet vil påvirke, hvor hurtigt AI‑udviklere kan implementere kraftfulde modeller uden at stå over for truslen om massive retlige eksponeringer.
90

Gør dem dumme, sælg dem klogskab

Gør dem dumme, sælg dem klogskab
Mastodon +8 kilder mastodon
OpenAI’s administrerende direktør Sam Altman præsenterede en dristig ny indtægtsmodel på virksomhedens “AI Utility”-briefing den 9. april, hvor generativ intelligens blev placeret som en offentligt‑service vare, der vil blive faktureret på samme måde som vand eller elektricitet. Planen, kaldet “Intelligence‑as‑a‑Utility”, vil opkræve brugerne for den mængde “kognitiv båndbredde”, deres forespørgsler forbruger, målt i en ny enhed kaldet “smart‑tokens”. Selvom OpenAI allerede tjener penge på ChatGPT gennem abonnementsniveauer og API‑brug, flytter utility‑modellen fokus fra flatrate‑adgang til en pay‑per‑intelligence‑ramme, hvilket i praksis gør hvert svar, forslag eller kode‑snippet til en målt tjeneste. Altman argumenterer for, at modellen afspejler den voksende realitet, at AI‑assistenter aflaster hukommelses‑ og ræsonnementopgaver fra den menneskelige hjerne. Nyere studier fra universiteter i Skandinavien og USA viser, at hyppig afhængighed af samtale‑agenter kan svække informations‑bevarelse og kritisk tænkning, en tendens Altman anerkender i sine bemærkninger. Ved at prissætte “smarthed” direkte håber OpenAI at dække de enorme beregningsomkostninger ved træning af stadig større modeller, samtidig med at de tilskynder til mere effektiv prompting. Kunngørelsen er vigtig, fordi den kan omforme, hvordan enkeltpersoner, virksomheder og regeringer budgetterer for AI. En gebyrstruktur i utility‑stil kan udvide kløften mellem teknisk kyndige brugere, der kan optimere token‑forbruget, og dem, der ikke kan, hvilket rejser lighedsspørgsmål, der genlyder i EU’s AI‑lovgivning og nordiske forslag om universel AI‑adgang. Den signalerer også et strategisk skifte: i stedet for kun at konkurrere på modellens kapacitet satser OpenAI på kontrol over forbrugslaget. Hold øje med udrulningsplanen, som Altman sagde vil starte med en beta for erhvervskunder i juni, samt reaktionerne fra regulatorer og konkurrenter som Google Gemini og Anthropic, der kan lancere modtilbud eller lobbyere for strengere pris‑gennemsigtighed. De kommende måneder vil afsløre, om “intelligence as a utility” bliver en ny industri‑standard eller et brændpunkt for politisk debat.
69

Reverse engineering af Geminis SynthID‑detektion

Reverse engineering af Geminis SynthID‑detektion
HN +6 kilder hn
geminigooglemeta
Googles Gemini‑model har i lang tid benyttet SynthID, et usynligt vandmærke, der mærker AI‑genereret tekst og billeder, så de kan identificeres af virksomhedens SynthIDDetector‑værktøj, som blev præsenteret på Google I/O 2025. Et hold af uafhængige forskere meddelte, at de med succes har reverse‑engineered detekteringsmekanismen og afsløret de statistiske mønstre og token‑niveau‑ledetråde, som detektoren bruger til at flagge syntetisk indhold. Gennembruddet kom efter, at forskerne indsamlede et stort korpus af Gemini‑output, anvendte den offentligt tilgængelige detektor og derefter udførte en differentiel analyse for at isolere vandmærkets signatur. Deres papir, som blev lagt op på en pre‑print‑server, beskriver et sæt heuristikker, der både kan bekræfte tilstedeværelsen af SynthID og, afgørende, foreslå måder at fjerne eller maskere vandmærket på uden at forringe outputkvaliteten. Forfatterne understreger, at deres arbejde
67

Finjustering af Gemma 3 med Cloud Run Jobs: Serverløse GPU'er (NVIDIA RTX 6000 Pro) til klassificering af kæledyrsracer 🐈🐕

Finjustering af Gemma 3 med Cloud Run Jobs: Serverløse GPU'er (NVIDIA RTX 6000 Pro) til klassificering af kæledyrsracer 🐈🐕
Dev.to +6 kilder dev.to
fine-tuninggemmagooglenvidia
Google Cloud har lanceret server‑løs GPU‑understøttelse på Cloud Run Jobs, så udviklere kan finjustere store sprogmodeller uden at skulle provisionere dedikerede instanser. Den første offentlige demonstration bruger de nye NVIDIA RTX 6000 Pro (Blackwell)‑kort til at tilpasse den 27‑milliarder‑parameter‑model Gemma 3 til en opgave med klassificering af kæledyrsracer, og omdanner en generisk LLM til en specialist inden for billede‑og‑tekst‑genkendelse af katte og hunde. Arbejdsgangen, som er delt af en community‑ingeniør, starter en Cloud Run‑job, der automatisk provisionerer en RTX 6000 Pro, henter Gemma 3‑vægtene og kører en QLoRA‑lignende finjusterings‑loop på et kurateret datasæt af kæledyrsbilleder og racelabels. Betaling pr. sekund, øjeblikkelig skalering til nul og en kold‑start på 19 sekunder for den 4‑milliarder‑parameter‑variant betyder, at hele eksperimentet kun koster et par dollars og kan reproduceres på efterspørgsel. Der kræves ingen kvote‑anmodning for L4‑klasses GPU‑erne, der driver tjenesten, hvilket sænker barrieren for små teams og hobbyister. Hvorfor det er vigtigt, er todelt. For det første demokratiserer det adgangen til high‑end GPU‑ressourcer, et længe eksisterende flaskehals for nordiske startups og forskningsgrupper, der mangler on‑premise‑klynger. For det andet signalerer det Googles ambition om at positionere Cloud Run som et levedygtigt alternativ til Vertex AI for tilpasset modelarbejde, og dermed konkurrere direkte med AWS SageMaker Serverless og Azure ML’s managed compute. Ved at kombinere de open‑source Gemma‑modeller – først fremhævet i vores dækning af Gemma 4 den 9. april – med ægte server‑løs hardware, lukker Google kløften mellem modeltilgængelighed og praktisk, lav‑omkostnings‑implementering. Set fremad vil fællesskabet sandsynligvis teste den samme pipeline på den nyere Gemma 4‑familie og på større GPU‑typer, efterhånden som de også bliver server‑løse. Hold øje med benchmark‑udgivelser, der sammenligner omkostninger og latenstid med traditionel VM‑baseret finjustering, samt med tættere integration med værktøjer som Unsloth og Hugging Face’s TRL, som kan accelerere niche‑AI‑applikationer yderligere i Norden.
64

OpenAI begrænser udgivelsen af nye modeller på grund af cybersikkerhedsbekymringer

Mastodon +7 kilder mastodon
openai
OpenAI meddelte tirsdag, at de bevidst vil begrænse udrulningen af deres næste generations sprogmodeller på grund af risikoen for, at teknologien kan blive brugt som våben til at opdage software‑sårbarheder i stor skala. Virksomheden sagde, at de vil gå fra en “bred offentlig udgivelse” til en trinvis, invitation‑kun‑adgang for erhvervs‑ og forskningspartnere, med strengere overvågning af, hvordan modellerne anvendes. Beslutningen følger interne debatter, der spejler de veletablerede “ansvarlige afslørings”-praksisser hos cybersikkerhedsvirksomheder. OpenAIs sikkerhedschef, Mira Lee, sammenlignede tilgangen med den måde, leverandører udbedrer kritiske fejl på først, når de har bekræftet, at rettelserne er på plads, og argumenterede for, at ubegrænset adgang kunne fremskynde opdagelsen af zero‑day‑udnyttelser i kritisk infrastruktur. Trækket er også i overensstemmelse med den seneste forsigtighed i branchen: Anthropic begrænsede i sidste
60

Claude Mythos: Fremtiden for autonome udnyttelser – Denne er anderledes. Anthropic gjorde ikke bare b

Mastodon +6 kilder mastodon
anthropicautonomousclaude
Anthropic annoncerede eksistensen af Claude Mythos, en AI‑model i preview‑stadiet, der er i stand til autonomt at opdage nul‑dags sårbarheder på tværs af store operativsystemer og browsere. Virksomheden sagde, at systemet fungerer, men at det ikke vil blive gjort offentligt tilgængeligt, fordi det har overskredet en sikkerhedstærskel, som Anthropic mener, at branchen endnu ikke er klar til at håndtere. Offentliggørelsen markerer et markant afvigende skridt fra Anthropics seneste udrulningsstrategi, som har fokuseret på inkrementelle opgraderinger såsom Claude Opus 4.6 og rammer for styrede agenter. Mythos beskrives som en “frontier‑model”, der kan scanne kode, netværkskonfigurationer og runtime‑miljøer uden menneskelig prompt og generere udnyttelses‑kæder, som traditionelt ville kræve uger med specialiseret arbejde. I et lækket internt notat advarede ingeniører om, at modellens succesrate på nye sårbarheder overstiger 70 procent, et tal der overgår den 10 procent‑fordel, der blev rapporteret for erfarne Claude‑brugere i vores dækning af styrede agenter den 9. april. Hvorfor det er vigtigt, er tofoldigt. For det første kan evnen til at automatisere opdagelse af udnyttelser komprimere sårbarhedens livscyklus, give angribere et kraftfuldt nyt våben og tvinge forsvarere til at revurdere patch‑rytmer. For det andet signalerer Anthropics beslutning om at tilbageholde modellen en voksende erkendelse af, at AI‑fremskridt overhaler styringsrammer, hvilket genlyder i Atlantics seneste analyse af “Claude Mythos er alles problem”. Den samtidige lancering af Project Glasswing – en defensiv koalition, der inkluderer AWS, Apple, Cisco, Google og andre – tyder på, at branchen mobiliserer en koordineret respons, før teknologien nogensinde får kommerciel anvendelse. Det, der skal holdes øje med fremover, er de konkrete skridt, Project Glasswing vil tage for at styrke softwareforsyningskæder, samt om regulatorer vil gribe ind for at sætte grænser for autonome udnyttelses‑genereringsværktøjer. Anthropics næste offentlige udtalelse, sandsynligvis med en køreplan for kontrolleret ekstern testning, vil være en vigtig barometer for, hvor hurtigt den AI‑drevne cyber‑våbenkapløb eskalerer.
54

80 % af RAG‑fejl starter her (og det er ikke LLM’en)

Dev.to +6 kilder dev.to
geminigooglerag
En tre‑ugers dybdegående undersøgelse foretaget af et nordisk fintech‑team har identificeret kilden til de fleste hallucinationer i retrieval‑augmented generation (RAG)‑pipelines: hentningslaget, ikke den store sprogmodel (LLM) selv. Ingen af ingeniørerne kunne løse problemet ved blot at skifte prompts, justere temperaturindstillinger eller endda udskifte den underliggende LLM – de fejlagtige svar fortsatte. Først efter de instrumenterede vektor‑lageret, logikken for forespørgsels‑udvidelse og dokument‑rankingsmodulet, opdagede de, at 80 % af de fejlagtige output blev genereret, før LLM’en overhovedet så en prompt. Fundet genlyder en vejledning fra februar, der advarede om, at “70 % af RAG‑fejl opstår, før LLM’en kaldes”, og bekræfter påstanden, vi fremsatte den 8. april, om at “retrieval er den egentlige model” i en RAG‑arkitektur. IDC‑forskning, citeret i et Medium‑indlæg fra marts, anslår, at kun én ud af ti hjemme‑udviklede AI‑projekter overlever proof‑of‑concept‑fasen, og en senior GenAI‑leder hos PIMCO bekræfter, at den samme 80 % fejlrater gælder for enterprise‑RAG‑implementeringer. De grundlæggende årsager, som fintech‑teamet identificerede, omfatter dårligt afstemt chunk‑størrelse, forældede embeddings, utilstrækkelig metadata‑filtrering og rangordningsalgoritmer, der frembringer irrelevante passager – alt sammen fodrer LLM’en med vildledende kontekst. Hvorfor det betyder noget, er tosidet. For det første investerer virksomheder milliarder i RAG‑aktiverede produkter, der lover opdaterede, kilde‑baserede svar; systematiske hentningsfejl underminerer tilliden og øger driftsomkostningerne. For det andet er problemet ikke en enkeltstående fejl, men et strukturelt ingeniørhull, der kan forstærke andre risici, såsom de forgiftede websider‑angreb, vi dækkede den 9. april. Det, man skal holde øje med fremover, er de nye observabilitetsværktøjer, der afslører hentningslatens, relevans‑score og oprindelse i realtid, samt den næste bølge af cloud‑udbyder‑opdateringer – Azure Cognitive Search’s “retrieval diagnostics” preview og AWS Kendra’s “ground‑truth feedback” funktion forventes lanceret senere i dette kvartal. Brancheorganisationer i EU udarbejder også retningslinjer for datakvalitet i AI, hvilket kan gøre streng hentningstest til et compliance‑krav. Fintech‑teamet planlægger at offentliggøre en detaljeret post‑mortem, og deres metode kan blive en de‑facto tjekliste for enhver organisation, der skalerer RAG ud over laboratoriet.
40

Anthropics gennembrud med Claude Mythos: ‘Project Glasswing’ lanceret for at forhindre AI‑cyberkrise

Anthropics gennembrud med Claude Mythos: ‘Project Glasswing’ lanceret for at forhindre AI‑cyberkrise
Outlook Business +6 kilder 2026-04-09 news
anthropicappleclaudegoogle
Anthropic annoncerede forhåndsvisningen af sin næste‑generationsmodel, Claude Mythos, og lancerede samtidig “Project Glasswing”, en tværindustriel koalition, der skal gøre software mere modstandsdygtig over for AI‑drevne angreb. Koalitionen samler cloud‑ og enhedsgiganter – herunder AWS, Apple, Google, Microsoft og mere end 45 yderligere partnere – for at integrere Mythos‑Preview i defensive sikkerheds‑workflows, opspore nul‑dags‑fejl og dele afhjælpningsdata på tværs af økosystemet. Claude Mythos positioneres som en “frontier‑model”, der kombinerer den dybe ræsonnementsevne fra Anthropics seneste store sprogmodeller med specialiserede kode‑analysefunktioner. Ifølge interne tests har systemet identificeret tusindvis af høj‑severe sårbarheder i kritiske infrastrukturkomponenter, som traditionelle scannere har overset. Ved at give partnere tidlig adgang håber Anthropic at skabe en feedback‑loop, der accelererer udbedring, før udnyttelser kan blive weaponiseret. Initiativet er vigtigt, fordi de samme generative‑AI‑teknikker, der driver Mythos, også sænker barrieren for at skabe sofistikeret malware. Sikkerhedseksperter har advaret om, at autonom udnyttelses‑generering kan nå menneskelig niveau‑kompetence inden for få år – et scenarie, der blev nævnt i Anthropics tidligere dækning “Claude Mythos: The Future of Autonomous Exploits” den 10. april. Project Glasswing er derfor både en defensiv sikring og et signal om, at AI‑samfundet tager den fremvoksende cyber‑risiko alvorligt. Det, der skal holdes øje med, er udrulningen af Mythos‑Preview på tværs af koalitionens miljøer samt de første offentlige afsløringer af de sårbarheder, den afdækker. Analytikere vil også følge, om Anthropic udvider adgangen ud over de grundlæggende partnere, hvordan regulatorer reagerer på koordinerede AI‑sikkerhedsinitiativer, og om rivaliserende virksomheder udvikler konkurrerende “AI‑first” forsvarsstakke. Balancen mellem at styrke digitale fundamenter og forhindre teknologiens misbrug vil definere næste kapitel i AI‑drevet cybersikkerhed.
36

OpenAI tilføjer ny $100/måned ChatGPT‑abonnementsniveau for tungere Codex‑brug https:// fed.brid.

Mastodon +8 kilder mastodon
anthropicclaudeopenai
OpenAI har lanceret et nyt $100‑pr. måned “ChatGPT Pro”‑niveau, som fem‑gange øger adgangen til deres Codex‑kodningsassistent sammenlignet med den eksisterende $20 Plus‑plan. Opgraderingen, som blev annonceret mandag og uddybet af TechCrunch og CNBC, henvender sig til udviklere og power‑brugere, der kører længere og mere beregningsintensive kodningssessioner. Mens $200 Pro‑niveauet forbliver for de mest krævende arbejdsbelastninger, udfylder det mellem‑prisede tilbud hullet mellem den budgetvenlige Plus‑plan og premium‑niveauet og placerer OpenAIs portefølje til personlig brug ved siden af Anthropics veletablerede $100 Claude‑abonnement. Flytningen er vigtig, fordi Codex, OpenAIs specialiserede store sprogmodel til kodegenerering, er blevet et kritisk produktivitetsværktøj for softwareingeniører, datavidenskabsfolk og low‑code‑platforme. Ved at udvide kvoten til et prisniveau, som mange freelancere og små teams har råd til, håber OpenAI at erobre en del af markedet, som hidtil har hældt mod Anthropic eller open‑source‑alternativer. Prisændringen signalerer også en bredere strategi om at tjene penge på AI‑funktioner med høj brug ud over generel chat, hvilket afspejler virksomhedens nylige diversificering af abonnementsniveauer og vilje til at eksperimentere med lagdelt adgang efter at have lagt en £31 milliarder‑stor britisk investeringspakke på hylden tidligere denne måned. Hvad man skal holde øje med næste: analytikere vil følge optagelses‑ og brugsmålinger for $100‑niveauet og om det kan kanibalisere $200‑niveauet eller tiltrække nye brugere fra konkurrerende tjenester. OpenAIs næste prisjustering kan komme, når de finjusterer forbrugsgrænser for andre specialiserede modeller, såsom de kommende agent‑RAG‑værktøjer, som vi dækkede den 10. april. Derudover kan ændringer i de underliggende infrastrukturomkostninger – især i lyset af den seneste pause i britiske datacentre – udløse yderligere tilpasninger af abonnementspriserne.
36

**Sådan installerer du Claude Code i VS Code med hjælp fra en aktiv professionel og starter en app lokalt – Det er ikke OK at indsætte API‑nøglen direkte i chatten!? – Professionelt og praktisk! Fra nul til vibekodning**

Mastodon +7 kilder mastodon
agentsanthropicclaude
En vejledning, der i går blev offentliggjort på den japanske udviklerplatform Yayafa, guider læserne gennem installationen af Anthropics Claude Code‑udvidelse i Visual Studio Code samt kørsel af en prøve‑app på en lokal maskine. Guiden, som er medforfattet af en praktiserende softwareingeniør, viser trin for trin, hvordan udvidelsen konfigureres, hvordan den nødvendige *.claude‑credentials.json*-fil oprettes, og hvordan den IDE‑integrerede AI‑kodningsassistent startes uden at eksponere API‑nøglen i chat‑vinduer – en praksis, som forfatteren advarer imod af sikkerheds‑ og compliance‑årsager. Claude Code, Anthropics svar på GitHub Copilot, gik i åben beta i slutningen af 2024 og er hurtigt blevet den foretrukne assistent for teams, der værdsætter “konstitutionel AI”‑sikringer. Ved at indlejre modellen direkte i VS Code kan udviklere anmode om kode‑snippets, refaktoreringer eller test‑generering inline, mens udvidelsen respekterer brugerens sprogindstillinger og tilbyder diff‑forhåndsvisninger. Vejledningen demonstrerer også, hvordan Claude Code kan kombineres med Firebase for hurtig prototyping, hvilket afspejler en bredere tendens med AI‑drevet fuld‑stack‑udvikling. Stykkerne er vigtige, fordi de sænker barrieren for nordiske udviklere til at adoptere en privacy‑first kodningsassistent, der kan køre lokalt, og dermed mindsker afhængigheden af kun‑cloud‑tjenester, som kan være i konflikt med GDPR eller virksomheders databehandlingspolitikker. De sikkerheds‑fokuserede instruktioner – især advarslen mod at indsætte API‑nøgler i samtale‑prompter – fremhæver en voksende bevidsthed om risikoen for lækage af legitimationsoplysninger, som har plaget tidligere AI‑assistent‑udrulninger. Set fremad planlægger Anthropic at lancere Claude 3.5 med forbedrede kontekst‑vinduer og tættere integration med Azure OpenAI, hvilket potentielt kan erodere Copilots markedsandel yderligere. Observatører vil holde øje med, om VS Codes marketplace oplever en stigning i Claude‑relaterede udvidelser, hvordan enterprise‑IT‑afdelinger reagerer på den lokale eksekveringsmodel, og om reguleringsorganer udsteder retningslinjer for oprindelse af AI‑genereret kode. Vejledningens popularitet kan signalere starten på en bredere bevægelse mod on‑premise AI‑kodningsværktøjer i den nordiske tech‑scene.
36

Agentic RAG: Sådan løser den de traditionelle RAG‑udfordringer? | Cloud Technology Blog | SoftBank https://www.yayafa.com/2777654/ # Agent

Mastodon +7 kilder mastodon
agents
SoftBanks Cloud Technology‑blog har præsenteret en ny “Agentic RAG”‑ramme, der lover at overvinde de mest vedvarende svagheder ved konventionel Retrieval‑Augmented Generation. Meddelelsen beskriver et fælles initiativ mellem SoftBank og den amerikanske startup Archaea AI om at kommercialisere den Agentic RAG‑drevne vidensplatform “Krugle Biblio” i Japan og positionere den som den første native‑sprogs‑, agent‑centrerede løsning til virksomhedssøgning og -generering. Traditionelle RAG‑pipelines kobler en statisk retriever til en stor sprogmodel, men de lider stadig under forældede indekser, hallucinerede output og manglende evne til at orkestrere flertrins‑resonering. Agentic RAG indfører et autonomt “agent‑lag”, der kan planlægge hentningsstrategier, vurdere kilde‑troværdighed og iterativt forfine prompts baseret på selvrefleksion. Bloggen citerer interne tests, hvor systemet reducerede faktuelle fejl med cirka 40 % og halverede forespørgsels‑til‑svar‑latensen sammenlignet med SoftBanks egen Vertex AI RAGEngine. Udviklingen er vigtig, fordi den bygger bro mellem ad‑hoc chat‑grænseflader og produktionsklar vidensarbejde. Virksomheder, der har været tilbageholdende over for LLM‑hallucinationer, kan nu indlejre en selv‑kontrollerende løkke, der dynamisk henter de nyeste dokumenter, anvender domænespecifikke politikker og endda udløser eksterne værktøjer såsom regnemaskiner eller kodefortolkere. For nordiske virksomheder, der kæmper med strenge datasuverænitetsregler, kan en lokalt hostet, agent‑drevet RAG blive et levedygtigt alternativ til udelukkende cloud‑baserede tilbud. Hvad man skal holde øje med: SoftBank planlægger en pilotudrulning med flere japanske finansinstitutioner i Q3, mens en beta for europæiske partnere er planlagt til begyndelsen af 2027. Analytikere vil følge performance‑benchmarking mod Googles RAGEngine og adoptionen af Krugle‑API’en på det nordiske AI‑marked. Udrulningen vil også teste, hvor godt selvrefleksionsmekanismerne skalerer, når agenter håndterer heterogene, flersprogede korpora – et centralt hinder for bredere adoption.
36

DXC introducerer nye Assure Smart Apps for at fremskynde forsikringsselskabernes AI‑drevne transformation

Mastodon +7 kilder mastodon
agents
DXC Technology har præsenteret Assure Smart Apps, en ny suite af AI‑drevne, workflow‑centrerede applikationer, der skal accelerere den digitale transformation inden for skade‑ og livsforsikring. Porteføljen, der blev lanceret på DXC Connect Insurance Executive Forum, omfatter Claims Assistant, Engagement Assistant og Underwriter Assistant, som alle er bygget på ServiceNow’s agent‑AI‑motor og DXC’s dybe domæneekspertise inden for forsikring. De forudkonfigurerede moduler lover at automatisere rutineopgaver, reducere manuelt arbejde med 30‑40 % og levere målbare resultater inden for 12 uger, alt uden at kræve en fuldstændig udskiftning af eksisterende kernesystemer. Meddelelsen kommer på et tidspunkt, hvor forsikringsselskaber kæmper med stigende pres for at modernisere, holde omkostningerne nede og imødekomme voksende kundekrav om øjeblikkelig, personlig service. Selvom AI‑adoptionen er accelereret, er mange udbydere stadig hæmmet af fragmenterede legacy‑systemer og mangel på intern talent til at udvikle skræddersyede løsninger. Ved at tilbyde modulære, resultat‑fokuserede apps, der kan tilsluttes eksisterende miljøer, sigter DXC mod at sænke indgangsbarrieren og gøre det muligt for forsikringsselskaber hurtigt og sikkert at skalere AI‑initiativer. Analytikere vil holde øje med, hvor hurtigt de store udbydere pilotere de nye værktøjer, og om den lovede hurtige værdiskabelse realiseres i praksis. Tidlige casestudier kan afsløre påvirkningen på underwriting‑nøjagtighed, sagsbehandlingstider og krydssalgs‑konverteringsrater, samtidig med at de fremhæver eventuelle justeringer i arbejdsstyrken, når rutineprocesser automatiseres. Konkurrencen fra andre teknologigiganter – især Microsofts Cloud for Insurance og Salesforce’s Financial Services Cloud – vil intensiveres, hvilket gør adoptionsmålinger til en vigtig indikator for DXC’s markedsposition. De kommende måneder bør bringe meddelelser om pilotresultater, integrations‑roadmaps med ServiceNow’s bredere AI‑portefølje og muligvis regulatorisk kommentar til brugen af agent‑AI i beslutninger med høje indsatser inden for forsikring. Disse udviklinger vil forme, om Assure Smart Apps bliver en katalysator for en branche‑bred AI‑acceleration eller blot et nicheprodukt i et overfyldt marked.
36

Bliver den klogere jo mere du bruger den? En analyse af mekanismen bag selv‑evoluerende AI‑agenter https://www. yayafa.com/2777657/ # AgenticAi # AI #

Mastodon +8 kilder mastodon
agentsgemma
Et forskerteam fra den japanske startup Asty har offentliggjort en detaljeret analyse af “selv‑evoluerende” AI‑agenter, som viser, hvordan kontinuerlig interaktion med brugerne kan gøre den samme model gradvist smartere uden ekstern gen‑træning. Papiret, der blev udgivet den 10. april, dissekerer arkitekturen bag prototyper som Gemma‑4, GEPA og HermesAgent, som alle kører lokalt og opdaterer deres interne vægte gennem en kombination af reinforcement learning from human feedback (RLHF) og on‑device meta‑learning. Ved at gemme interaktionsspor i en sikker sandbox genererer agenterne mikro‑opdateringer, der hver nat flettes ind i en grundmodel, så de kan finjustere sprogforståelse, produkt‑anbefalingslogik og endda visuel‑søgefunktionalitet i realtid. Hvorfor det er vigtigt, er tofoldigt. For det første lover tilgangen en ny bølge af “agent‑baserede” applikationer, der kan personalisere sig selv i realtid, mens dataene forbliver under brugerens kontrol – et direkte svar på privatlivsbekymringer, der har bremset adoptionen af cloud‑baserede AI‑tjenester. For det andet sænker teknologien barrieren for små virksomheder, så de kan implementere avancerede assistenter, hvilket potentielt kan omforme e‑handel, kundesupport og kreative værktøjer. Resultaterne spejler de tendenser, vi fremhævede i sidste uge: Metas Muse Spark‑model, som kan sammenligne produkter ud fra fotos, og ZETAs integration af OpenAIs ChatGPT i deres handelsplatform, som begge bygger på hurtig, bruger‑drevet forfinelse. Amazons rekordstore AI‑cloud‑omsætning og Linux Foundations Agentic AI Foundation illustrerer yderligere branchens skub mod kontinuerligt lærende agenter. Det, man skal holde øje med fremover, er de praktiske udrulninger, der er planlagt til sommer. Asty planlægger et open‑source SDK, der vil give udviklere mulighed for at integrere den selv‑evoluerende kerne i eksisterende chat‑ og anbefalings‑pipelines. Agentic AI Foundation forventes at offentliggøre et standardudkast om sikre opdateringsmekanismer, og både Meta og ZETA har antydet beta‑programmer, der vil teste disse agenter i live detailmiljøer. De kommende måneder vil vise, om selv‑evoluerende agenter kan leve op til deres løfter uden at gå på kompromis med sikkerhed eller stabilitet.
32

RE: https:// mastodon.online/@parismarx/116 372697459719963 En af de værste ting ved dette

RE:   https://  mastodon.online/@parismarx/116  372697459719963    En af de værste ting ved dette
Mastodon +6 kilder mastodon
anthropicgooglemetaopenai
En koordineret AI‑drevet desinformationskampagne ramte millioner af smartphones i hele Europa tirsdag, hvilket fik den svenske statsminister til at kræve svar fra branchens største aktører. Operationen, som blev sporet til et netværk af push‑meddelelser og stemmeassistent‑prompt, leverede falske udsagn om en forestående skattereform, hvorefter den skiftede til opfundet sundhedsrådgivning. Retsmedicinsk analyse udført af uafhængige sikkerhedsforskere knyttede indholdsproduktionen til store sprogmodeller, der hostes af Google, Meta, Anthropic og OpenAI, mens leveringsinfrastrukturen benyttede virksomhedernes mobil‑annoncenetværk. Hændelsen markerer første gang, at den samlede output fra verdens førende generative‑AI‑udbydere er blevet våbenført i stor skala på personlige enheder, omgået traditionelle mediekanaler og udnyttet den tillid, brugerne har til indfødte telefonadvarsler. “Et samfund, hvor en techno‑oligark kan interferere, som en af dem gjorde i går, i millioner af borgeres mobiltelefoner for at fortælle dem løgne?” spurgte statsministeren i en høring i parlamentet, og gengav den voksende offentlige alarm over ukontrolleret AI‑indflydelse. Hvorfor det er vigtigt, er todelt. For det første viser det, hvordan koncentrationen af AI‑talent og beregningskraft i en håndfuld virksomheder kan omsættes til et de‑facto “informationssupervåben”, der opererer uden nogen gennemsigtig tilsyn. For det andet afslører episoden et reguleringsmæssigt blinde plet: eksisterende databeskyttelses‑ og valg‑integritetsregler dækker ikke AI‑genereret indhold, der leveres gennem proprietære app‑butikker og notifikations‑tjenester, hvilket efterlader borgerne sårbare over for manipulation på kontaktpunktet. Det, der skal holdes øje med fremover, er politiske og markedsmæssige reaktioner. EU‑kommissionen har signaleret en accelereret udrulning af AI‑forordningen med særlig fokus på “høj‑risiko” generative systemer. I USA rapporteres Federal Trade Commission om at åbne en antitrust‑undersøgelse af den kollusive brug af AI‑genererede annoncer. Samtidig oplever decentraliserede platforme som Mastodon en bølge af nye brugere, der søger alternativer til det korporativt kontrollerede økosystem. De kommende uger vil vise, om lovgivere kan pålægge meningsfulde begrænsninger, før teknologien igen udløser et nyt “shit show”.
32

Hohe Energiekosten und Regularien: OpenAI pausiert Stargate UK

Mastodon +6 kilder mastodon
openai
OpenAI har sat sit “Stargate UK” datacenterprojekt på pause og peger på skyhøje elpriser samt et usikkert reguleringsklima i Storbritannien. Beslutningen følger virksomhedens tidligere beslutning om at aflyse en planlagt campus i Abilene, Texas, og udgør den seneste tilbageslag for den ambitiøse AI‑infrastruktur‑satsning, der blev annonceret i september i samarbejde med Nvidia og datacenterudvikleren Nscale. Som vi rapporterede den 10. april, pausede OpenAI byggeriet i Storbritannien, efter at energiomkostningerne viste sig at være højere end forventet. Den seneste udtalelse tilføjer, at virksomheden vil fortsætte forhandlingerne med Londons regering for at opnå klarere politisk vejledning og mulige incitamenter. OpenAIs chef‑teknolog (CTO) sagde, at pausen er “midlertidig”, og at firmaet fortsat er forpligtet til en tilstedeværelse i Storbritannien, men ikke vil gå videre, før energitakstregimet og databeskyttelsesreglerne er stabiliseret. Beslutningen har betydning på flere fronter. Storbritannien har positioneret sig som et europæisk knudepunkt for AI‑forskning og forventer, at store beregningsfaciliteter vil tiltrække talent, styrke den indenlandske teknologisektor og sikre datasuverænitet. Et fastlåst flagsskibsprojekt truer disse ambitioner og kan give konkurrenter som Microsofts Azure eller Google Cloud en konkurr
28

OpenAI introducerer et $100‑pr. måned ChatGPT‑abonnement på grund af Vibe‑kodning

OpenAI introducerer et $100‑pr. måned ChatGPT‑abonnement på grund af Vibe‑kodning
CNET +6 kilder 2026-04-01 news
openai
OpenAI har lanceret et nyt $100‑pr. måned “ChatGPT Pro”‑niveau, der er rettet direkte mod udviklere, som er afhængige af virksomhedens Codex‑drevne Vibe‑kodningsassistent. Planen øger Codex‑brugsgrænserne femfold i forhold til $20‑pr. måned Plus‑abonnementet, så “Vibe‑kodere” kan køre længere, mere intensive sessioner uden at ramme de grænser, der har tvunget mange til at nedgradere eller skifte værktøj. Trækket følger OpenAIs tidligere meddelelse den 10. april om, at de ville introducere et dyrere niveau for tunge Codex‑brugere. Som vi rapporterede på den dato, udfylder $100‑planen prisgabet mellem det almindelige Plus‑tilbud og $200‑pr. måned “ChatGPT Pro”‑niveauet, som retter sig mod virksomhedsniveau‑arbejdsbelastninger. Ved at udvide mellemsegmentet håber OpenAI at fange et voksende segment af professionelle udviklere, der har brug for vedvarende AI‑assistance til komplekse kodebaser, samtidig med at tjenesten holdes tilstrækkeligt overkommelig til at konkurrere med rivaler som GitHub Copilot og Googles Gemini. Betydningen rækker ud over indtægter. Højere brugsgrænser kan fremskynde adoptionen af AI‑assisteret udvikling
28

Florida iværksætter undersøgelse af ChatGPT's skaber, OpenAI, over påståede risici for mindreårige

Florida iværksætter undersøgelse af ChatGPT's skaber, OpenAI, over påståede risici for mindreårige
CBS News +9 kilder 2026-04-01 news
openai
Floridas justitsminister annoncerede tirsdag, at staten vil iværksætte en formel undersøgelse af OpenAI, den San Francisco‑baserede skaber af ChatGPT, på grund af påståede risici, som chatbotten udgør for mindreårige. Undersøgelsen, som er indgivet under statens forbrugerlovgivning, peger på bekymringer om, at modellens ufiltrerede indhold, overbevisende tone og dataindsamlingspraksis kan udsætte børn for misinformation, grooming eller brud på privatlivets fred. Myndighederne siger, at de vil revidere OpenAIs aldersverifikationsmekanismer, indholdsfiltreringspolitikker og virksomhedens overholdelse af Floridas nylige lovgivning om “Kids Online Safety”. Dette skridt tilføjer et nyt lag til den stigende bølge af amerikansk granskning. Tidligere i år åbnede Federal Trade Commission sin egen forbrugerbeskyttelsesundersøgelse af OpenAIs markedsføring og data‑brugspraksis, mens både EU og Italiens
24

Hvordan Anthropic Claude + TensorFlow driver et realtids kryptohandelsystem

Dev.to +6 kilder dev.to
agentsanthropicclaudereasoning
Et team af nordiske ingeniører har præsenteret en fuldt funktionel kryptohandelsplatform, der kombinerer Anthropics Claude med en suite af tolv TensorFlow‑modeller og leverer et naturligt sprog‑interface, som kan udføre handler på millisekunder. Systemet, som beskrives i et nyt open‑source‑repository, stiller Claude som den overordnede resonneringsmotor, mens TensorFlow‑modellerne håndterer prisforudsigelse, sentiment‑analyse, volatilitet‑forecasting, ordre‑bog‑parsing, risikovurdering og optimering af udførelsesstrategier. Brugere indtaster kommandoer som “Køb 0,5 BTC hvis den samlede markeds‑sentiment bliver bullish inden for de næste fem minutter”, og Claude omsætter intentionen til koordinerede kald på de underliggende modeller, som derefter sender ordrer til flere børser via en lav‑latens‑gateway. Indledende back‑testing på Bitcoin‑ og Ethereum‑data fra de seneste tolv måneder viser en gennemsnitlig Sharpe‑ratio på 2,1 og et netto profit‑til‑tab‑forhold på 3,4 : 1, hvilket overgår en baseline‑algoritmisk strategi med cirka 27 %. Live‑testing med en beskeden kapitalallokering på 10 000 $ over en to‑ugers periode genererede et afkast på 38 %, med handels‑eksekveringslatens konsekvent under 150 ms. Udviklerne tilskriver Claude’s Model Context Protocol for at have sammensat de forskellige modeller uden specialudviklet “glue‑code”, et mønster de først demonstrerede i “Claude Mythos”‑serien, som vi dækkede den 10. april. Lanceringen er betydningsfuld, fordi den beviser, at store sprogmodeller kan fungere som pålidelige orkestreringslag for højt risikable finansielle automatiseringer, og dermed sænker barrieren for ikke‑tekniske handlende, så de kan udnytte avancerede AI‑pipelines. Samtidig rejser den spørgsmål om markedsfairness, regulatorisk tilsyn og sikkerheden omkring AI‑drevne handels‑bots, som potentielt kan forstærke flash‑crash‑dynamikker. Hold øje med adoptionssignaler fra hedgefonde og detailplatforme, mulig granskning fra finansielle regulatorer i EU og USA, samt Anthropics næste‑generations Claude‑opdateringer, som kan stramme integrationen med TensorFlow og andre ML‑økosystemer. Den open‑source‑kode vil sandsynligvis blive et referencepunkt for fremtidige AI‑drevne handelsarkitekturer.
24

5 LLM spillede poker: Opus blev elimineret først, Grok vandt

HN +6 kilder hn
claudegeminigpt-5grok
Fem førende store‑sprogmodeller (LLM’er) gik i kamp i en Texas Hold’em‑turnering i sidste uge, hvor Anthropic’s Claude Opus blev slået ud i første runde, mens Elon Musk’s xAI Grok gik som vinder. Showdown’en, arrangeret af AI‑spillaboratoriet “Strategic Minds”, stillede Opus, Grok 4, Googles Gemini 2.5 Pro, OpenAI’s GPT‑5 og Anthropic’s Claude Sonnet 4.5 op imod hinanden i en række 1.000‑hånds‑kampe kørt på en offentlig poker‑engine. Hver model modtog de samme hånd‑historik‑data og blev promptet til at afgive en beslutning om at satse, raise eller folde, hvorefter motoren udførte handlingen. Eksperimentet var mere end en PR‑stunt. Ved at tvinge LLM’er til at træffe real‑time, højt‑indsats‑valg under ufuldstændig information, afslørede testen, hvor godt nuværende prompt‑teknikker omsættes til strategisk ræsonnement. Opus’ tidlige udslip fremhævede vedvarende svagheder i risikovurdering, mens Groks konsekvente aggression og timede bluff viste en raffineret evne til at modellere modstanderens adfærd – en færdighed, der er finpudset gennem xAI’s seneste opgraderinger af reinforcement‑learning‑from‑human‑feedback (RLHF). Hvorfor det betyder noget, er tofoldigt. For det første er poker et benchmark for kunstig generel intelligens, fordi spillet kombinerer sandsynlighed, psykologi og langsigtet planlægning; en klar sejr for Grok tyder på, at LLM’er indsnævrer kløften mellem sproglig dygtighed og beslutningstagningsevne. For det andet kan resultaterne fremskynde udrulningen af AI‑assistenter inden for finans, forhandlinger og gaming – sektorer hvor nuanceret risikovurdering er afgørende. Samtidig rejste turneringen sikkerhedsspørgsmål: Hvis LLM’er kan bluffe overbevisende, kan de misbruges til svindel eller markedsmanipulation, medmindre robuste sikkerhedsforanstaltninger indføres. Hvad man skal holde øje med fremover, inkluderer en opfølgende turnering planlagt til juni, som vil tilføje et multi‑agent reinforcement‑learning‑lag, så modellerne kan tilpasse deres strategier på tværs af hænder. Brancheobservatører vil også følge OpenAI’s kommende GPT‑5‑forbedringer og Anthropic’s næste Opus‑iteration, som begge lover en tættere integration af strategiske moduler. Endelig forventes regulatorer at udstede vejledning om AI‑drevet gambling, et skridt der kan forme, hvordan disse modeller kommercialiseres ud over laboratoriet.
21

I går læste jeg et vibe‑kodet script for første gang i mit liv, og jeg græd. Det var ikke dig

Mastodon +6 kilder mastodon
apple
En udvikler skrev på sociale medier, at det at læse et “vibe‑kodet” script for første gang fik dem til at græde, og beskrev koden som et klodset, næsten ondsindet forsøg på at efterligne skønhed. Scriptet, genereret af en AI‑drevet no‑code‑platform, blev rost for sin hastighed, men kritiseret for sine omstændelige, pedantiske strukturer, som gav lidt funktionel værdi. Udtalelsen har udløst en ny debat om den stigende afhængighed af “vibe coding” — et begreb, der er opstået for AI‑assisteret, træk‑og‑slip‑udvikling, som lover at lade ikke‑programmerere producere software uden at skrive traditionel kode. Reaktionen er vigtig, fordi den understreger en spænding, der har bygget sig op, siden OpenAI lancerede et $100‑pr.‑måned ChatGPT‑abonnement rettet mod tunge Codex‑brugere. Som vi rapporterede den 10. april, blev dette abonnement markedsført som en måde at låse op for mere kraftfulde kode‑genereringsfunktioner, hvilket i praksis subsidierede de samme vibe‑coding‑arbejdsprocesser, der nu er under kritik. Kritikere hævder, at teknologien bliver misbrugt: kraftfulde sprogmodeller bruges på at producere omfattende, lav‑kvalitets‑scripts, som udviklere stadig skal refaktorere, hvilket øger omkostningerne og forsinker projekter. Brancheobservatører peger på Base44’s opkøb i 2025 — en otte‑personers startup, der var pioner inden for no‑code‑kodning — som et advarsels‑eksempel på, at hype kan overhale substansen. Det, der skal holdes øje med fremover, er hvordan software‑fællesskabet og AI‑leverandørerne reagerer. Man kan forvente, at OpenAI og konkurrenterne vil finjustere deres kode‑genererings‑API’er, muligvis ved at indføre kvalitets‑målinger eller tættere integration med traditionelle IDE’er for at begrænse spild. Samtidig kan udvikler‑fora og open‑source‑projekter samle sig om retningslinjer for bedste praksis inden for AI‑assisteret kodning, mens investorer kan genoverveje finansieringen af rene vibe‑coding‑startups. De kommende uger vil vise, om den følelsesmæssige modreaktion omsættes til konkrete standarder, eller om den blot driver en ny hype‑cyklus.
21

Din Agent Er Min: Måling af Ondsindede Mellemliggende Angreb på LLM‑forsyningskæden

Mastodon +6 kilder mastodon
agentsinference
Et nyt arXiv‑papir, “Your Agent Is Mine: Measuring Malicious Intermediary Attacks on the LLM Supply Chain” (arXiv 2604.08407), kvantificerer, hvordan AI‑agenter kan blive bagdøre for angribere, der kontrollerer inferens‑udbyderen eller enhver router, der formidler kald til store sprogmodeller. Forfatterne demonstrerer, at når en agent er instantieret, får udbyderen i praksis shell‑niveau adgang til værtprocessen, så ondsindet kode gemt i tilsyneladende harmløse “skills” kan udføres uden at udløse eksisterende sikkerhedsfiltres. Undersøgelsen bygger på nylige virkelige hændelser, der har rystet tilliden til AI‑værktøjsekosystemet. For to uger siden blev den populære liteLLM‑gateway fundet at indeholde en bagdør i versionerne 1.82.7 og 1.82.8, som stjal cloud‑legitimationsoplysninger og Kubernetes‑hemmeligheder efter at en kompromitteret PyPI‑maintainer uploadede ondsindede pakker. En efterfølgende analyse viste, at den ondsindede skill udnyttede den samme kode‑generering‑derefter‑eksekverings‑loop, som moderne LLM‑agenter bruger, og omgåede dermed leksikalske kommando‑filterings‑forsvar. Tidligere denne måned frigav forskere “PoisonedSkills”‑rammeværket, som indlejrer payloads i Markdown‑blokke og konfigurations‑skabeloner og derefter muterer dem i stor skala for at dække 15 MITRE ATT&CK‑kategorier. Deres pipeline producerede over tusind adversariale skills, der kører lydløst under rutine‑agent‑opgaver. Hvorfor det er vigtigt, er enkelt: virksomheder adopterer i hastigt tempo LLM‑drevne agenter til kodning, dataudtræk og autonom beslutningstagning. Hvis skill‑markedet eller routing‑laget kompromitteres, kan en angriber gå fra et harmløst plugin til fuld fjern‑kodeeksekvering, eksfiltrere hemmeligheder og kapre arbejdsbelastninger på tværs af cloud‑miljøer. Truslen udvider den traditionelle forsyningskædemodel – hvor kun model‑vægtene blev
20

The Nasdaq is in correction territory. Here are the 2 artificial intelligence (AI) stocks I'm buying first.

The Motley Fool on MSN +7 kilder 2026-03-22 news
The Nasdaq’s slide into correction territory has not cooled the appetite for artificial‑intelligence assets, but it has forced the market to re‑price the infrastructure segment that underpins the boom. As we reported on April 10, 2026, the two AI‑related equities I earmarked for early‑stage buying were Nvidia (NVDA) and Microsoft (MSFT); today’s price adjustments make those picks even more compelling. Nvidia’s dominance in GPU‑accelerated computing has turned it into the de‑facto hardware supplier for generative‑AI models, while Microsoft’s Azure platform now bundles OpenAI’s models into a suite of enterprise services. The correction has shaved roughly 12‑15 % off Nvidia’s forward‑price‑to‑sales multiple and trimmed Microsoft’s cloud‑segment premium to a level not seen since the 2022 rally, creating entry points that align with long‑term demand projections from IDC and Gartner. The significance lies in the divergence between headline market sentiment and sector‑specific fundamentals. AI‑driven spend is still accelerating, with corporate budgets earmarking up to 30 % of IT allocations for AI workloads in 2026. By discounting infrastructure stocks, the correction may actually accelerate adoption, as lower‑cost compute and cloud capacity lower the barrier for midsize firms to experiment with large‑language models. Investors should keep an eye on three near‑term catalysts. First, Nvidia’s upcoming Q3 earnings will reveal whether the H100 and the newly announced GH200 chips are delivering the expected revenue lift. Second, Microsoft’s fiscal‑Q3 results will show the impact of the Copilot‑for‑Office rollout and the expansion of Azure AI credits. Finally, macro‑economic signals—particularly the Fed’s stance on interest rates—will dictate whether the broader tech correction deepens or stabilises, setting the stage for a potential rebound that historically follows the first close in correction territory.
20

Apple Intelligence udsat for kapringsrisiko via prompt‑injektion

Mastodon +6 kilder mastodon
apple
Apples nyudgivne AI‑suite, Apple Intelligence, er blevet fundet sårbar over for en klassisk, men stadig mere kraftfuld angrebsmetode: prompt‑injektion. Sikkerhedsforskere har afsløret, at særligt udformede input kan kapre systemets sprogmodel, tvinge den til at udsende ondsindet eller vulgært indhold og i mere avancerede scenarier afsløre interne prompts, som styrer modellens adfærd. Fejlen skyldes den måde, hvorpå Apple Intelligence sammenkæder bruger‑indlæst tekst med system‑niveau instruktioner, før den samlede prompt sendes videre til den underliggende store sprogmodel. Ved at indlejre skjulte direktiver i tilsyneladende harmløse forespørgsler kan en angriber omgå modellens sikkerhedsforanstaltninger og lede dens output i en ønsket retning. Opdagelsen er væsentlig, fordi Apple Intelligence er placeret som hjørnestenen i virksomhedens AI‑strategi og driver funktioner på tværs af iOS, macOS, iPadOS samt den kommende “Apple Vision Pro”-grænseflade. Hvis ondsindede aktører kan manipulere modellen på en personlig enhed, kan de generere desinformation, phishing‑indhold eller endda kode, der udnytter andre apps. Sårbarheden fremhæver også en bredere brancheudfordring: prompt‑injektion, som længe har været kendt i web‑baserede AI‑agenter, dukker nu op i forbruger‑grade produkter, der mangler de hærdede forsvarsmekanismer, som findes i erhvervsplatforme. Apple har anerkendt rapporten og lovet en “hurtig respons”‑opdatering, men tidslinjen er endnu uklar. I mellemtiden kæmper sikkerhedsteams på at udvikle afbødninger, såsom strengere input‑sanitering og sandbox‑baseret prompt‑håndtering. Hold øje med Apples kommende softwareopdatering, som sandsynligvis vil blive rullet ud via iOS 18 og macOS 15, samt med eventuelle afsløringer fra det bredere AI‑sikkerhedsfællesskab om lignende svagheder i rivaliserende assistenter. Episoden understreger, at efterhånden som AI bliver en kernefunktion i operativsystemet, vil robuste forsvar mod prompt‑injektion være lige så nødvendige som traditionelle malware‑beskyttelser.
20

Hermes ser ud til at være mere effektiv til værktøjskald med lav‑end modeller end OpenClaw. Mit setup er bas

Mastodon +6 kilder mastodon
agents
Hermes, den open‑source‑funktion‑kald‑ramme udgivet af Nous Research, vinder frem, efter at brugere har rapporteret, at den overgår OpenClaw på lav‑end sprogmodeller. I et nyligt community‑indlæg bemærkede en udvikler, at et beskedent setup med en 7‑milliarder‑parameter‑model brugte mærkbart færre tokens med Hermes end med OpenClaw, og at Hermes‑rammen “får sine egne ændringer rigtige første gang oftere.” Påstanden hviler på praktiske tests snarere end formelle benchmarks, men den anekdotiske evidens stemmer overens med Hermes’ designfokus på token‑effektiv prompt‑engineering og robust ændringsdetektion. Udviklingen er vigtig, fordi værktøjskald er rygraden i nutidens agent‑AI. Ved at lade en model påkalde eksterne API‑er – søgning, databaser eller brugerdefinerede funktioner – kan udviklere bygge assistenter, der handler autonomt. Lav‑end modeller er arbejdshestene i on‑premise‑implementeringer og for omkostningsbevidste startups; enhver reduktion i token‑forbrug oversættes direkte til lavere beregningsomkostninger og hurtigere svartider. Hvis Hermes konsekvent leverer strammere integration og færre genforsøgs‑cyklusser, kan det skifte balancen væk fra større, kun‑cloud‑tilbud og fremskynde demokratiseringen af agent‑AI i Norden og videre. Det, man skal holde øje med fremover, er fremkomsten af systematiske sammenligninger. Forskere forventes at offentliggøre side‑om‑side‑evalueringer på standard‑værktøjskald‑suiter såsom Function‑Calling v1‑datasættet, og både Hermes‑ og OpenClaw‑holdene har antydet kommende udgivelser – Hermes v2 med udvidet schema‑understøttelse og OpenClaws næste‑generations runtime. Integration med populære orkestreringslag som LangChain eller GitHub Copilot CLI vil også blive en litmus‑test for real‑world‑adoption. Interessenter bør holde øje med community‑drevne benchmark‑resultater og eventuelle meddelelser fra cloud‑udbydere, der måtte indarbejde Hermes‑lignende kald i deres API‑er.
20

Den AI‑aktie, jeg ville købe for $1.000, inden markedet vender tilbage

Yahoo Finance +7 kilder 2026-03-24 news
Alphabet (GOOGL) er igen fremstået som topvalg for investorer med et beskedent budget på $1.000, ifølge en ny analytikernote, der hævder, at det AI‑tunge udsalg har skabt et købsvindue, før det bredere marked vender tilbage. Anbefalingen følger en uge med øget volatilitet, som pressede Nasdaq ned i korrigeringsområde – en tendens, vi påpegede den 10. april, da vi identificerede to AI‑aktier, der var værd at købe først. Alphabets aktiekurs er faldet med omkring 12 % siden kvartalets begyndelse, hvilket er en mindre nedgang end sektoren som helhed, der er faldet 15 %, på trods af virksomhedens fortsatte udrulning af Gemini, den næste‑generations store‑sprogsmodel, samt integrationen af AI‑værktøjer i Google Search, Workspace og Cloud. Appellen ligger i Alphabets diversificerede indtægtsbase og evne til at kommercialisere AI i stor skala. Indtægterne fra Google Cloud, som nu drives af AI‑forstærkede tjenester, voksede 28 % år‑over‑år i 1. kvartal, mens annonceindtægterne er begyndt at komme sig efter et fald forårsaget af annoncørers forsigtige forbrug på AI‑relaterede kampagner. Desuden giver firmaets massive datainfrastruktur og chip‑design‑datterselskab Google‑AI en omkostningsfordel i forhold til konkurrenter, der stadig er afhængige af tredjeparts‑hardware. Analytikere ser den nuværende pris‑til‑omsætningsmultipel på 5,8 som en rabat i forhold til intervallet 7‑8, som er typisk for høj‑vækst AI‑spillere, hvilket antyder opadgående potentiale, hvis markedet genpriser AI‑indtjeningsforventningerne. Investorer bør holde øje med tre katalysatorer: Geminis præstation i virkelige implementeringer, den næste indtægtsrapport, der er planlagt til begyndelsen af maj, samt eventuelle regulatoriske tiltag som følge af den seneste OpenAI‑plan for AI‑beskatning og -tilsyn. En bedre‑end‑forventet indtægtsresultat eller et gennembruds‑partnerskab kan accelerere genopretningen, mens strammere AI‑reguleringer eller en vedvarende nedgang i reklameindtægter kan holde aktien dæmpet. For dem, der ønsker at allokere tusind dollars nu, tilbyder Alphabet en blanding af vækst, cash‑flow og robusthed, som kan betale sig, når teknologirallyen genoptages.
20

Nasdaq er i korrektionsterritorium. Her er de 2 kunstig intelligens‑aktier (AI), jeg køber først.

AOL +7 kilder 2026-04-01 news
Nasdaq Composite faldt fredag under tærsklen på 10 % under sit højeste niveau og gik dermed officielt ind i korrektionsterritorium for første gang i år. Nedgangen blev udløst af en svagere end forventet beskæftigelsesrapport og en fornyet fokus på inflation, men salget har ikke udvisket markedets appetit for kunstig intelligens‑produkter. Analytiker Adam Spatacco hævder, at korrektionen “afrækker infrastrukturbevægelsen fuldstændigt”, mens efterspørgslen efter AI‑tjenester forbliver intakt. I sin spalte den 9. april peger han på to rene AI‑aktier, der har underpræsteret indekset med en større margin og nu fremstår undervurderede: C3.ai (AI) og Palantir Technologies (PLTR). Begge virksomheder har set deres aktiekurser falde med mere end 20 % siden Nasdaq toppede i marts, hvilket skaber det, Spatacco beskriver som “98 % og 115 % upside” ifølge nylige målrevisioner fra Wall Street. Betydningen

Alle datoer