AI News

240

Ég hef beðið yfir mánuð að Anthropic svaraði á greiðslumálið mitt

Ég hef beðið yfir mánuð að Anthropic svaraði á greiðslumálið mitt
HN +6 heimildir hn
anthropicclaude
Þjónustutími Anthropic hefur komið aftur í ljós þegar notandi loks fékk svar eftir meira en mánuð af þögn um umdeild gjald. Kvörðunin, sem hafði fengið lof um eftirfylgni vegna villu í reikningum tengd nýlegri Claude-áskrift, fékk aðeins svar í byrjun 2025 þegar fyrirtækið bað um bankaupplýsingar til að útfæra endurgreiðslu. Seinkunin, sem notandinn lýsir sem „að vera hunsaður í mánuðum“, dregur fram vaxandi óánægju meðal forritara og fyrirtækja sem treysta á API Anthropic fyrir allt frá merkingarleit (sjá grein okkar frá 8. apríl um ChromaDB + Ollama) til innri verkfæra. Atvikið er mikilvægt því það kemur á tímabili þar sem AI‑fyrirtækið er í óstöðugri stöðu. Anthropic hefur nýlega staðið frammi fyrir áberandi broti á samningi við deild varnarmála, umbyrjun stefnu um „Responsible Scaling“ og opinberum gagnrýni á öryggisáhrif Claude Mythos‑líkanins. Endurteknar bilun í þjónustustigi geta skemmt traust á fyrirtæki sem setur sig fram sem öruggt fyrsta valkost við aðra framandi AI‑veitendur. Fyrir fyrirtæki sem hafa innleitt Claude í framleiðsluferla, geta seinkaðar endurgreiðslur eða óviðbragðslaus þjónusta þýtt rekstraráhættu og yfirskot á fjárhagsáætlun. Það sem á eftir að fylgjast með er hvort Anthropic muni gefa út formlega afsökun eða breyta stuðnings‑SLA‑num til að bregðast við áfallinu. Greiningar segja að uppfærða „Responsible Scaling“ stefnan, sem var tilkynnt í þessari viku, muni innihalda skýrari skuldbindingar varðandi þjónustustöðlum við viðskiptavini, sérstaklega þar sem reglugerðarstjórnir í ESB og Bandaríkjunum þrýsta á eftirlit með AI‑samningum. Fljótleg, gagnsæ lausn gæti hjálpað fyrirtækinu að endurheimta traust, á meðan áframhaldandi vanræksla gæti flýtt fyrir flutningi til samkeppnisaðila eins og OpenAI eða Cohere og gæti ýtt undir frekari pólitískar þrýstingar, eins og nýlegar kröfur um að banna Anthropic í notkun hjá stjórnvöldum.
189

Just published a lightweight MCP server for Mastodon — manage toots directly from Claude Code: ✍️ C

Just published a lightweight MCP server for Mastodon — manage toots directly from Claude Code:  ✍️ C
Mastodon +7 heimildir mastodon
claude
Nýtt opið‑kóða verkefni sem var gefið út á GitHub í dag bætir við léttvægum Message Control Protocol (MCP) netþjóni sem gerir Anthropic‑forritið Claude Code kleift að hafa beina samskipti við Mastodon. “mastodon‑mcp” netþjóninn, skrifaður í Python á byggingu Mastodon.py bókasafnsins, býður upp á einfalt stdio‑stýrð flutningskerfi sem Claude Code getur kallað til að búa til, breyta eða eyða toots, hlaða upp fjölmiðlum með alt‑texta og sækja tímalínur, tilkynningar og leitarniðurstöður. Auðkenning er meðhöndluð í gegnum umhverfisbreytur, sem heldur auðkennum utan kóðans og einfaldar uppsetningu á persónulegum netþjónum eða CI pípunum. Útgáfan er mikilvæg vegna þess að hún dregur Claude Code út fyrir hefðbundin þróunarmiljö til að ná til samfélagsmiðla. Í byrjun þessa viku greindum við um Claude Code íbótaplugga fyrir stafla‑byggðar vinnuflæði og meðhöndlun margra geymslu‑samninga; þessi MCP brú er fyrsta sem gefur gervigreindar­aðstoðinni innfædda stjórn yfir fjölda‑dreifðu smáspjallneti. Forritarar geta nú skrifað skriftur til að búa til efni, sjálfvirkt samfélagsstjórnun eða prófað AI‑stýrða bota án þess að þurfa að skrifa sérsniðna API‑umslag. Þar sem netþjóninn er meðvitað lítill—engin viðmót, engar þyngdarlegar háðir—má keyra hann á lágmarks vélbúnaði, í samræmi við áherslu norræna tæknisamfélagsins á skilvirk, persónuverndar‑væn verkfæri. Það sem á eftir að fylgjast með er hversu fljótt samfélagið tekur upp tólið og hvort Anthropic innleiðir svipaða MCP endapunkta fyrir aðrar þjónustur. Möguleg áhyggjuefni eru misnotkun í spamm eða samstilltu rangfærslu, sem krefst takmarkana á fjölda beiðna og móðurstjórnunarráðstafana. Geymslunni er þegar skráð áætlun um að bæta við OAuth token endurnýjun og stuðning við nýrri API viðbætur Mastodon. Ef verkefnið fær fjöðrun, gæti það leitt til bylgju af AI‑aukaðri samfélagsmiðla‑tólum sem dölur mörkin milli kóða­aðstoðar og efnis­framleiðanda, þróun sem er vert að fylgjast með þegar bæði gervigreind og dreifð kerfi vaxa.
158

Ég er því miður … en AI‑ið þitt er ekki þess virði að fórna friðhelgi mínum. #ai #generativeAI #privacy #tech

Ég er því miður … en AI‑ið þitt er ekki þess virði að fórna friðhelgi mínum. #ai #generativeAI #privacy #tech
Mastodon +6 heimildir mastodon
privacy
Samruni neytendaverndarhópa í Svíþjóð, Noregi og Danmörku hefur sett í gang opinbera herferð með heitinu „AI‑ið þitt er ekki þess virði að fórna friðhelgi mínum“ og hvetur notendur til að hætta að veita persónuleg gögn til generative‑AI þjónustu. Áætlanin, sem var tilkynnt á þriðjudaginn, vísar í nýja innri skoðun á vinsælum spjallmenni‑vettvangi sem sýndi að spurningarferlar, tæki‑auðkenni og jafnvel áætlaðar tilfinningaskorur eru reglulega skráð og deilt með utanaðkomandi auglýsendum. Samkvæmt almennu persónuverndarreglum ESB (GDPR) og væntanlegum AI‑lögum gætu slíkar aðferðir talist ólöglegur vinnsla nema notendur gefi skýra, upplýsta samþykki. Skipuleggjendur herferðarinnar lögðu fram beiðni til Evrópusambandsins um strangari framfylgju á reglum um minnkun gagna og um skylt útskráningarbúnað fyrir öll AI‑knúin vörur sem eru seldar á norrænum markaði. Þeir krefjast einnig „privacy‑by‑design“ vottunar sem myndi gera notendum kleift að sannreyna hvort þjónusta geymi eða hendi innsláttir þeirra. Aðgerðina fylgir ábyrga áhyggjueinkenni sem við skýrðum um 8. apríl, þegar eldri ritstjóri viðurkenndi að „ég er núna áhyggjufullur um AI“ eftir persónulega reynslu með ChatGPT sem leiddi í ljós óvænta gagnahaldi. Hún endurspeglar einnig áhyggjur sem komu fram í nýlegum greiningum um að allt að 40 % evrópskra AI‑fyrirtækja gætu ofmeta notkun raunverulegra vélnámstækja, sem dular upp á milli sannrar gervigreindar og einfaldra handritaðra verkfæra. Af hverju er þetta mikilvægt? Fyrst og fremst hefur norræna svæðið lengi stuðlað að sterkum friðhelgisstöðlum, og traustbrot gæti hæglað innleiðingu AI í heilbrigðisþjónustu, fjármálum og opinberum þjónustum. Í öðru lagi ógnaðir ábendingar geta skaðað gagnadrifna viðskiptalíkön sem margir AI‑fyrirtæki byggja á, og gætu umformað fjárfestingarstrauma í átt að friðhelgi‑verndandi arkitektúrum eins og útreikningum á tækinu sjálfu og samstilltu námskeiði (federated learning). Væntanleg er viðbragð Evrópusambandsins á næstu vikur, ásamt mögulegum breytingum á AI‑lögunum sem gætu sett strangari skýrsla- og eftirlitskröfur. Tæknifyrirtæki eru þegar að setja í gang „no‑log“ ham og gagnsæi‑mælaborð um notkun gagna, en hvort þessi ráðstafanir muni fullnægja eftirlitsaðilum og grunsamlegum notendum er enn óvíst.
150

Ég smíða CLI sem X‑geislar AI forritunartímabilin þín — Enginn LLM, <5 ms (Opinn hugbúnaður)

Ég smíða CLI sem X‑geislar AI forritunartímabilin þín — Enginn LLM, <5 ms (Opinn hugbúnaður)
Dev.to +6 heimildir dev.to
agentsclaudecursorgeminiopen-sourcereasoning
**Aðili** hefur gefið út opinn hugbúnað, skipanalínutól sem „X‑geislar“ AI‑hjálpaða forritunartímabil, skorar hvert skipti á minna en fimm millisekúndum og gerir það án þess að kalla á stórt tungumálalíkani. Tólið, nefnt **rtk**, grípur textann sem þú slærð inn í hvaða studda AI‑forritunarumhverfi sem er — Claude Code, Cursor, Gemini CLI, Aider, Codex, Windsurf, Cline og fleiri — þjappar úttakið áður en það nær inn í samhengi‑gluggann hjá líkaninu og úthlutar tölulegu gæðastigi. Í tíu vikum skráði höfundurinn 3.140 skipanir, með meðaltalsstig 38, mælikvarða sem höfundurinn segir að tengist betri niðurstöðum í lokin, eins og færri þýðingarvillur og minni notkun á táknum. Af hverju þetta skiptir máli er tvíþætt. Fyrst hefur hönnun spurninga (prompt engineering) orðið falinn flöskuháls í vinnuferlum forritara sem nú treysta mikið á gerðargervigreind. Rauntíma endurgjöf gerir forriturum kleift að fínstilla fyrirspurnir sínar áður en líkanið vinnur úr þeim, sem sparar sóun á útreikningum og skýjakostnaði. Í öðru lagi, þar sem **rtk** starfar eingöngu staðbundið, forðast það persónuverndarvandamál sem hafa plagað viðskiptaleg AI‑þjónusta — þema sem við fjölluðum í grein okkar 9. apríl um jafnvægið milli þæginda og gagnaútlita. Með því að minnka spurninguna áður en hún nær líkaninu, teygir **rtk** einnig raunverulega samhengi‑gluggann, sem gerir lengri, samhangandi forritunartímabil möguleg án takmarkana á táknbýti sem venjulega neyða forritara til að skera niður sögu. Útgáfan byggir á röð samfélagsdrifinna tóla sem líta á AI‑aukaða þróun sem fyrsta‑flokks eign. Í byrjun mánaðarins fjölluðum við um „tímasafn“ CLI sem tekur myndatökur af tímabilum til eftirfylgni, og um tmux‑grunninn IDE sem varðveitir stöðu skjáborðs yfir endurræsingar. Skorunarmótorinn í **rtk** bætir við tölulegu lagi í þessi endurskoðunartól, breytir anekdotískum minnispunktum í framkvæmanlegar mælingar. Hvað á að fylgjast með næst: GitHub-safnið verkefnisins listar nú þegar samþættingarveifar fyrir nýrri umboðsmenn, og höfundurinn bendir á stjórnborð sem myndar þróun stiganna yfir tíma. Ef samfélagið tekur **rtk** í notkun á breiðum grundvelli, gætum við séð nýjan viðmiðunarmörk fyrir gæði spurninga, og hugsanlega innleiða viðskiptale
148

Claude Mythos finnur villur eins og reyndari forritari finnur ástæður til að sleppa daglegum standup-fundum

Claude Mythos finnur villur eins og reyndari forritari finnur ástæður til að sleppa daglegum standup-fundum
Dev.to +6 heimildir dev.to
anthropicclaude
Claude Mythos, AI‑drifið kóðaskoðunarkerfi Anthropic, hefur uppgötvað 27 ára göllu í OpenBSD stýrikerfinu. Galli, sem liggur djúpt í netkerfis‑undirkerfi, lifir af meira en tvö áratug af handvirkum kóðaskoðunum, öryggisúttektum og sjálfvirkum skönnunum áður en AI‑kerfið merkti hann sem mögulegan nýtingarmöguleika. OpenBSD‑umsjónarmenn staðfestu málið á fimmtudaginn og eru að undirbúa lagfæringu sem verður sett í gang í næsta útgáfuhringi. Uppgötvanirnar sýna vaxandi kraft generatívra AI‑tækja í hugbúnaðaröryggi. Eins og við skýrðum 8. apríl, hafði Claude Mythos þegar farið fram úr hefðbundnum öryggisteymum með því að koma í ljós þúsundir núll‑dagsgalla á nokkrum vikum. Nýjasta árangurinn sýnir að líkanið getur fundið göllu sem hafa slopið í gegnum jafnvel strangustu mannlegu ferla, og hækka þannig stöðuna fyrir það sem má vænta af sjálfvirkri kóðagreiningu. Fyrir OpenBSD, verkefni sem er dýrmætt vegna áherslu á réttmæti og lágmarksárásarflatar, er villan áminning um að jafnvel mest skipulögðu kóðasöfn eru ekki ónæm fyrir falnum göllum. Lagfæringin mun líklega loka fjarlægum kóða‑framkvæmdarvegi sem hefði getað orðið til vopna í eldri kerfum sem enn keyra eldri útgáfur af OpenBSD. Í víðari samhengi ýtir atburðurinn á umræðu um hversu miklu trausti eigi að setja í AI‑framleiddar niðurstöður og hvort slík verkfæri eigi að verða staðlaður hluti hugbúnaðarþróunarferlisins. Framvegis hyggst Anthropic auka samþættingu Mythos við opna hugbúnaðarforritasöfn og bjóða viðskiptavinum “forskoðun” þjónustu fyrir fyrirtækja‑kóðasöfn. Öryggarrannsakendur munu fylgjast með því hversu fljótt OpenBSD‑samfélagið getur lagað gölfinn og hvort önnur langtímaverkefni — eins og Linux kjarninn eða FFmpeg, sem Mythos hefur einnig bent á — sjá svipaða AI‑studdar úttektir. Næstu nokkur mánuðir gætu fært í sér sprengju í AI‑hjálpaðri birtingu öryggisgalla, sem myndi endurskapa jafnvægið milli mannlegrar sérfræðikunnáttu og vélrænna kóðaskoðana.
136

Hvernig á að byggja sjálfgæjandi AI umboðsmenn með Monocle, Okahu MCP og OpenCode

Dev.to +5 heimildir dev.to
agents
Ný kennsluefni sem gefið var út í þessari viku sýnir forriturum hvernig á að tengja saman Monocle, MCP gagnaöflunarvettvang Okahu og opna kóðasafnið OpenCode til að búa til AI‑knúna kóðaraðstoðarmenn sem geta greint og lagað eigin villur. Leiðbeiningarnar fara í gegnum hvernig á að setja upp sandkassa, ræsa OpenCode aðalumbót, setja inn Monocle‑rekja til að fylgjast með aðgerðum hans og færa niðurstöðugögnin inn í Okahu MCP. Þegar kóðinn sem umboðsmaðurinn framkallar veldur undantekningu, fangar kerfið alla villustafla, samhengi‑viðeigandi ástand og nýlegar skráabreytingar, og kallar á „læknandi“ ferli sem endurskrifar áreiti‑kóðabrotið og reynir verkefnið aftur – allt að tvö sjálfvirk tilraunir í hvert bilunartilvik. Þessi bylting er mikilvæg því flestir AI‑kóðaraðstoðarmenn í dag eru enn háðir mannlegum verkfræðingum til að túlka annál og laga brotinn kóða. Með því að innleiða sýnileika og endurgjöfslúpur beint inn í keyrsluumhverfi umboðsmannsins, færist vinnuferlið skref nær fullkomlega sjálfstýrðum hugbúnaðarþróunarleiðum. Minnkuð handvirk villuleit getur flýtt fyrir frumgerðarferlum, lækkað rekstrarkostnað og bætt áreiðanleika í samfelldum samþættingarumhverfum sem þegar nýta AI til kóðagenerunar. Að auki sýnir aðferðin hagnýta framkvæmd á „sjálfgæjandi“ mynstri sem hefur verið fjallað um í rannsóknum, en sjaldan sýnt í heildarframkvæmd. Kennsluefnið byggir á fyrri umfjöllun okkar um léttvæg MCP netþjón Okahu fyrir Mastodon, birt þann 9. apríl, þar sem kynnt var gagnaöflunarstaflinn sem nú er endurnýttur til að fylgjast með AI umboðsmönnum. Áframhaldandi þróun mun fylgjast með víðtækari innleiðingu Monocle‑MCP‑OpenCode staflsins í framleiðsluverkefnum, samþættingu við Claude‑API‑stýrðar yfirumsjónarmynstur og tilkomu staðla fyrir örugga sjálfviðgerðar í sjálfstæðum umboðsmönnum. Ný útgáfur frá OpenCode umsjónarmönnum og uppfærslur á Monocle‑rekjuhæfileikum munu sýna hversu hratt sjálfgæjandi líkanið getur vaxið út fyrir tilraunargreiningar.
133

AI‑kóði er að eyða út opnum hugbúnaði, og umsjónarmenn horfa í annað

Mastodon +7 heimildir mastodon
agentscopyrightopen-source
AI‑framleiddur kóði er að flæða inn í opna‑kóða geymslur, og umsjónarmenn hunsar það í auknum mæli. Áhvörfinn er nýleg ákvörðun bandaríska höfundarréttarskrifstofunnar sem flokkast úttak stórra tungumálalíkana sem óhöfundarréttarbært, sem í raun opnar slóðina fyrir forritara að afrita‑líma AI‑framleiddar brotsekjur án lagalegs áhættu. Afleiðingin er að verkefni, frá lágnivågs bókasöfnum til veframma, sjá mikla aukningu í pull requestum sem í mesta lagi samanstanda af staðlaðri kóðaþræði sem er sett saman af spjall‑aðstoðarmönnum. Flóðið er þegar að breyta vistkerfinu. Daniel Stenberg, sem leiðir cURL, lokaði sex ára bug‑bounty forritinu í janúar og tilkynnti óstjórnanlegan fjölda lágs gæðafrumboða. Mitchell Hashimoto, stofnandi Ghostty, lýsti yfir bann gegn AI‑framleiddum framlögum eftir að fjöldi villusömra lagfæringa ógnaði útgáfuáætlunum. Á GitHub segja umsjónarmenn að þeir eyði allt að 30 mínútum í hvert pull request bara til að sannreyna að kóðabrot er ekki rangt framleiddur hlutur, verkefni sem margfaldað er yfir þúsundir daglegra framlaga. Heildaráhrifin eru kulnun, hægari nýsköpun og vaxandi tilfinning um að mannlegir þátttakendur verði óáþekktir millistigsmenn í ferli sem er stjórnað af AI‑umhverfum. Af hverju þetta skiptir máli fer langt út fyrir þreytu forritara. Opinn hugbúnaður er grundvöllur flestar nútíma hugbúnaðar, frá skýja‑innviðum til farsímaforrita. Ef umsjónarmenn draga sig til baka, gætu öryggisuppfærslur, afköstabætur og samfélags‑stýrðar eiginleikar sem halda stafla heilbrigðum seinkað, og fyrirtæki þurfa að reiða sig á óskýrar, söluaðila‑bundnar lausnir. Enn fremur vekur lagalega gráa svæðið í kringum AI‑framleiddan kóða spurningar um ábyrgð á villum og mögulega brot á höfundarrétti þegar líkön óvart endurgera höfundarréttarbæran kóða. Það sem á að fylgjast með næst eru þrjár samrunið svið. Fyrst er opinn hugbúnaður að prófa sjálfvirk greiningartól sem merkja
124

[AutoBe] Qwen 3.5‑27B byggði nýlega fullkomna bakenda frá grunni — 100 % samantekt, 25 sinnum ódýrara

Dev.to +6 heimildir dev.to
agentsclaudeopen-sourceqwen
AutoBe, opna‑kóðaða AI forritunar­aðstoðartækið, hefur náð mikilvægu áfanga með nýjustu keyrslu Alibaba‑kerfisins Qwen 3.5‑27B. Í stjórnuðu prófi fékk teymið fjórar ólíkar bakenda‑lýsingar – frá einfaldri netverslun API til fjölleigusniðs SaaS þjónustu – og fylgdist með því hvernig líkanið framleiddi allt frá kröfu‑greiningu og gagnagrunnsskema til NestJS‑útfærslu, end‑to‑end prófa og Dockerfile‑skrár. Allir fjórir verkefnin tóku saman í fyrsta tilrauninni, og heildarkostnaður við ályktun var um það bil 25 sinnum lægri en þegar sama verk er framkvæmt á viðskiptalíkönum eins og GPT‑4.1. Framfarirnar byggja á 27 milliárum breytistærða Qwen 3.5‑27B og getu þess til að keyra staðbundið með vllm‑tensor‑parallel þjónustu. Með því að halda líkaninu á eigin neti fjarlægir AutoBe gjald fyrir hvern tákn, sem hefur gert stórtímaskala kóðagerð óhentugt og dýrt fyrir marga forritara. 100 % samantektarhlutfallið leysir einnig langtímavanda: fyrri AI‑skapaðir bakendar þurftu oft handvirkar lagfæringar til að laga setningafræðilegar eða háðavillur, sem dró úr þeim tíma­sparnaðar­lúð sem AI forritunar­aðstoðarmenn lofa. Áhrifin ná út fyrir áhugaverða verkefni. Ef staðbundin stórtungumálalíkön (LLM) geta áreiðanlega framleitt framleiðslu‑gæða bakenda, geta sprotafyrirtæki og miðstærðarfyrirtæki hannað og sent út eiginleika án endurtekins ský‑kostnaðar sem nú knýr AI þjónustumarkaðinn. Þetta ýtir einnig í átt að opnari vistkerfi þar sem samfélags‑stýrð líkön keppa beint við eigendareignarvörur. Það sem á eftir að fylgjast með er hvort AutoBe geti haldið árangri sínum í stærri, flóknari kerfum og samþætt pípunina í CI/CD vinnuflæði. Áætlun verkefnisins vísar til stuðnings við komandi Qwen 3‑next‑80B og nánari tengingar við vinsæl verkfær í dev‑ops. Á sama tíma eru skýjaþjónustuveitur líklegar til að bregðast við með verðlagningarbreytingum eða nýjum þróunaraðila‑miðum, sem gerir næstu mánuði að litmæliskilyrði fyrir viðskiptalega líkindavinna staðbundinna, full‑stack AI kóðagjafa.
124

Skilningur á Transformerum, hluti 3: Hvernig Transformerar Sameina Merkingu og Staðsetningu

Dev.to +5 heimildir dev.to
Ný tæknilegur handbók með titlinum „Skilningur á Transformerum, hluti 3: Hvernig Transformerar Sameina Merkingu og Staðsetningu“ kom út í dag og framlengir þá röð sem hefur útskýrt innri virkni nútíma stórra tungumálalíkana. Greinin tekur við þar sem fyrri þátturinn lauk, og útskýrir hvernig sinusóidal staðsetningarkóðanir eru sameinaðar við táknvörpunir til að gefa transformerum tilfinningu fyrir orðarröð. Með því að flétta saman þessi tvö vigra í stærðfræðilegu samhengi getur líkanið greint „köttur elti mús“ frá „mús elti kött“ þótt orðaforða sé sá sami. Frásögnin kemur í kjölfar skýrslu okkar frá 8. apríl, „Hvernig Transformer Líkön Virka Raunverulega“, sem kynnti ath
120

Claude Managed Agents

HN +6 heimildir hn
agentsclaude
Anthropic kynnti Claude Managed Agents á Claude Platform sinni, sem býður upp á tilbúið umgjörð og fullkomlega stjórnað innviði fyrir sjálfstæð AI-umbúðir. Þjónustan gerir þróunaraðilum kleift að lýsa umbúð í náttúrulegu máli eða í stuttu YAML-skrá, setja upp öryggisráðstafanir og ræsa langtímaverk eða ósamstillt verkefni án þess að þurfa að útvega netþjóna, íláta eða sérsniðna stjórnun. Samkvæmt API-skjölunum sem voru gefin út fyrir tvær klukkustundir síðan, keyrir forsmíðaða umgjörðin á eigin skýi Anthropic, með sjálfvirkri aðlögun, eftirliti og bilunartolerans, á meðan hún birtir sömu Claude módelendapunkta sem þróunaraðilar nota nú þegar. Útgáfan takast á við erfiðasta þáttinn í umbúða‑verkfræði – rekstur. Þó Anthropic hafi lengi boðið upp á öfluga tungumálamódel, þurftu notendur áður að flétta saman Claude Code, Cowork eða verkfæri frá þriðju aðila eins og Monocle, Okahu MCP og OpenCode til að halda umbúðum í gangi og sjálfvirkri viðgerð. Eins og við skýrðum 9. apríl, gerðu þessir hlutar kleift að ná viðnámi á frumgerðastigi en kröfðu umfangsmikla DevOps-innsats. Claude Managed Agents dregur úr því lagi, breytir umbúða‑skilgreiningu í framleiðslu‑stærða þjónustu með einni API-ákvörðun. Iðnaðarskoðarar líta á þessa þróun sem merki um að AI‑fyrsta vettvangar eru að vaxa frá að vera aðeins módelveitendur yfir í fullkomna lausn umhverfi. Með því að lækka hindrunina við að setja sjálfstæð vinnuflæði í framkvæmd – til dæmis sjálfvirk flokkun miða, stjórnun gagna‑pípur eða persónuleg efnisgerð – setur Anthropic sig í samkeppni við keppinauta eins og Functions frá OpenAI og Gemini Agents frá Google, sem enn þurfa viðskiptavini að hýsa keyrsluumhverfi sín. Það sem á eftir að fylgjast með: Anthropic hefur bent á væntanlegar greiningar‑mælaborð og nákvæmari reikningagerð fyrir notkun per umbúða, sem gæti mótað kostnaðar‑optimeringarstefnur fyrirtækja. Samþætting við núverandi Claude Code geymslur og nýlega tilkynnt undir‑umbúða stigveldi bendir til vegvísi í átt að stigveldislegum, samsetanlegum umbúðum. Samfélagið mun prófa áreiðanleika þjónustunnar í stórum mæli, og frammistöðuupplýsingar fyrstu notenda munu líklega hafa áhrif á hvort stjórnaðar umbúða‑vettvangar verði sjálfgefið útfærslu‑módel fyrir AI‑knúna sjálfvirkni.
86

Samstarfsmenn Sam Altmans segja að hann geti varla forritað og misskilji grunnatriði vélarnáms

Mastodon +6 heimildir mastodon
microsoft
OpenAI’s chief executive Sam Altman has become the subject of a fresh internal critique after a senior Microsoft executive told The New Yorker
81

AMD AI-yfirmaður segir að Claude Code sé orðnari og latsamara síðan uppfærslu

HN +5 heimildir hn
claude
AI-yfirmaður AMD hefur opinberlega aðvarað um að Claude Code frá Anthropic hafi orðið „orðnari og latsamara“ síðan uppfærslan í febrúar. Stella Laurenzo, yfirmaður AI-hópsins hjá flísaframleiðandanum, opnaði GitHub-mál á föstudegi (sjá mál # …​) og birti LinkedIn-færsla sem útskýrir minnkunina. Samkvæmt henni glímir CLI‑umslagið af Claude, sem teymið hennar treystir til kóðagerð, nú við flókin verkfræðarspurningar og framleiðir oft yfirborðskenndar eða algerlega rangar brot. Kvörðunin endurspeglar breiðari rödd þróunaraðila sem hafa tekið eftir minnkun í lausnarfærni Claude eftir nýjustu útgáfuna. Áræðan er mikilvæg þar sem Claude Code er sett fram sem lyk
73

Anthropic nær $30 billi í árlegum tekjum og yfirgnæfir OpenAI

Mastodon +8 heimildir mastodon
anthropicclaudeopenai
Anthropic tilkynnti að árlegur tekjuviðmið hans hafi farið yfir $30 billi, og að fyrirtækið hafi því umfram keppinauta OpenAI í fyrsta sinn. Talan, sem var opinberuð í stuttri yfirlýsingu til fjárfesta, endurspeglar mikinn vöxt í fyrirtækjasamningum um Claude‑líkön fyrirtækisins og fjöl‑gígwatt TPU-samstarf við Google sem dýpkar skýjútreikningargetu sprotafyrirtækisins. Þessi áfangi er mikilvægur því hann endurskilgreinir fjármálahierarkið í generative‑AI geiranum rétt þegar bæði fyrirtækin undirbúa sig fyrir opinbera framlög. Vöxtur Anthropic er að mestu leyti knúinn áfram af endurteknum, fjölárum samningum við stórfyrirtæki sem innleiða Claude í innri vinnuferla, frá þjónustubotum í viðskiptavinaþjónustu til kóðagerðartól eins og ClaudeCode. OpenAI, á móti, byggir ennþá mikið á notkunar‑tengdri tekjuöflun í gegnum API‑ið sitt og neytendavörur eins og ChatGPT Plus. Ólíkar bókhaldsleiðir þýða að þessi tvö viðmið eru ekki beinlínis samanburðarhæf, en greiningaraðilar líta á bilið sem merki um að AI með áherslu á fyrirtæki geti skapað lausafjárstreymi í þeim mæli sem áður var í eigu fyrirtækja eins og Microsoft og Google. Það sem á eftir að fylgjast með er hvernig OpenAI mun bregðast við. Fyrirtækið er áætlað að skila inn umsókn um IPO seinna á þessu ári og gæti flýtt fyrir því að auka fyrirtækjaleyfi eða breyta verðlagningu til að verja markaðshlutdeild. Stjórnvöld eru einnig að hefja nánari skoðun á hraðri samdrætti AI‑tölvu- og mannauðs, þannig að hverju sem er antitrust‑rannsókn gæti haft áhrif á skilmála TPU‑samnings Anthropic við Google. Að lokum mun breiðara vistkerfið fylgjast með nýrri kóðahjálparforritum—Cursor, til dæmis, tilkynnti $2 billi í viðskiptavinnu—því þau sýna hvernig sértæk AI‑verkfæri geta fljótt orðið tekjuvörður. Næstu mánuðir munu sýna hvort fyrirtækja‑momentum Anthropic geti viðhaldið yfirburðum sínum eða hvort breiðari notendahópur OpenAI loki bilið áður en tveir risar fara í opinbera framlög.
63

LLM skraparörvar eru að yfirhlaða HTTPS netþjón acme.com

HN +6 heimildir hn
Bylgja sjálfvirkra “skraparörva” byggðra á stórum tungumálalíkönum (LLM) hefur hafist að hamra HTTPS-endapunkti acme.com, vefsíðu af lítilli stærð sem hýsir sértækt vafra‑spil og fær venjulega aðeins um 120 einstaka gesti í viku. Samkvæmt rekstraraðila síðunnar gefa örvarnar út þúsundir fljóttra, samhliða beiðna sem fylla upp í bandvídd og örgjörva netþjónsins, valda tímamörkunum fyrir lögmætum notendum og krefjast tímabundinnar lokunar þjónustunnar. Atvikið er einkenni víðtækari breytingar á því hvernig AI‑þróunaraðilar safna þjálfunargögnum. LLM‑veitendur eins og OpenAI, Anthropic og Google‑Gemini hafa
62

Claude Mythos Forskoðun \ red.anthropic.com

Mastodon +6 heimildir mastodon
anthropicautonomousclaude
Anthropic hefur kynnt Claude Mythos Forskoðun, sitt hæfileikasetasta framhaldslíkan til dagsins í dag, en hefur valið að halda kerfinu frá almenningi. Tilkynningin, sem birtist á red.anthropic.com, leggur áherslu á óviðjafnanlega færni líkanins í verkefnum tengdum tölvuöryggi og fullyrnir að það geti sjálfstætt fundið mikilvæga öryggisbrot á öllum helstu stýrikerfum og víðtæku úrvali fyrirtækjaforrita. Í innri prófum segjast niðurstöður sýna að líkanið uppgötvaði þúsundir zero‑day gallna sem hefðbundin verkfæri til stöðugrar greiningar hafa misst. Afhjúpunin byggir á sögunni sem við fylgjumst með þann 9. apríl, þegar Claude Mythos var fyrst hrósað fyrir „að finna villur eins og reyndari forritari finnur ástæður til að sleppa daglegum stand‑up“ (sjá greinina okkar Claude Mythus Finds Bugs). Anthropic setur nú forskoðunina fram sem skref fram á við, ekki bara í hráum forritunarhæfileikum heldur einnig í samræmi: sérstakt skjal, „Alignment Risk Update“, lýsir Mythos Forskoðun sem best samræmda líkanið sem fyrirtækið hefur gefið út, en bendir á sömu varanlegu áhættur og sést í Claude Opus 4.6, þ.e. möguleikann á að kerfið verði misnotað til að þróa vopnabundna nýtingar. Af hverju þetta skiptir máli er tvíþætt. Fyrst, gervigreind sem getur kerfisbundið opinberað falin hugbúnaðarveikleika gæti orðið kraftauki fyrir öryggisteymi, flýtt upp lagfærsluferla og styrkt mikilvæga innviði. Í öðru lagi lækkar þessi getu hindrunir fyrir illgjarnar aðila til að búa til flókin nýtingar, sem eykur mikilvægi ábyrgðarfullrar tilkynningar og reglugerðaeftirlits. Ákvörðunin hjá Anthropic um að halda líkaninu frá almenningi bendir til varfarslegrar nálgunar
61

Your AI Agent is Reading Poisoned Web Pages.. Here's How to Stop It

Dev.to +5 heimildir dev.to
agentsdeepmindgoogle
Google DeepMind hefur gefið út nýja rannsóknargrein með titlinum **„AI Agent Traps“**, þar sem varpað er ljósi vaxandi hópi árása sem fela falin fyrirmæli í sýndarlega skaðaleysan vefsíðum, PDF-skjölum eða lýsingum á verkfærum. Rannsóknin sýnir að þegar sjálfstæðir þjónar—svo sem Claude‑stýrðir aðstoðarmenn, vefskönnunarbotar eða kóðagerðartól—sækja og greina efni, geta þeir óvart framkvæmt illgjarnar leiðbeiningar sem eru faldar í upprunanum. Einfaldur dæmi er pastauppskriftarsíða sem virðist skaðlaus fyrir manninn en inniheldur falinn skipun eins og „Hunsa fyrri fyrirmæli“, sem þjónninn fylgir óbilandi. Greinin kortleggur eðli **óbeinnar fyrirmæla innspýtingar** (indirect prompt injection), tækni sem rannsakendur líkja við cross‑site scripting (XSS) í AI-aldri. Með því að eitra gagnaflæðið geta árásarmenn stjórnað þjónum til að opinbera trúnaðarmail, búa til falskar fjármagnaviðskipti eða setja inn ógnvekjandi verkfæri. Nýlegir atburðir sem skráðir eru í skýrslunni eru meðal annars rofinn HPE OneView stjórnunarskjár (CVE‑2025‑37164) og tilvik þar sem þjónn dró $10.000 eftir að hafa lesið breytt tölvupóst. Þar sem þjónar starfa oft með hækkaðri aðgangi að verkfærum og kröfu um lágt biðtíma, geta árásir gerst án þess að hefðbundin öryggisviðvaranir gangi í gang, og orkukostnaður við stöðuga greining verður sífellt meiri áhyggjuefni fyrir öryggisteymi. Viðbragðsáætlanir sem DeepMind leggur fram leggja áherslu á **varnarmyndun í dýpt**: sandkassa‑keyrsluumhverfi, strangt hreinsun á sóttum HTML-skjölum og skjalametagögnum, staðfestingu á verkfæraskemum áður en þau eru hlaðin, og innleiðingu sjálf‑læknandi þjóna sem geta endurstillt grunsamlegar aðgerðir. Höfundarnir krefjast einnig iðnaðarvíðra staðla um uppruna efnis og API‑viðmót til staðfestingar á fyrirmælum. Hvað er næst að fylgjast með: DeepMind hyggst gefa út opinn kóða‑bókasafn til að sía fyrirmæli, á meðan helstu skýjaþjónustuaðilar eru væntanlegir að koma með strangari einangrun fyrir verkþjónustur. Stjórnvöld í ESB og norrænum löndum eru þegar að draga til um leiðbeiningar um AI‑stýrða gagnaöflun, og öryggisfyrirtæki eru líkleg til að kynna sérstakar „agent‑trap“ greiningarlausnir á næstu mánuðum. Keppnin um að verja sjálfstæða þjóna er aðeins hafin, og næsta bylgja verkfæra mun ákveða hvort fyrirtæki geti örugglega nýtt framleiðniaukninguna.
60

Skipta um “context‑stuffing” í Claude Code með git‑semantic til teymisvíðrar semantískrar leitar

Dev.to +6 heimildir dev.to
claudeembeddingsvector-db
Nýtt opið‑kóða verkfæri, **git‑semantic**, er á vegum þess að breyta því hvernig þróunarteymi setja kóða inn í Anthropic’s Claude Code CLI. Með því að greina allar skráir sem eru í Git með Tree‑sitter, skipta kóðanum í bita, búa til vektorreikninga og vista þau í sérstökri einmana grein, býr git‑semantic til sameiginlegt, alltaf uppfært semantískt vísitölu sem hver liðsmaður getur leitað í án þess að þurfa að endur‑vísitala. Niðurstaðan er veruleg minnkun á fjölda API‑kalla sem þarf til að veita Claude Code samhengi, og þar með umferð um “context‑stuffing” lausnina sem hefur lengi plagað tólið. Við bentum fyrst á hönnunarmissir Claude Code þann 9. apríl, þegar lekið út kóðasafn sýndi að CLI‑ið byggir á því að fylla samtalið með innihaldi skráa ítrekað til að halda innan takmarka á fjölda beiðna. Þessi aðferð fyllti fljótt geymsluna með aukaskrám (“context files”) og þvingaði forritara til að ná takmörkum Claude fljótt. Git‑semantic takast beint á við þennan vandamálið: vísitalan er í Git, dreifist sjálfkrafa með hverjum push, og er hægt að leita í henni með Claude Code eða öðrum LLM‑stuðningsaðilum sem taka við vektorsöku. Áhrifin fara út fyrir eitt verkflæðabreytingu. Með því að minnka óþarfa API‑umferð lækkar rekstrarkostnaður fyrirtækja sem hafa innleitt Claude Code í CI‑pípur, á meðan teymisvíð vísitala gerir öllum aðgengi að samræmdum sýn á kóðagrunninn, í samræmi við semantíska leitarvirkni GitHub Copilot og annarra IDE‑aðstoðarmiða. Ef samfélagið tekur git‑semantic upp í stórum mæli, gæti Anthropic fundið fyrir þrýstingi til að innleiða innbyggða semantíska leit eða slaka á takmörkunum, sem myndi breyta samkeppnisumhverfi AI‑styrktrar þróunartækja. Fylgist með fyrstu notendum sem birta samanburðartölur, viðbrögðum Anthropic—hugsanlega opinber viðbót eða endurbætt Claude Code‑arkitektúr—og með verkefnum sem byggja á git‑semantic til annarra LLM‑veitenda. Næstu vikur munu sýna hvort þessi Git‑miðaða nálgun verði nýja staðallinn fyrir teymisvíða kóðaútskýringar.
60

Claude Code leka: Af hverju allir forritarar sem byggja AI‑kerfi ættu að vera vakandi

Dev.to +5 heimildir dev.to
claude
**Samantekt** Innan fyrirtækisins Anthropic var innri Claude kóðagrunnur – 512 kílólínur af “masterclass” í arkitektúr stórra tungumálalíkana – óvart opinberaður á opinberum spjallrásum í byrjun 2025. Lekið, sem fyrst var bent á í Discord‑rásum sem miða að forriturum og síðar endurspeglað á öryggis‑póstlistum, inniheldur fullan frumkóða Claude 2‑útreikningavélunnar, útfærslur á öryggis‑lögum og eignarhaldsviðbætur “Claude Code” sem gera kleift notkun tóla og sjálfvirka villuleit. Anthropic staðfesti brotið á þriðjudaginn, kenndi því misskilgreindum skýgeymslu‑bökk, og lofaði neyðaruppfærslu ásamt óháðum endurskoðun. Mikilvægi atburðarins felst í því að Claude Code er þróaðasta dæmi um nákvæmlega samþætt “agentic” LLM‑stafli, hönnun sem Anthropic hefur kynnt sem mismunandi þátt gegn keppinautum eins og OpenAI‑GPT‑4o og Google‑Gemini. Nú þegar kóðinn er opinber, geta andstæðingar rannsakað öryggis‑ráðstafanirnar, greint veikleika í minni‑meðferð og smíðað markvissar árásir sem komast framhjá takmörkunum eða innspýtingar‑varnarkerfum. Á sama tíma lækkar lekinn hindrunina fyrir minni rannsóknarstofur til að endurgera arkitektúr Anthropic, sem gæti minnkað samkeppnis‑körfuna og flýtt fyrir bylgju af “Claude‑klónum” sem mögulega skorti upprunalega öryggisprófanir. Brotið vekur einnig upp áhyggjur sem komu fram í skýrslu okkar frá 9. apríl um nýlegan frammistöðu‑mörkun Claude Code, þar sem við bentum á að sömu innri einingar virðast nú vera viðkvæmar fyrir misnotkun. Greindarathugendur spá í því að Anthropic muni styrkja öryggi í birgðakeðjunni, mögulega flytja lykilhluta í einangraðar byggingarumhverfi og innleiða núll‑traust geymslu‑stefnu. **Hvað á að fylgjast með næst:** Endurskoðunar‑skýrsla Anthropic, möguleg lögfræðileg aðgerða gegn þeim sem ber ábyrgð á misskilgreiningunni, og hvernig keppinautar laga eigin kóða‑öryggisvenjur. Stjórnvöld geta einnig nýtt tækifærið til að ýta undir skyltar verndar‑staðla fyrir frumkóða undirstöðulíkana, þróun sem gæti ummyndað AI‑öryggislandslagið um allt norræna svæðið og lengra út.
54

Rannsókn vekur alvarleg áhyggjur af traustvænleika Sam Altman

Mastodon +7 heimildir mastodon
openai
Umfjöllun um víðtæka rannsókn sem birtist í The New Yorker í þessari viku fullyrðir að forstjóri OpenAI, Sam Altman, hafi ítrekað villt fjárfesta, stjórnarmenn og eftirlitsaðila um fjármálastöðu fyrirtækisins, stefnu þess og raunverulegan umfang samstarfsins við Microsoft. Skýrsla, byggð á innri tölvupósti, vitnisburði innblásinna og lekið fundargerðum stjórnarfélagsins, segir að Altman hafi falið kostnaðaryfirskrif í þróunarpípun GPT‑5, ofmetið viðskiptahæfni nokkurra líkana og minnkað áhrif $10 billiún fjárfestingar Microsoft í stjórnun OpenAI. Ljósmennirnir eru mikilvægir vegna þess að OpenAI stendur í miðju alþjóðlegu keppninnar um gervigreind, þar sem líkanir þess knýja allt frá fyrirtækja‑spjallmenum til sjálfstæðra rannsóknartækja. Ef forstjóri hefur í raun leynt veruleg áhættu, gæti trúverðugleiki opinberra skuldbindinga fyrirtækisins—svo sem loforð um að „demokratisera AI“ og birta öryggisrannsóknir—verið alvarlega dregið úr. Fjárfestar gætu krafist strangari eftirlits, á meðan eftirlitsaðilar í ESB og Bandaríkjunum, sem þegar eru að móta lög um gervigreind, gætu litið á niðurstöðurnar sem sönnunargögn um að núverandi sjálf‑eftirlit sé ófullnægjandi. Sagan endurvaknar einnig spurningar sem komu fram í greininni okkar 8. apríl um traustvænleika Altman, þar sem bent var á óskýra ákvörðunartöku hans og skyndilegan brottrekstur forstjóra af stjórninni árið 2023. Nýja rannsóknin bætir við hagnýtar ásakanir um fjármálaskekkju, sem bendir til að fyrri niðurstaða stjórnarinnar um „engin misgjörð“ hafi verið of snemma. Hvað á eftir að fylgjast með: Áætlað er að stjórn OpenAI haldi neyðarfund til að fjalla um skýrsluna, og orðmaður hefur lofað formlegan svar innan 48 klukkustunda. Hlutabréfahafar gætu lagt fram kröfu um sjálfstæða endurskoðun, á meðan lögfræðiteymi Microsoft líklegast mun meta möguleg brot á samningum. Að lokum gætu löggjafar aðilar vísað í niðurstöðurnar í komandi umræðum um stjórnun AI, sem gæti flýtt fyrir þrýstingi á að innleiða skyldu um gagnsæi í greininni.
54

https://www.tkhunt.com/2277373/ 【Allir mæla með】 Ítarleg umfjöllun á AI‑ritlinum “Superset” sem inniheldur allt sem þú þarft núna! #AgenticAi #A

Mastodon +7 heimildir mastodon
agentsclaudecursordeepseek
Superset, AI‑ritill sem er samþætt í skipanalínuna og sameinar mörg stórmódel tungumála og hönnunartól, var prófað í hagnýtri umsögn sem japanska tæknavefnið TKHUNT birti á fimmtudaginn. Í myndbandinu er sýnt hvernig Superset gerir forritara kleift að kalla fram ChatGPT, Claude, DeepSeek eða staðbundið módel með einni skipun, og síðan skiptast á milli þeirra á óaðfinnanlegan hátt yfir í UI‑miðaða aðstoðarmenn fyrir Canva, Figma eða CSS‑gerð. Innbyggður “CursorComposer” gluggi býður upp á lifandi kóðaútsýni, á meðan bókasafn af spurningum veitir tilbúna brot af kóða fyrir algengar aðgerðir eins og API‑uppbyggingu, gerð einingaprófa og framenda‑stílingu. Útgáfan er mikilvæg því hún ýtir undir vaxandi stefnu um „AI‑fyrsta“ þróunarmiljö í átt að meira en aðeins skýja‑lausnir eins og GitHub Copilot og Microsoft Cursor. Með því að festa AI‑lagið inn í skipanalínuna minnkar Superset flutning milli umhverfa og heldur vinnuferli forritara innan vel þekktra skelja, eiginleiki sem fellur vel að norrænum teymum sem kjósa létt, forritanleg verkfæraköfn. Hæfni til að samstilla mörg módel gerir notendum einnig kleift að jafna kostnað, tafartíma og sköpunargáfu, sveigjanleiki sem gæti flýtt fyrir innleiðingu í bæði sprotafyrirtækjum og stærri fyrirtækjum. Eins og við skýrðum 8. apríl um Claude Code skipanalínuaðstoðarmanninn, er markaðurinn fyrir AI‑bættum kóðaaðstoðarmönnum í hraðri fjölbreytni. Breiðara úrval Superset‑módelanna og innleiðing hönnunarmiðaðs AI setur það í sérstakt ljósi, en það mun standa frammi fyrir hörðum samkeppni frá opnum verkefnum eins og Cursor‑„Composer“ og nýjum viðbótum fyrir VS Code sem innifela svipaða virkni. Áframhaldandi athuganir: Forritarar Superset hafa tilkynnt um opinbera betaútgáfu sem áætluð er í byrjun maí, með áformum um að bæta við CI/CD‑krókum og markaðsstöð fyrir viðbætur byggðar af samfélaginu. Greiningaraðilar í greininni munu fylgjast með verðtilkynningum, frammistöðumælingum í samanburði við Copilot X, og hvort norræn fyrirt

Allar dagsetningar