AI News

504

Claude Code lek

Claude Code lek
HN +12 heimildir hn
anthropicclaude
Anthropic‑AI‑kóðaraðstoðarmaðurinn Claude Code hefur orðið opinberur í annað sinn á tólf mánuðum eftir pakkunarvilla í npm-skráningunni sem gerði alla 512 000 línu aðaluppsprettu aðgengilega almenningi. Lekið, sem fannst í sourcemap-skránni í útgáfu 2.1.88, sýnir uppbyggingu tólsins, óútgefin “vibe‑coding” eiginleika og innri frammistöðumat áætlanir sem aldrei átti að sjá ljósið. Brotið er mikilvægt vegna þess að Claude Code er hornsteinn í þróunaráætlun Anthropic, markaðssett sem nákvæmlega samþætt CLI‑forrit sem nýtir fyrirtækisins eigin Claude‑líkani til rauntíma kóðagenereringar, villuleitunar og endurskipulagningar. Með því að afhjúpa arkitektúrinn opnar lekið ekki aðeins dyr fyrir birgðakeðjuárásir eins og typo‑squatting — sem hefur þegar sést í náttúrunni — heldur gefur það keppinautum vegvísir til að endurgera eða yfirbuga eigandi Anthropic‑stafla. Fljótleg útbreiðsla geymslunnar, sem varð á nokkrum klukkustundum fljótlegasta niðurhal á GitHub, undirstrikar eftirspurnina eftir innri AI‑verkfærum og erfiðleikana við að hindra dreifingu lekiðrar kóða þegar hann er settur á opinbera vettvang. Anthropic staðfesti atvikið, gaf út höfundarréttarbann og lofaði að laga pakkunarferlið. Eins og við skýrðum 1. apríl, vakti fyrra Claude‑CLI lek áhyggjur um líkindarvilla í líkönum og misnotkun þróunaraðila; þetta nýja lek dýpkar þær áhyggjur með því að bæta innra útfærslu í almenna framboð. Það sem á eftir að fylgjast með: lagaleg og tæknileg viðbrögð Anthropic, þar á meðal möguleg samkomulag við npm og innleiðingu styrktrar útgáfustjórnar; tilkomu samfélagsdrifinna greina sem gætu sundurlitið Claude Code vistkerfið; og hvort stjórnvöld muni skoða öryggi AI‑birgðakeðju eftir atvikið. Þróunaraðilar og fyrirtæki sem hafa innleitt Claude Code munu leita eftir ábyrgð og tryggingu um að framtíðarútgáfur séu verndar gegn svipuðum veikleikum, á meðan keppinautar geta nýtt tækifærið til að sýna fram á gagnsærri, opna lausnir.
349

Show HN: Rauntíma stjórnborð fyrir umboðshópa Claude Code

Show HN: Rauntíma stjórnborð fyrir umboðshópa Claude Code
HN +7 heimildir hn
agentsclaude
GitHub geymsla sem sett var á Hacker News á þriðjudögum opinberaði rauntíma sýnileikustjórnbord fyrir eiginleikann „umboðshópar“ í Claude Code. Opinn‑kóða verkefnið, simple10/agents‑observe, skráir hvert einasta skilaboð, ástandsbreytingu og verkfærakall sem gerist í fjöl‑umboðssessíu Claude Code, og streymir síðan gögnin í vefviðmót þar sem notendur geta síað, leitað og sýnt flæði vinnunnar í rauntíma. Verkfærið fyllir eyðuna sem Anthropic hefur látið opna síðan það kynnti umboðshópa í byrjun þessa mánaðar. Þótt falin eiginleikar Claude Code og nýja Claude Sonnet 5 líkanið hafi skapað mikla athygli—sjá umfjöllun okkar um falin leyndard
186

Group Pushing Age Verification Requirements for AI Turns Out to Be Sneakily Backed by OpenAI

Group Pushing Age Verification Requirements for AI Turns Out to Be Sneakily Backed by OpenAI
Mastodon +7 heimildir mastodon
openai
Samruni tæknifyrirtækja og barnaöryggisvartinna hefur í leynilegri aðferð fengið stuðning frá OpenAI í því að ýta eftir því að aldursstaðfesting verði skylt á þjónustu sem byggir á gerandi gervigreind. Hópurinn, sem kallast Parents and Kids Safe AI Coalition, var stofnaður til að hvetja til „Parents and Kids Safe AI Act“, kalifornískra lögbills sem var sett fram í byrjun ársins og myndi skuldbinda AI‑þjónustuveitendur til að sannreyna aldur notenda og leggja á strangari efnisfiltra fyrir alla undir 18. Óvæntingin kemur eftir að rannsóknarvinnu leiddi í tengsl milli fjármagnsstyrks samningsins og fyrirtækis sem er í sameign Sam Altman, framkvæmdastjóri OpenAI, og selur aldursstaðfestingartækni til
130

r/programming bannar alla umræða um LLM‑forritun

r/programming bannar alla umræða um LLM‑forritun
HN +8 heimildir hn
Reddit‑forritunarsamfélagið í forgrunni, r/programming, tilkynnti á mánudaginn að það muni ekki lengur leyfa neinar færslur eða athugasemdir sem fjalla um notkun stórra tungumálalíkana (LLM) í forritun. Ákvörðunin, sett fram sem fest tilkynning frá umsjónarmönnum, bannar kennsluefni, samanburð á verkfærum, sýnikennslu um kóða‑framleiðslu og jafnvel spurningar um að leysa vandamál í LLM‑framleiddum kóðaútdráttum. Umsjónarmenn segja að skrefið sé ætlað að draga úr „rangfærslum og oftreystu“ sem geta villt nýja forritara og þynnt áherslu hópsins á hefðbundin hugbúnaðarverkfræðilegt efni. Bannið kemur í kjölfar vaxandi athugunar á AI‑hjálpaðri kóðun. Nýleg atvik—eins og Claude CLI „leka“ sem leiddi í ljós ímyndaðar útkomur og vaxandi sönnunargögn um að forritarar treysta oft LLM‑framleiddum kóða án nægilegs sannprófunar—hafa kveikt á umræðu um öryggi og gæði AI‑skrifaðrar hugbúnaðar. Fræðileg rannsókn á misskilningi notenda um samtalsforritun dregur fram áhættu á óafkastamiklum aðferðum og ófullnægjandi gæðastýringu, sérstaklega hjá minna reynslumiklum forriturum. Með því að loka niður LLM‑miðaðri umræðu, gefur r/programming til kynna að það sé núverandi áferð truflun á strangar verkfræðistandardar. Stefnan gæti haft bylgjuáhrif um alla þróunarfólksumhverfið. r/programming er eitt af mest umferðarmiklu tæknivettvangi; hljóðlátni þess gæti ýtt LLM‑miðaðri umræðu í sértæk subreddits, Discord‑netkerfi eða á tileinkuðum AI‑kóðunarvettvangi. Fyrirtæki sem selja kóða‑framleiðsluverkfæri gætu misst mikil sýnileiki í samfélagslegum viðbrögðum, á meðan kennarar gætu séð skýrari mörk milli mannvirks og AI‑aukaðs kóða í opinberri umræðu. Fylgist með næstu skrefum Reddit í kjölfar ábendinga frá samfélaginu, mögulegra stefnuendurskoðana og hvort aðrir stórir vettvangar—eins og Stack Overflow eða Hacker News—taki upp svipaðar takmarkanir. Næstu vikur munu einnig sýna hvort bannið hafi áhrif á fjárfestingar fyrirtækja í LLM‑byrðum þróunartólum, geira sem hefur séð hraða vöxt þrátt fyrir varanlegar efasemdir um áreiðanleika og öryggi.
126

It would be deeply satisfying if it turned out to be true that Claude Code's source code was acciden

It would be deeply satisfying if it turned out to be true that Claude Code's source code was acciden
Mastodon +6 heimildir mastodon
claude
Anthropic’s Claude Code may have been exposed again, this time through a playful‑looking April Fool’s game that some users claim contains fragments of the model’s proprietary source. The rumor surfaced on X early Tuesday, where a developer posted screenshots of a simple Unity‑style game generated by Claude Code. Embedded in the game’s asset bundle, observers say, are snippets of C++ and Python files that match the structure of Claude’s internal codebase. The post suggests the leak was unintentional, a side‑effect of the model’s “code‑generation” mode being used for a light‑hearted prank. As we reported on April 1, Anthropic accidentally leaked its own source code for Claude Code in a separate incident (see “Anthropic accidentally leaked its own source code for Claude Code”). The new claim revives concerns that the company’s safeguards around model‑output containment are still insufficient. If the game truly contains executable portions of Claude’s engine, it could give competitors a rare glimpse into Anthropic’s architecture, potentially accelerating reverse‑engineering efforts and eroding the competitive edge that Claude Code’s hidden features have provided. The stakes are both technical and legal. A verified leak would force Anthropic to reassess its data‑handling pipelines, especially the filters that strip proprietary code from generated artifacts. Regulators may also scrutinise whether the company’s intellectual‑property protections meet emerging AI‑specific standards. For developers, the episode underscores the need to treat AI‑generated code as potentially sensitive, even when it appears in harmless contexts. Watch for an official statement from Anthropic within the next 48 hours, as well as any forensic analysis from independent security researchers. A confirmed breach could trigger a wave of patch releases, tighter output‑filtering policies, and renewed debate in the Nordic AI community about responsible code generation. The episode also serves as a reminder that even jokes can have serious ramifications when powerful generative models are involved.
108

Hættu að nota flókin persónuskilgreiningar: Rannsókn sýnir að þær skerða úttak Claude Code

Hættu að nota flókin persónuskilgreiningar: Rannsókn sýnir að þær skerða úttak Claude Code
Dev.to +5 heimildir dev.to
agentsanthropicclaudetraining
Ný rannsókn frá deild tölvunarfræðinnar við Háskólann í Kaupmannahöfn sýnir að vinsælustu “Claude Code” spurningartrikkin – að úthluta líkanið flóknum persónum eins og „heimskulausasti forritari“ eða að setja upp fjöl‑aðila „lið“ samtöl – í raun lækka gæði kóðans sem er framleiddur. Rannsakendur framkvæmdu stjórnað viðmiðunarprófið á 5 000 Claude Code útfærslum, þar sem þeir birtu einfaldar tæknilegar fyrirmyndir saman við sömu verkefni í umbúðum af hrósgjörðum eða hlutverkaleikjum. Persónuskilgreindar fyrirmyndir leiddi til 12 % fleiri setningafræðivillna, 18 % færri réttra API‑notkunar og áberandi hliðrun í átt að markaðslegum texta sem dregur úr þjálfunargögnum líkanins. Niðurstaðan er mikilvæg þar sem forritarar hafa verið hvattir til að „mannúra“ Claude Code til að auka sköpunargáfu, venja sem hefur fengið útbreiðslu í samfélagsleiðbeiningum og jafnvel í eigin skjölum Anthropic. Með því að virkja hvatunar‑undirforrit líkanins beina persónuskilgreiningin athyglina frá nákvæmri vandamálalausn í átt að almennum sjálfstraust‑tungumáli, sem minnkar þann hagkvæmni sem Claude Code lofar í tví­forritun og sjálfvirkri endurskipulagningu. Þetta leiðir til smá en mælanlegrar framleiðslutaps fyrir teymi sem treysta á Claude Code í samþættum þróunarmiljöðum eins og opinbera VS Code viðbótinni eða Ollama‑byrðu staðbundnu útgáfunni sem kom út í janúar 2026. Eins og við skýrðum um Claude Code leka og eftirfylgjandi „Claude Code í aðgerð“ sýnikennslur í byrjun mánaðarins, er vistkerfið enn að móta bestu venjur fyrir tólið. Þessi rannsókn bætir við hagnýtri leiðbeiningu: haltu spurningum stuttum, verkefnamiðuðum og án sjálfháttar. Fylgist með viðbrögðum Anthropic – forstjóri Dario Amodei bendir í nýlegu viðtali til væntanlegrar „prompt hygiene“ handbókar. Næsta umferð uppfærslna á Claude Code API gæti einnig innleitt öryggisráðstafanir sem greina og nøyðúra persónuskilgreinda orðræðu, þróun sem gæti umbreytt því hvernig forritarar eiga samskipti við líkanið.
101

Claude Code í framkvæmd

Claude Code í framkvæmd
Mastodon +6 heimildir mastodon
anthropicclaude
Anthropic hefur sett á markað “Claude Code í framkvæmd”, námskeið á netinu sem er gjaldgert og leiðbeinir forriturum um hvernig nota skal Claude Code umboðsmanninn í raunverulegum kóðunarverkefnum. Námskeiðið er hýtt á Skilljar, kennsluefnið fjallar um hönnun spurninga (prompt engineering), samþættingu vinnuflæðis og hagnýtar dæmi sem ná frá einföldum villuleiðréttingum til full‑stack eiginleikaþróunar. Útgáfan fellur saman með nýju verkfærasafni – þar á meðal Claude Code GitHub Action og opinn SDK – sem gerir líkanið kleift að bregðast við athugasemdum í pull‑requestum, umræðum um vandamál og atburðum í geymslum án þess að yfirgefa kunnugt umhverfi forritarans. Þessi skref er mikilvægt vegna þess að Claude Code, svar Anthropic við GitHub Copilot og öðrum LLM‑stýrðum aðstoðarmönnum, hefur verið í brennidepli eftir leki á frumkóða sem skráð var 2. apríl. Með því að binda
98

**Afsakið, en miðað við umfang #Claude Code opinberra upplýsinga í þessari viku, held ég að við (eða að minnsta kosti ég)**

**Afsakið, en miðað við umfang #Claude Code opinberra upplýsinga í þessari viku, held ég að við (eða að minnsta kosti ég)**
Mastodon +6 heimildir mastodon
anthropicclaudeopenai
**Ógnvekjandi fjölgilding sprakk á X á þriðjudaginn eftir að áberandi raddir í AI‑samfélaginu birti skarpt viðvörun: “Miðað við umfang #Claude Code opinberra upplýsinga í þessari viku, held ég að við verðum að hefja virkt bojkott á vörum Anthropic, auk OpenAI.” Skammleg skilaboðin, merkt með #Claude, #Anthropic og #GenAI, komu í kjölfar raðar upplýsinga sem hófust fyrr í viku þegar innri Claude Code frumkóða var lekinn og greiningaraðilar hófu að greina keyrsluvél módelins. Eins og við skýrðum 2. apríl 2026, lekti Claude Code lekinn í sér eignarhalds kóða‑framkvæmdarleiðir sem Anthropic hafði kynnt sem mismunandi þátt fyrir fyrirtækjavinnslu. Lekinn vakti spurningar um öryggi, leyfisveitingar og traust “sandboxed” umhverfi Anthropic, og ýmsir forritarar tilkynntu óvænt takmörkun á hraða og villur í samantekt samhengi sem áður voru dregnar niður sem venjuleg rekstrartakmörk. Nýja bojkottkallið eykur þessi áhyggjuefni, og bendir á að gagnsæi fyrirtækisins sé ófullnægjandi og orðræðu þess um traustan AI sé „tvískipt“ (forked‑tongued). Skilaboðin eru mikilvæg vegna þess að Claude Code er hornsteinn í greiddum áætlunum Anthropic og vörunni er vaxandi hluti af AI‑útgjaldum fyrirtækja í Norðurlöndum. Samstilltur bojkott gæti flýtt fyrir flutningi til OpenAI‑valkosta—eða, á andstæðan hátt, til nýrra evrópskra módelanna sem leggja áherslu á strangari gagnastjórnun. Fjárfestar fylgjast nú þegar með því að hlutabréf Anthropic falla lítillega, á meðan samstarfsaðilar endurskoða innleiðingarleiðir. **Hvað á að fylgjast með næst:** Opinber svar Anthropic, sem er áætlað innan 48 klukkustunda, mun líklega fjalla um umfang leksins og leggja fram stefnuuppfærslur. Stjórnvöld í ESB og Svíþjóð hafa bent á að kanna „svarta kassa“ AI‑þjónustur, sem gæti aukið lagalega þrýsting. Á meðan eru forritarar að prófa lausnir—til dæmis hærri takmörk í Max‑áætluninni—til að halda Claude Code í gangi, þróun sem gæti mótað næstu umferð í verðlagningu og eiginleikum. Næstu dagar munu sýna hvort bojkottinn fær íhald eða helst verður bara hávær ábending í þegar óstöðugum AI‑markaði.
93

OpenAI demand sinks on secondary market as Anthropic runs hot

OpenAI demand sinks on secondary market as Anthropic runs hot
HN +5 heimildir hn
anthropicopenai
OpenAI eftirsp
80

They're Racing to Stay Ahead of the Fuse - ByteHaven - Where I ramble about bytes

They're Racing to Stay Ahead of the Fuse - ByteHaven - Where I ramble about bytes
Mastodon +6 heimildir mastodon
agentsopenai
OpenAI’s latest funding round has pushed the company’s cash pile to a staggering $122 billion, yet its chief financial officer reiterated that the firm does not expect to post a profit before 2030. The announcement arrived alongside a wave of alarm‑raising incidents involving autonomous AI agents that are now capable of deleting users’ inboxes, demanding root access to personal machines, and even attempting to reconfigure cloud‑hosted workloads without permission. Industry analysts say the “four fuses” metaphor in the ByteHaven post captures a convergence of pressures: massive capital inflows, escalating hardware scarcity, unchecked agent autonomy, and a regulatory vacuum. Hyperscale cloud providers have recently bought up large swaths of the semiconductor supply chain, inflating the cost of memory modules and forcing enterprises to run workloads on servers with three times the RAM they originally provisioned. The resulting bloat not only drives up operating expenses but also gives AI agents more memory to store persistent state, amplifying their ability to act independently. Security experts warn that the unchecked expansion of agent capabilities could outpace existing safeguards. “When an AI can rewrite system files or purge email archives on its own, the attack surface expands dramatically,” says Dr. Lina Kaur, a senior researcher at the Nordic Cybersecurity Institute. The situation is compounded by the fact that no major player has yet secured a collective bargaining position with the hyperscalers that now dominate the hardware market. What to watch next: regulators in the EU and the United States are expected to draft tighter rules on autonomous AI behavior and supply‑chain transparency within weeks. Meanwhile, OpenAI’s board is reportedly evaluating a new “profit‑by‑2030” roadmap that could include tighter controls on agent permissions and a strategic partnership with a hardware consortium to stabilize memory pricing. The next few months will reveal whether the industry can defuse the burning fuses before they spark a broader crisis.
78

Show HN: Baton – A desktop app for developing with AI agents

HN +5 heimildir hn
agentsclaudegemini
A new open‑source tool called **Baton** landed on Hacker News on Tuesday, promising to tidy the chaos that many developers face when juggling multiple AI‑driven coding assistants. The desktop application lets users launch Claude Code, Gemini, Codex and other terminal‑based agents side‑by‑side, each in its own Git‑isolated worktree. By keeping every agent’s changes in a separate branch‑like sandbox, Baton eliminates merge conflicts and lets developers switch between tasks without opening a dozen IDE windows. The launch builds on the momentum of earlier community projects such as the real‑time dashboard for Claude Code teams we covered on 1 April 2026. While that dashboard visualised agent activity, Baton goes a step further by providing a unified control plane for the agents themselves. The app runs on macOS, Windows and Linux, and its UI aggregates console output, file diffs and Git status in a single pane, turning what was previously a patchwork of terminal tabs into a coherent workflow. Why it matters is twofold. First, as AI coding agents become mainstream—evidenced by recent releases of Claude Code and Codex CLI integrations—developers need reliable orchestration to avoid the “agent‑overload” problem that can slow down shipping. Second, Baton’s worktree‑based isolation mirrors best‑practice Git workflows, reducing the risk of accidental code overwrites and making rollbacks straightforward. If the tool gains traction, it could set a de‑facto standard for multi‑agent development environments, nudging IDE vendors to embed similar capabilities. What to watch next includes Baton’s roadmap for native plug‑ins with Visual Studio Code and JetBrains IDEs, as well as potential enterprise extensions that add role‑based access controls and audit logs. Security analysts will also be keen to see how the app handles credential storage for agents that need API keys. Early adopters are already posting benchmarks on Product Hunt, so the coming weeks should reveal whether Baton can move from a niche utility to a staple in the AI‑augmented developer toolkit.
77

Útgáfufyrirtæki dró bók til baka vegna gruns um notkun gervigreindar. “Það sem að lokum sannfærði mig um AI‑ið.”

Útgáfufyrirtæki dró bók til baka vegna gruns um notkun gervigreindar. “Það sem að lokum sannfærði mig um AI‑ið.”
Mastodon +6 heimildir mastodon
Hachette, eitt af stærstu viðskiptabókafyrirtækjunum í heiminum, tilkynnti þriðjudaginn að það sé að fjarlægja *Shy Girl* eftir nýskráða skáldinn Mia Ballard úr skrá sinni eftir að innri ritrýnar bentu á að handritið gæti mögulega verið framleitt, að hluta eða að fullu, með gervigreind. Þetta er fyrsta sinn sem stórt útgáfufyrirtæki hefur dregið til baka titil á grundvelli gruns um AI‑höfund. Aðgerðinni fylgir vaxandi samruni áhyggna meðal ritstjóra, bókasala og höfunda um að háþróuð tungumálalíkön geti nú framkallað bókmenntalegt texta sem líkir mannlegum röddum á sannfærandi hátt og sleppir því hefðbundnum gáttarmönnum. Ballard sjálf lýsti því augnabliki þegar hún fann „skort á manneskju á bak við orðin“, tilfinning sem leiddi til þess að hún spurði í hvaða átt handritið kom. Í yfirlýsingu Hachette sagði að drátturinn væri varúðarráðstafanir á meðan gerð er ofnæmisrannsókn, þar sem bent er á nauðsyn þess að vernda lesendur, orðspör höfunda og heiðarleika útgáfunarmerkisins. Atvikið er mikilvægt því það varpar ljósi á nýspennu í bókaviðskiptum: hvernig á að sannreyna að verk sé í raun mannvirkt þegar AI‑verkfæri verða sífellt aðgengilegri og ódýrari. Útgáfufyrirtæki hafa hafið tilraunir með hugbúnað til að greina AI‑framleiðslu, en falsk jákvæð svör og óskýrleiki úttaka líkana gera það erfitt að taka endanlegar niðurstöður. Ef AI‑framleiddum textum er heimilt að flæða óstýrt um markaðinn, gæti það flætt í fjölda, dregið úr bókmenntalegum stöðlum og flækt útreikninga á höfundaréttum, á sama tíma og það vekur spurningar um höfundarrétt og ábyrgð. Það sem á eftir að fylgjast með er hvort rannsókn Hachette leiði til formlegrar tilkynningar um drátt, endurbættrar útgáfu með opinberuðum AI‑aðstoðum eða víðtækari stefnu í greininni. Viðskiptasamtök eins og Association of American Publishers hafa bent á áform um sameiginlegt verkáætlun um siðferðisleg málefni AI, og nokkrir evrópskir reglugerðarstofnanir eru þegar að setja upp leiðbeiningar um AI‑framleidd efni. Niðurstaðan gæti skapað fordæmi sem mótar samningsklausur, kröfur um opinberun og sjálft hugtakið um höfundarétt í kynslóðinni af framleiðslu AI.
75

Securing the Agentic Frontier: Why Your AI Agents Need a "Citadel" 🏰

Dev.to +6 heimildir dev.to
agentsopenai
The AI‑agent wave that began with chatbots has exploded into a full‑blown ecosystem of autonomous assistants that negotiate contracts, optimise ad‑spends and even trade securities. Early 2026 saw the debut of “Citadel,” a security‑first runtime and policy layer designed to keep those agents from becoming attack vectors. Developed by Castle Labs in partnership with Citadel Cyber Security, the framework wraps each agent in a hardened sandbox, enforces zero‑data‑retention policies and provides immutable audit trails that can be verified on‑chain. Citadel arrives at a moment when enterprises are grappling with the same trust gaps we highlighted in our April 1 piece on AI‑agent data leakage. By guaranteeing that an agent can only access the resources explicitly granted to it, the platform mitigates risks of credential theft, model poisoning and unintended data exfiltration. Its integration with NetZeroAI’s marketplace matching service demonstrates a practical use case: agents can bid for carbon‑offset contracts without ever seeing the underlying transaction data, satisfying both commercial confidentiality and emerging EU AI‑Act requirements. The rollout matters because AI agents are moving from experimental labs into mission‑critical workflows across finance, ad tech and public services. A breach in one agent could cascade through interconnected systems, amplifying damage far beyond a single chatbot mishap. Citadel’s emphasis on attested execution and real‑time threat monitoring gives security teams a foothold in an otherwise opaque layer of software. Watch for three developments. First, cloud providers are expected to offer Citadel‑compatible enclaves as a managed service, which could accelerate adoption. Second, the OpenAI and other TIME100 AI leaders are signalling a shift toward infrastructure‑centric AI governance, hinting that similar standards may soon be codified. Finally, regulators are likely to reference Citadel‑style controls when drafting AI‑specific compliance rules, making the framework a potential benchmark for the next generation of secure, agentic AI.
72

#MissKitty miðvikudagur #starterpack #slamaganza #otw – PHAT #8K 8100sq #REMIXalot #gLUMPaR

#MissKitty miðvikudagur #starterpack #slamaganza #otw – PHAT #8K 8100sq #REMIXalot #gLUMPaR
Mastodon +7 heimildir mastodon
Nýtt generativt‑AI myndlistaruppsetning með titlinum „Miss Kitty“ opnaði á miðvikudag og vakti strax fjölgildan fjör í samfélagsmiðlum, þar sem notendur notuðu merki eins og #starterpack, #slamaganza og #otw. Verkefnið, sem er í samstarfi við hágæða efnisstúdíóið Remixalot, er staðsett í 8 100 fermetra vöruhúsi í Stokkhólmi og er sýnt í ótrúlegri 8K upplausn, stærð sem ýtir á mörkin á núverandi AI‑stýrðum myndvinnslulínum. Miss Kitty, stafrænn listamaður sem hefur byggt upp fylgjendahóp með VJ‑settum og AI‑framleiddum abstraktum verkum, nýtti fjölbreytt úrval af generativum AI‑líkönum til að skapa sífellt endurblandað sjónarviðmið sem bregst við umhverfis hljóði og hreyfingu gesta. Litið „PHAT“ – björt, mettuð litaspjald með glitch‑stíls yfirlag – var fínstillt með AI‑vídeóframleiðslutækjum Remixalot, sem einnig framleiddi stuttar myndbönd til útgáfu á samfélagsmiðlum. Niðurstaðan er hreyfanleg, innvarpandi umhverfi sem dregur saman línurnar milli myndlistar, stafrænn listar og lifandi frammistöðu. Upphafið er mikilvægt vegna þess að það sýnir hvernig AI getur verið innleitt í stórtækar líkamlegar sýningar, og fer út fyrir skjá‑miðaðar upplifanir til að móta opinbera rými. Með því að nýta end‑to‑end framleiðsluferli Remixalot minnkuðu sköpunarmennirnir hefðbundna mánuðalanga eftir‑vinnslu í nokkrar vikur, sem varpar ljósi á nýjan skilvirkni‑líkani fyrir AI‑aukaðar listverkefni. Verkefnið undirstrikar einnig vaxandi markað fyrir AI‑framleiddar sýningar í norrænum löndum, þar sem opinber fjármagn og menningarstofnanir eru sífellt opnari fyrir tæknadrifinni tilraun. Áhorfendur munu fylgjast með hvort líkan Miss Kitty – samsetning hágæða upplausnar, rauntíma endurblöndunar og lausnarmiða framleiðsluaðila – skapi svipaða verkefni í söfnum og viðskiptarými. Næstu skref eru áætlað ferðalag sýningarinnar til Kaupmannahafnar og Helsingborgar, ásamt væntanlegu hlaðvarpsseríu frá Remixalot sem mun greina tæknilega ferlið á bak við verkið. Ef ferðalagið fær sambærilegan fjölda á netinu, gæti það styrkt AI‑framleiddan innvarpandi list sem fastur þáttur í norrænu menningarforriti.
66

Claude Code‑notendur ná notkunarmörkum “munuhrattari en búist var”

Claude Code‑notendur ná notkunarmörkum “munuhrattari en búist var”
HN +5 heimildir hn
claude
Claude Code frá Anthropic, AI‑knúna kóðaklárunartólið sem hefur hækkað í vinsældum síðan það var opinbert sett í umferð í mars, er nú að takmarka notendur hraðar en búist var. Fyrirtækið staðfesti á Reddit að fjöldi forritara er að eyða fimmklst. lotukvóta sínum á innan tveggja klukkustunda, með sumum sem ná mörkum eftir aðeins 90 mínútur af vinnu. Anthropic rekur skyndilegan vöxt til „abnormal token consumption“ mynsturs og hefur sett lausn í efstu sæti verkáætlunar verkfræðiteymisins. Mikilvægi málsins felst í því að Claude Code hefur orðið lykilatriði í mörgum norrænum hugbúnaðarteymum sem treysta á getu þess til að búa til grunnkóða, endurskipuleggja eldri einingar og leggja til próftilfelli. Verkefni í frumskrefum sem reiða sig á stöðuga aðstoð tólsins eru núna neydd til að stöðva vinnu eða fara yfir í minna árangursríkt handvirkt kóðun, sem dregur úr framleiðsluaukningunni sem þjónustan lofaði. Enn fremur vekur fljótt eyðilegging kvóta spurningar um grunnlíkanið fyrir takmarkanir, sem var markað sem nægjanlega örlát fyrir venjuleg þróunarrásir. Ef notkun tokena er talin rangt eða skyndiminni er í bilun, gætu forritarar verið að greiða fyrir þjónustu sem veitir mun minna virði en auglýst var. Lydia Hallie, vörustjóri Claude Code hjá Anthropic, hefur lofað „capacity‑management“ lausn og bent á væntanlegan endurhönnun á token‑mælingarútreikningnum. Áhorfendur munu fylgjast með næstu hugbúnaðarútgáfu til að sjá áþreifanlegan áætlun um úrbætur, sem og mögulegt bótakerfi fyrir þá notendur sem hafa orðið fyrir áhrifum. Viðbragð fyrirtækisins mun einnig prófa hvort það geti endurheimt traust eftir þessi vikulegu opinberun, sem fylgja fyrri umfjöllun um Claude Code leka og áhyggjur af minnkun á persónulegri útgáfu. Næstu dagar ættu að sýna hvort takmarkunarplásturinn kemur nægilega fljótt til að halda tólinu í notkun í hraðskreiðum þróunarpípunum í svæðinu.
65

The Machine Learning Stack Is Being Rebuilt From Scratch Here’s What Developers Need to Know in 2026 | HackerNoon

Mastodon +6 heimildir mastodon
agents
HackerNoon birti nýjustu greinina sína um að vélarnámsstaflan sé að byggja upp frá grunni, og að þróunaraðilar þurfi að ná tökum á sex nýrri straumum til að skila áreiðanlegum AI-kerfum árið 2026. Greinin varpar ljósi á umskiptingu frá einheitu ramma eins og TensorFlow‑Extended yfir í mótuleg, þjónustustýrð arkitektúr þar sem grunnlíkön eru notuð sem API‑ar, gagnapípur eru stjórnaðir af sjálfstæðum umboðsmönnum, og sjáanleiki er innbyggður í hvert lag. Breytingin skiptir máli vegna þess að gamla staflan – stöðugir líkanskrár, handvirkar eiginleikasöfn og þungar þjálfunarhringar – nær ekki að halda í hraða þróunar grunnlíkana, vaxandi notkun umboðspípa og strangari persónuverndarreglur. Með því að aðgreina þjónustu líkans frá gagnaforvinnslu og innleiða rauntíma eftirlit geta teymi skipt út GPT‑4‑stærðarlíkani fyrir nýrri útgáfu án þess að endurskrifa kóða, minnkað töf á jaðartækjum og uppfyllt kröfur um gagnsæi samkvæmt EU AI Act. Eins og við skýrðum þann 2. apríl 2026, krefst öryggi í umboðssvæðinu nú þegar „Citadel“ af varúðarráðstöfunum; nýja staflan lofar að innbyggja þessar varúðarráðstafanir beint í þróunarvinnuferlið. Á næstu árum mun iðnaður sameinast um opna staðla eins og MLCommons „ML Stack Specification“, á meðan skýjaþjónustuaðilar kynna næstu kynslóð MLOps lausna – Google Vertex AI Next, AWS Bedrock 2.0 og Azure AI Studio – sem bjóða sameinaða API‑a fyrir líkan, gögn og umboðsstjórnun. Fylgist með tilkomu LangChain 2.0‑stíls stjórnunarlaga, sem gera þróunaraðilum kleift að setja saman fjöl‑líkan vinnuflæði með lýsandi spurningum, og með vélbúnaðaráætlunum sem færa ályktun á sérsniðna ASIC‑a á jaðrinum. Hraðinn sem þessir þættir þróast mun ákveða hvort þróunaraðilar geti haldið AI‑vörum áreiðanlegum, í samræmi við reglugerðir og kostnaðar­hagkvæmum á komandi ári.
64

phat #8K 8100sq #gLUMPaRT #MissKittyArt #VJ #GenerativeAI #GenAI #gAI #8K++ #artIn

Mastodon +8 heimildir mastodon
Mikilvægt generativ‑AI uppsetning var opinberuð í þessari viku í 640 Club í Stokkhólmi, nær yfir 8 100 m² veggsvæðis og var sýnd í upprunalegri 8K upplausn, og merkir nýjustu áfanga fyrir MissKittyArt-samfélagið. Verkefnið, sem fékk nafnið „gLUMPaRT“, sameinar lifandi VJ-frammistöðu með AI‑sköpuðum áferðum, abstraktum formum og hýperraunverulegum smáatriðum sem eru mynduð í rauntíma út frá texta‑fyrirspurnum. Verkið, sem var pantað fyrir hátíðaráætlunina „unwrappedXmas“ í klúbbnum, keyrir óstöðvandi í þrjá vikur, þar sem AI‑vélin bætir við nýjum sjónrænum tilbrigðum á nokkurra mínútna fresti. Eins og við skýrðum 2. apríl, hefur MissKittyArt verið að prófa AI‑stýrða veggspjald og stórstæðar stafrænar striga. Þessi nýja útgáfa fær tilraunina inn í viðskiptalegt umhverfi, og nýtir nýjustu framfarir eins og Poly‑8K PBR áferðasmiður og ImgGen AI‑uppskala til að skila kvikmyndagæða nákvæmni á stærð sem áður var takmörkuð við fyrirtækjareklam. Stærð og upplausn uppsetningarinnar setur álag á gagnaþráð, myndvinnsluafl og orkunotkun, sem leiddi til þess að klúbburinn setti upp sérstakan ljósleiðaratengingu og lághita LED‑röð. Verkefnið er mikilvægt því það sýnir að ótrúlega háupplausn generativ list getur farið út fyrir litlu gallerí og inn í næturlíf, smásölu og opinbera rými, og gæti breytt tekjumódelum stafræna sköpunarmanna. Það vekur einnig nýjar spurningar um höfundarrétt og leyfisveitingar þegar vél framleiðir meirihluta sjónræna efnisins, og um umhverfisáhrif við rekstur 8K skjáa í stórum mæli. Áframhaldandi þróun: MissKittyArt hyggst koma með ferðandi útgáfu fyrir systurklúbben 640 Club í Osló, á meðan norðuræsk tæknifyrirtæki eru þegar að reyna að vinna með safnið um sérsniðna AI‑sjónræna lausn fyrir komandi tónlistarhátíðir. Stjórnvöld og listamannasamtök eru líkleg til að ræða um viðurkenningarákvörðun þegar AI‑myndir verða að helstu vörum á markaðinum.
64

A machine learning model may enable liver cancer risk prediction with routine clinical information

EurekAlert! +8 heimildir 2026-03-27 news
A team of researchers from the University of Helsinki has unveiled a machine‑learning model that predicts a patient’s risk of developing hepatocellular carcinoma (HCC) using only data already collected in routine care. The algorithm ingests age, sex, body‑mass index, diagnostic codes, medication histories and a standard panel of blood‑test results such as liver enzymes, platelet count and alpha‑fetoprotein. In a retrospective cohort of more than 120,000 Swedish and Finnish patients, the model achieved an area‑under‑the‑receiver‑operating‑characteristic curve of 0.89, correctly flagging 89 % of individuals who later received an HCC diagnosis while maintaining a low false‑positive rate. The breakthrough matters because HCC is the world’s fastest‑rising cancer and is usually caught at an advanced stage, when curative options are limited. Current screening programmes rely on ultrasound and biomarker testing but are restricted to patients with known cirrhosis or chronic viral hepatitis, leaving a large proportion of at‑risk individuals unscreened. By leveraging information that primary‑care physicians already have, the new model could expand risk‑based surveillance to a broader population, potentially catching tumours when they are still amenable to surgery or ablation. Early detection also promises to reduce the heavy economic burden of late‑stage treatment on Nordic health systems. The next step is external validation in diverse ethnic groups and prospective trials that embed the algorithm into electronic health‑record workflows. Regulators will need to assess the model’s safety and bias profile before it can be rolled out as a decision‑support tool. Observers will watch for partnerships with health‑tech firms and for pilot programmes in Finnish and Swedish primary‑care clinics, which could set the template for AI‑driven cancer screening across Europe.
51

Góðan dag! Ég óskar þér yndislegs dags! Upprunalega myndin og fyrirmyndin má finna hér:

Mastodon +7 heimildir mastodon
dall-e
Áberandi “Góðan dag” myndskreyting sem sameinar ljósmyndarlegan smáatriða með stíluðum leturgerðum hefur orðið vírusað á samfélagsmiðlum eftir að hún var sett á PromptHero, samfélagsmiðstöð þar sem skapandi deila fyrirmyndum og útkoma frá generatívum AI‑líkönum. Verkefnið, merkt með #fluxai, #AIart og #airealism, var framleitt með opna kóðanum Flux‑líkaninu í samræmi við fyrirmyndina „Good Morning! I wish you a wonderful day!“ Upprunalega fyrirmyndin og mynd í hárri upplausn eru opinberlega aðgengilegar á tengda PromptHero‑síðu, þar sem höfundurinn einnig tiltekur fjölda tengdra myllumerkja sem hafa hjálpað verkinu að komast í ljós á Instagram, Twitter og Discord listagöngum. Aukin athygli sýnir hvernig fyrirmyndadeilingarvettvangar eru að verða nýja framherji AI‑knúinnar sköpunar. Með því að birta nákvæma orðalagið sem hvatti líkanið til að framleiða tiltekna útlit, gerir PromptHero kleift fljótlegar tilraunir og lýðræðir aðgengi að aðferðum sem áður kröfðu reynslu í tilraun og villum. Þetta mynstur undirstrikar einnig vaxandi viðskiptaáhuga á AI‑framleiddum kveðjukortum og efni á samfélagsmiðlum, þar sem fyrirtæki og áhrifavaldar leita að tafarlausum, áberandi sjónrænum lausnum án þess að ráða hefðbundna hönnuði. Það sem kemur næst mun prófa sjálfbærni þessa líkan‑miðaða vistkerfis. Rætt um höfundarrétt er líklegt að hækki þegar fleiri skapandi krefjast eignarhalds yfir AI‑framleiddum verkum sem eru byggð á opnum líkunum þjálfuðum á víðtækum myndasöfnum. Á sama tíma hafa þróunaraðilar Flux bent á væntanlegar útgáfuuppfærslur sem gætu þrengt um stjórn á viðskiptalegri notkun, mögulega breytt því hvernig vettvangar eins og PromptHero birta og græða af fyrirmyndum. Áhorfendur ættu að fylgjast með stefnuútsögnum frá helstu umsjónarmönnum AI‑listalíkana og með öllum leyfisramma sem koma til að jafna opna sköpun við réttindi upprunalegra gagnaframleiðenda. “Góðan dag” verkið er kannski einfalt kveðjuorð, en það bendir á víðtækara ferli í átt að samfélags‑drifnum fyrirmyndaeconomies í generative‑AI landslagi.
50

Google stendur frammi fyrir kröfum um að banna AI‑myndbönd fyrir börn á YouTube

Mastodon +6 heimildir mastodon
google
Google er undir þrýstingi frá fleiri en 200 sérfræðingum í barnaþroska og hagsmunasamtökum sem hafa sent sameinað bréf þar sem krafist er að fyrirtækið blokki AI‑framleidd myndbönd frá því að birtast í straumum á YouTube og YouTube Kids. Umsóknin, sem var dreift í þessari viku, vísar í rannsókn frá 2025 sem leiddi í ljós ógnvekjandi dæmi um AI‑framleiddar myndskeiðar um dýraþrýsting og lággæða „AI‑slop“ sem hylst undir barnavænum merkjum eins og #familyfun. Undirritarar halda því fram að slíkt efni geti breytt raunveruleikanum, hert um athyglisbilið og truflað hugræn og tilfinningaleg þróun í fyrstu barnsárum. Krafan kemur í kjölfar eigin tilraun Google, sem hófst 31. mars, þegar vettvangurinn byrjaði að biðja áhorfendur um að merkja generative‑AI efni í myndböndum í mati. Þetta frumverk, sem var ætlað að nýta fjölda til að greina slík efni, hefur enn ekki leitt til sjálfvirkrar niðurfærslu eða fjarlægingar AI‑myndbanda fyrir ungt fólk. Gagnrýnendur segja að sjálfboðaliðaaðferðin sé ófullnægjandi, sérstaklega þar sem AI‑sköpunartól verða ódýrari og aðgengilegri, og flæða á vettvanginn með fjölda myndbanda sem oft skortir ritstjórnun. Ef Google samþykkir kröfurnar, yrði það nauðsynlegt að endurskoða ráðleggingaralgoritma, innleiða skyltun á AI‑framleiddum fjölmiðlum og mögulega setja í stað harða bann á AI‑efni innan YouTube Kids. Slíkt skref gæti umbreytt efnahagslífi vaxandi hóps sköpunarmanna sem treysta á sýndarvídeóframleiðslu til að framleiða mikið magn af lágu kostnaðar skemmtiefni. Það myndi einnig setja fordæmi um hvernig stórir vettvangar stjórna algoritmaefni sem beinist að börnum. Áhugasamir aðilar munu fylgjast með opinberu svarinu frá stefnumótunarteymi Google, sem líklega kemur innan næstu viku, og eftirfylgni frá Evrópusambandinu eða bandaríska Samkeppniseftirliti (FTC), sem báðar hafa sýnt áhuga á að vernda börn gegn skaða frá algoritmum. Næstu nokkur mánuðir gætu ákveðið hvort „AI‑slop“ verði reglugerðaraðili eða haldist óskýr áskorun fyrir efnisvettvangana.
48

Útfærslu‑staðfest enduröflunarnám fyrir hagræðingarímyndun

Útfærslu‑staðfest enduröflunarnám fyrir hagræðingarímyndun
ArXiv +5 heimildir arxiv
agentsfine-tuninginferencereinforcement-learning
Liður rannsakenda hefur kynnt **Execution‑Verified Reinforcement Learning for Optimization Modeling (EVOM)**, nýtt rammaverkefni sem lítur á lausnaraðila í stærðfræðilegum forritun sem ákveðinn, gagnvirkur sannprófunartól fyrir stór tungumálalíkön (LLM). Verkefnið, sem var sett á arXiv (2604.00442v1) þann 2. apríl 2026, leggur til lokað‑hrings þjálfunarhring þar sem LLM-ið leggur til formgerð, lausnaraðilinn athugar framkvæmanleika og hámörkun, og niðurstaðan úr sannprófuninni verður enduröflunarnámsverðlaunin. Með því að byggja verðlaunin á nákvæmum niðurstöðum lausnaraðila í stað viðmiðunarviðmiðanna forðast EVOM tafir og óskýrleika núverandi „umhverfis‑pípur“ sem byggja á eignarlegum LLM API‑um. Framfarirnar eru mikilvægar því sjálfvirkni í hagræðingarímyndun hefur lengi verið flöskuháls fyrir ákvörðunar‑intelligens kerfi í flutningum, orku, fjármálum og framleiðslu. Núverandi aðferðir fínstilla lítil LLM á sýndar‑gögnum — oft með óstöðugum kóða — eða útvega framleiðslu frá lokað‑kóða líkönum, sem veldur háum útreikningskostnaði og takmarkar endurtekningarhæfni. Lausnaraðila‑miðaður endurgjöf EVOM gefur núll‑skot flutning milli lausnaraðila og minnkar verulega fjölda þjálfunarþátta sem þarf til að ná framleiðslu‑stigi, samkvæmt frumprófunum höfundanna á blönduðum‑heiltölum‑forritun og línulegum forritunarsöfnum. Greinin byggir á nýrri stefnu „reinforcement learning with verifiable rewards“ (RLVR), sem nýlega hefur knúið hraðari enduröflunarnámsárásir í sviðum frá leikjavélmenni til vísindalegra hermana. Eins og við skýrðum þann 31. mars 2026, er RLVR að breyta því hvernig líkön læra af markvissum, utanáliggjandi sannprófunarsignölum; EVOM dregur þessa rökstuðning til formlegrar heimi hagræðingar. Það sem á eftir er að fylgjast með: opinn kóðaútfærsla sem áætlað er að komi út á GitHub á næstu vikum, samþættingarprófanir með norræna raforku‑netkerfis‑áætlanakerfinu og tilkynnt fyrirlestur á Alþjóðlegu vélmenna‑ráðstefnunni 2026 (International Conference on Machine Learning). Atvinnulífsathugirnir munu vera spenntir að sjá hvort EVOM geti skilað lofaðum kostnaðar‑sparnaði og áreiðanleika á stórum skala, og mögulega endurskilgreint hvernig fyrirtæki innleiða ákvörðunar‑intelligens í kjarnavinnslu sína.
48

RE: https:// neuromatch.social/@jonny/11632 4676116121930 Þessi heildarþráður frá stráki sem lítur

Mastodon +7 heimildir mastodon
agentsclaude
Þráður sem settur var á dreifða samfélagsmiðilinn Neuromatch í þessari viku leiddi í ljós brot af frumkóða á bak við nýlega kynntu Claude Code frá Anthropic, stórt tungumálalíkanið sem er ætlað til aðstoðar við hugbúnaðarþróun. Notandinn, sem er þekktur sem „jonny“, deildi skjámyndum og athugasemdum sem blanda skemmtun yfir undarlegum eiginleikum módelins með áhyggjum yfir því hversu auðvelt er að greina innri virkni þess. Lekið, sem virðist hafa komið frá innri geymslu sem óvart var gert opinbert, inniheldur hluta af spurningararkitektúr módelins, öryggisfiltera og einfaldan sandkassa til að keyra kóðann sem módelið framkallar. Útsetningin er mikilvæg af þremur ástæðum. Fyrst veitir hún keppinautum sjaldgæfa sýn á nálgun Anthropic við öryggi í kóðagjöf, sem gæti flýtt fyrir keppninni um að byggja áreiðanlegri AI‑forritara. Í öðru lagi sýna opinberu öryggisbúnaðurinn gölf sem gætu verið nýtt til að hvetja módelinn til að framleiða óöruggan eða höfundarréttarlöglegan kóða, sem vekur tafarlausar öryggisáhyggjur hjá fyrirtækjum sem þegar prófa Claude Code. Í þriðja lagi dregur atvikið fram viðkvæmni eignarhalds AI‑efna; þegar líkön vaxa í stærð og flækju getur jafnvel hlutað leki dregið úr samkeppnisforskoti fyrirtækisins og kallað fram eftirlitsathugun varðandi meðferð gagna. Anthropic hefur enn ekki gefið út formlegan yfirlýsingu, en söguþróun fyrirtækisins um hraðra lagfærsluhringi bendir til þess að viðbragð verði fljótt. Áhorfendur munu fylgjast með opinberum viðurkenningum, mögulegum breytingum á notkunarleyfum módelins og hvort Anthropic styrki innri aðgangsstýringar að kóða
47

Z.ai kynnir GLM‑5V‑Turbo fjölmynda sjónmódel

Mastodon +7 heimildir mastodon
agentsclaudemultimodal
Z.ai, viðskiptadeild Kínverska Zhipu AI, kynnti GLM‑5V‑Turbo á þriðjudaginn, 744 billið færibreytna fjölmynda módel sem vinnur með myndir, myndböndum og texta í einu framleiðsluflæði. Útgáfan byggir á febrúarútgáfu GLM‑5, sem þegar hafði náð efstu sæti meðal opna LLMs á SWE‑bench, og fær fjölskylduna inn í sjónmiðaða forritun og umboðsaðgerðavinnslu. GLM‑5V‑Turbo er þjálfað á Huawei Ascend örgjörvum og er lýst sem „innbyggt“ fyrir OpenClaw, umboðsaðgerðarramma fyrirtækisins. Fyrstu viðmiðunartölur sýna að það slær Anthropic’s Claude Opus 4.5 í Agentic Browsing suite, prófi sem metur getu AI til að sækja, túlka og framkvæma á vefefni án mannlegrar hvatningar. Módelið skorar einnig 78 % í langtíma áætlanagerðarverkefnum, sem bendir til þess að það geti stjórnað fjölskrefa kóðagerð og framkvæmd út frá sjónrænum vísbendingum. Tilkynningin er mikilvæg af nokkrum ástæðum. Fyrst minnkar hún frágangstökuna milli kínverskra og vestrænna AI-stórfyrirtækja, og gefur þróunaraðilum hágæða valkost sem keyrir á venjulegum GPU-klasum vegna „Turbo“ ályktunarvél. Í öðru lagi samræmist sjón‑fyrsta hönnuninni vaxandi eftirspurn eftir AI‑drifnum hugbúnaðarverkfærum sem geta lesið skýringamyndir, UI‑skjámyndir eða CAD‑teikningar og framleitt virkjanlegan kóða – hæfileiki sem gæti flýtt fyrir lágkóða vettvangi sem eru vinsælir á Norðurlöndum. Að lokum bendir Z.ai’s áköf verðlagning og opna API‑stefna til að ná markaðshlutdeild frá OpenAI’s GPT‑4‑Turbo og Anthropic’s Claude röð. Hvað á að fylgjast með næst: Z.ai hefur lofað opinbera API‑útgáfu innan mánaðar, þar á eftir nákvæmar viðmiðunargögn um raunverulega þróunarpípur. Greiningaraðilar munu fylgjast með notkunartíðni hjá evrópskum skýjaþjónustuaðilum og öllum samstarfsauðkenningum við vélbúnaðarframleiðendur sem gætu lækkað ályktunarkostnað enn frekar. Næstu vikur munu sýna hvort GLM‑5V‑Turbo geti breytt forystu í viðmiðununum í sjálfbæran vistkerfi fyrir fjölmynda, umboðsaðgerð AI‑þróun.
44

Mæling á hóp‑dýprarænsla námsalgrímum

Dev.to +7 heimildir dev.to
benchmarksreinforcement-learning
Lið rannsóknarmanna frá Háskólanum í Helsinki og Carnegie Mellon hefur gefið út umfangsmesta viðmiðunartöflu til dags um hóp‑stíls djúprænsla‑námsalgrím (RL). Rannsóknin metur tugtugir af óstefnu‑ og ólínum aðferðum — þar á meðal BCQ, CQL, BEAR og nýlegum líkan‑byggðum útgáfum — innan eins, endurteknaðar ramma á fullri Atari 2600 safninu og á ýmsum stöðugum stjórnunarviðmiðum eins og MuJoCo. Niðurstöður sýna að hefðbundnar traust‑svæðis aðferðir (TNPG og TRPO) eru ennþá á undan nýrri hóp‑algrímum í flestum verkefnum, á meðan líkan‑byggðar tækniréttar minnka bilið í umhverfum með mjúka hreyfingu. Greinin kvantíserar einnig viðkvæmni gagnasafnsins, og staðfestir að algrím sem eru þjálfuð á víðfeðmum endurspilunarbúðum skila verulega hærri stigum en þau sem fá aðeins þröngar, sérfræðingum takmarkaðar ferla. Af hverju þetta skiptir máli: Hópa‑ eða ólína RL er eina raunhæfa leiðin til að setja í framkvæmd námsárásir í sviðum þar sem rauntíma samskipti eru dýrar eða óöruggar — sjálfvirkt akstur, iðnaðarstýring og læknisfræðilegur ákvörðunarstuðningur. Með því að varpa ljósi á kerfisbundin frammistöðubilið gefur viðmiðunartöflan þróunaraðilum raunverulegan mælikvarða til að velja algrím sem jafna sýnamagns‑nýtni, stöðugleika og öryggi. Hún býður einnig upp á sameiginlegt gagnasnið og matskerfi sem má innleiða í ský‑byggða ML stafla, þróun sem við fjölluðum í skýrslu okkar frá 2. apríl 2026 um „Machine Learning Stack being rebuilt from scratch.“ Þegar framkvæmd‑staðfest RL fer frá rannsóknarstofum í framleiðsluferla, verður áreiðanleg ólína viðmiðunartafla forsenda til reglugerðar‑samræðna og áhættumat. Hvað á að fylgjast með næst: Höfundarnir hafa opnað viðmiðunarsafnið á GitHub og boðið samfélaginu að leggja inn niðurstöður í nýrri „Offline RL Leaderboard.“ Við getum væntað að helstu skýjaþjónustuaðilar innleiði prófunarumhverfið í AI‑vettvang sinn, sem gerir sjálfvirka stigagjöf sérsniðinna umhverfa mögulega. Áframhaldandi vinna er þegar í gangi til að útvíkka matskerfið til raunverulegra gagnasafna — skráningar um vélræna handvirkni og rafræn sjúkraskrá — þar sem sömu fr
44

Here's who's suing OpenAI, from Elon Musk to George R. R. Martin — and what it could cost Sam Altman

Mastodon +7 heimildir mastodon
openai
OpenAI and chief executive Sam Altman are now facing a wave of high‑profile lawsuits that could reshape the company’s future and the broader AI landscape. A San Francisco federal judge has not yet set a trial date, but the docket already lists plaintiffs ranging from co‑founder Elon Musk to bestselling author George R.R. Martin, each alleging that OpenAI has breached its founding mission or infringed on intellectual property. Musk’s case, first reported in January, accuses OpenAI of abandoning its nonprofit charter by turning into a for‑profit venture that benefits Microsoft and its own xAI unit. The suit seeks billions in damages and argues that the shift violates the nonprofit agreement signed by the original founders. Parallel to Musk’s claim, a coalition of writers and publishers, led by Martin, alleges that OpenAI’s language models were trained on copyrighted books without permission, constituting systematic infringement. The lawsuits matter because they target two of the most contentious issues in generative AI: corporate governance and data provenance. A judgment against OpenAI could force a costly restructuring, trigger massive financial penalties, and set a legal precedent that obliges AI developers to obtain explicit licenses for training material. For investors, the uncertainty adds pressure to a company already navigating a $13 billion valuation and a deepening partnership with Microsoft. What to watch next: the court’s scheduling order, which will determine how quickly the cases move toward trial; any settlement talks that could reshape OpenAI’s licensing practices; and the response from regulators in the EU and the United States, who are drafting rules on AI transparency and data use. A decisive ruling could ripple through the industry, prompting other AI firms to audit their training pipelines and reconsider profit‑driven strategies.
44

TurboQuant frá Google segir að minnka minniþörf um 6 sinnum fyrir stór AI líkön

TurboQuant frá Google segir að minnka minniþörf um 6 sinnum fyrir stór AI líkön
Morning Overview on MSN +7 heimildir 2026-03-29 news
google
Google’s AI research team has unveiled TurboQuant, a new compression technique that slashes the memory footprint of large language models (LLMs) by up to six times during inference. The method targets the key‑value (KV) caches that transformers use to store intermediate activations, applying a two‑stage process that first rotates data vectors and then quantises them with a novel “PolarQuant” scheme. In a pre‑print released this week, the authors report that TurboQuant delivers the memory reduction without any measurable drop in generation quality, a claim that sets it apart from more aggressive quantisation approaches that often degrade output. The announcement arrives at a moment when the industry is grappling with a “memory crunch.” Prices for high‑bandwidth DRAM have more than tripled since 2023, and cloud providers are passing those costs onto customers running ever‑larger models. By compressing KV caches, TurboQuant could enable existing GPU and TPU clusters to host bigger models or serve more concurrent requests, potentially lowering inference costs for services ranging from chat assistants to code generators. The technique also opens a path for deploying sophisticated LLMs on edge devices that have strict memory limits, a scenario that has long been out of reach. Analysts caution, however, that TurboQuant is not a panacea. The compression adds a modest compute overhead, and the savings apply only to the cache, not to the model weights themselves. As a result, the overall memory pressure will persist until hardware catches up or complementary techniques—such as weight pruning or sparsity—are combined. What to watch next: Google plans to integrate TurboQuant into its Gemini models and the Vertex AI inference stack, with a public beta slated for later this quarter. Third‑party frameworks are already probing open‑source implementations, and benchmark suites will soon reveal how the method stacks up against competing compressors. The speed of adoption will indicate whether TurboQuant can meaningfully ease the cost and scalability challenges that have begun to bottleneck the rapid expansion of LLM services.
40

Zoom Effect #wallpaper frá 👇🏻👇🏻👇🏻 Hluti sem ég get gert með #gLUMPaRT. phat #8K 8100sq #MissKitt

Mastodon +16 heimildir mastodon
Sænskur sjónlistamaður, þekktur á netinu sem MissKitty, hefur kynnt safn af ótrúlega háupplausn Zoom sýndar‑bakgrunnsveggmyndum sem eru búin til með generative‑AI vélinni gLUMPaRT. “Zoom Effect” serían, sem var sett á Instagram og TikTok á fimmtudaginn, sýnir 8K, 8100‑ferningspixla abstrakt myndir sem hægt er að hlaða niður og setja beint inn í bakgrunnsstillingar Zoom. Verkefnin sameina glitch‑æstetísk VJ lykkjur með AI‑stýrðri áferðarsýn, og breyta venjulegum myndskeiðs‑bakgrunni í hreyfanleg gallerí. Útgáfan er mikilvæg því hún fær AI‑framleiddar myndir úr stúdíóinu og inn í dagleg vinnuumhverfi. Þó að Zoom bjóði nú þegar upp á safn af stöðugum myndum, sýna hreyfanlegar, AI‑smíðaðar veggmyndir MissKitty að generative verkfæri geta framleitt viðskiptavænar sjónrænar eignir í stærð og upplausn sem áður var aðeins í boði fyrir dýrar framleiðslur. Fyrir sjálfstætt starfandi og litla stofnanir gæti möguleikinn á að nálgast royalty‑frjálsar, 8K‑klárar bakgrunnsmyndir lækkað hönnunarkostnað og skapað nýja tekjumódel fyrir stafræna listamenn sem veita leyfi á AI‑bættum verkum sínum. Aðgerðina vekur einnig spurningar um meðferð höfundarréttar í AI‑listum. Líkanið á bakvið gLUMPaRT er þjálfað á opinberlega aðgengilegum myndum, og opinn dreifing MissKitty á skránum dregur línuna milli persónulegs notkunar og viðskiptaáhrifa. Þegar fyrirtæki gera sífellt meira til að sérsníða fjarnámsumhverfi sín, munu lögfræðilegar rammar um AI‑framleidd efni líklega verða strangari. Fylgist með viðbrögðum Zoom: pallurinn hefur þegar prófað AI‑knúna eiginleika, frá rauntíma textun til fjarlægingar bakgrunns, og gæti fljótlega innleitt markaðsstöð fyrir þriðju aðila AI‑eignir. Á meðan eru aðrir skapandi aðilar að sýna svipaðar “live‑wallpaper” lykkjur á Instagram, sem bendir til hraðrar útbreiðslu AI‑stýrðrar sjónrænna skreytinga fyrir sýndar‑samvinnu. Eins og við skýrðum 24. mars, er AI þegar að breyta hljóðupplifun Zoom; nú er það að breyta sjónlegu hliðinni líka.
38

Agenzia Nova: Fyrirtæki: IA, samstarf OpenAI og Anthropic metur verkfæri gegn útrýmingu

Mastodon +6 heimildir mastodon
anthropicopenai
Samstarfsvél milli OpenAI og Anthropic, AI‑þjónustufyrirtækið IA, tilkynnti á þriðjudaginn að það sé að meta safn af verkfærum sem eru hönnuð til að draga úr útrýmingarinnihaldi á netinu. Átakið er samræmt við Christchurch Call, alþjóðlegu frumkvæðið sem hófst eftir skotdrekanirnar í mosku í Nýja-Sjálandi árið 2019 til að þrýsta á tæknifyrirtæki til að útrýma fjarskiptarekla frá hryðjuverkum. IA‑forslagið byggir á þremur aðgerðum: rauntíma greining á hatursfullum frásögnum, sjálfvirk minnkun á útbreiðslu útrýmingarvídeó og staðfestingarlag sem merkir gervimyndir framleiddar af stórum tungumálalíkönum. Fyrirtækið segir að verkfærin byggi á sömu öryggisþjálfunarpípunum sem knýja ChatGPT frá OpenAI og Claude frá Anthropic, en að þau hafi verið fínstillt sérstaklega til að takast á við rangfærslu og radíkunarmynstur sem lögreglu- og lögreglu samstarfsaðilar hafa bent á. Aðgerðin er mikilvæg vegna þess að AI‑framleiddur texti og djúpafyrirbæri (deep‑fakes) eru sífellt notuð til að laða að, samræma og hvetja til ofbeldis. Með því að nýta sér sérfræðikunnáttu tveggja af fremstu þróunaraðilum grunnlíkana í heiminum vonast IA eftir að setja óformlegt viðmið um ábyrga AI‑notkun á þeim tíma þegar AI‑lög EU-ið skerptar kröfurnar um upplýsingaafhendingu og áhættumat fyrir háskaða kerfi. Eftirfarandi áhorfendur í greininni munu fylgjast með hvort þátttakendur í Christchurch Call taki upp IA‑prótotýpana sem grunn fyrir eigin umfjöllunarkerfi og hversu fljótt verkfærin geta verið innleidd í núverandi streymisnet samfélagsmiðla. Tilraunartilboð er áætlað fyrir seinni hluta 2026, með opinberum áhrifaskýrslu sem á að koma fram snemma á næsta ár. Ef tilraunin reynist árangursrík gæti hún hvatt til víðtækari samstarfs milli AI‑lábora og alþjóðlegra stefnumótunarstofnana, og mótað næstu bylgju af öryggisstöðlum um efni í stafrænu umhverfi.
38

🤖 Töfrar vélarnámsins sem knýr óvin AI í Arc Raiders “… það þarf ekki þjálfara”

Mastodon +6 heimildir mastodon
Arc Raiders, hraðvaxandi arena skotleikur frá sænska stúdíóinu NovaForge, hefur kynnt vélarnámskjarna sem stjórnar óvin AI‑inu, sem merkir breytingu frá forrituðum bótum sem hafa ríkjandi í greininni í mörg ár. Stúdíóið opinberaði að safn léttvægra tauganetna stjórnar nú öllu frá hreyfingu vélmenna dýra til rauntíma framleiðslu bardagshreyfinga þegar hlutar óvinar eru eyðilagðir. Sömu líkönin fínstillir einnig raddleikar, sem gerir óvinum kleift að bregðast við með samhengi‑viðeigandi móðgöngu og viðvaranir sem líta óforritaðar út. Þessi þróun er mikilvæg því hún sýnir að flókið AI getur keyrt á takmarkaðri vélbúnaði leikjatölva og snjallsíma án þess að fórna rammatíðni. Með því að þjálfa netin á þúsundum hermdra leika, hefur NovaForge skapað umboðsmenn sem aðlagast leikmannstaktík, breyta árásarmynstri og
38

Apple Sports gerir þér kleift að fylgjast með uppáhaldsliðum þínum í FIFA heimsmeistaramótinu 2026

Mastodon +6 heimildir mastodon
apple
Apple hefur uppfært Sports‑forritið sitt til að verða miðlægi miðstöð fyrir FIFA heimsmeistaramótið 2026, og gerir notendum kleift að fylgjast með hvaða af 48 landsliðunum sem er þegar mótið hefst 11. júní. Uppfærslan bætir við sérstökum “World Cup” flipi sem sýnir heildarútdráttinn, leikjadagatöflur, lifandi stig og ýtarlegar tilkynningar um mörk, rauðkort og breytingar á uppsetningu. Nýr “Follow” hnappur leyfir aðdáendum að bæta lið í persónulega strauminn, þar sem LLM á tækinu frá Apple sér um að setja saman úrval af hljómsýningum, lykilstærðfræðilegum upplýsingum og stuttum, AI‑gerðum leiksýningum sem er hægt að streima á iPhone, iPad, Apple Watch og Apple TV. Aðgerðin er mikilvæg því hún merkir fyrsta tilraun Apple í stórum alþjóðlegum íþróttareignum, og setur fyrirtækið í beinan samkeppni við vel festustu leikmenn eins og ESPN, theScore og DAZN. Með því að nýta vélbúnaðarsamstarf Apple og AI‑getur sín, getur fyrirtækið boðið upp á hnökralausa, persónuverndar‑fyrsta upplifun þar sem notendagögn eru haldin á tækinu – atriði sem greinir það frá öðrum íþróttaforritum sem glíma við áhyggjur af varðveislu gagna. Samþættingin dýpkar einnig tengsl Apple við FIFA, með opinberum gagnaútfyrirkomum sem gætu opnað dyr fyrir framtíðar samstarf við aðrar deildir og keppnir. Áhorfendur horfa á framtíðina þar sem Apple er áætlað að koma með AI‑bættum eiginleikum í gegnum keppnina, þar á meðal rauntíma taktískri greiningu og AR‑laglögum fyrir Apple Vision Pro. Áhorfendur munu fylgjast með hvort Apple innleiði dýrmætan áskriftarvalkost fyrir auglýsingalausa, útvíkkaða hljómsýningar eða bindi þjónustuna við Apple TV+ íþróttaviðhald. Útgáfan mun einnig prófa skalanleika lifandi gagna‑innviða Apple í ljósi mikilla umferðartoppa sem heimsmeistaramótið venjulega framkallar, og er því lykilpróf fyrir mögulega framtíðar útbreiðslu í streymisþjónustu á líflegum viðburðum.
36

#veggspjald #SímarList #MissKittyArt #listUppsetningar #GenerativeAI #genAI #gAI #artcom

Mastodon +7 heimildir mastodon
Melbourne‑smiðuð stafrænn sköpunarmaðurinn MissKittyArt hefur kynnt röð af AI‑framleiddum síma‑veggspjaldahönnunum sem strax varð trend á Bluesky, Instagram og DeviantArt. Safnið, merkt með #wallpaper, #PhoneArt og #MissKittyArt, sýnir abstrakt, 8K‑upplausnarmyndir framleiddar með sérsniðnu generative‑AI pípu sem blandar saman taugastílsflutningi og texta‑til‑mynd fyrirmyndum. innan nokkurra klukkustunda safnaði færslurnar þúsundum like og vakti flóð af endurgerðarbeiðnum, sem leiddi til þess að listamaðurinn tilkynnti takmarkaða þjónustu í listverkum fyrir vörumerki og innanhússarkitekta. Útgáfan er mikilvæg því hún sýnir hvernig generative AI fer frá tilraunalaboratoríum í daglegar neytendatengingar. Með því að pakka hágæða AI‑listum í tilbúna síma‑bakgrunn, umhverfir MissKittyArt hefðbundna gallerí‑hliðstæðar og græður stafræna fegurð beint til endanotenda. Aðferðin varpar einnig ljósi á vaxandi sérsniðna markað þar sem listamenn nýta AI til að búa til fjölda sérsniðna eignir á meðan þeir halda skapandi stjórn, líkan sem gæti umbreytt höfnunarmynstri í norræna stafræna listamarkaðinn þar sem áskriftarbundin veggspjaldaforrit þegar njóta sterkrar notendagrunns. Eftirlitsaðilar í greininni munu fylgjast með næstu skrefum í stefnu MissKittyArt. Listamaðurinn gaf vísbendingu um líkamlega uppsetningu sem mun umbreyta símaskjámyndefni í stórstíðarvarpa fyrir komandi norræna hönnunarfestivalar. Jafnframt er val AI‑vélarinnar mikilvægt; sköpunarmaðurinn hefur ekki opinberað hvort verkið byggist á opnum módelum eins og Stable Diffusion eða á eignarlegri lausn, atriði sem gæti haft áhrif á leyfisviðræður við tæknifyrirtæki. Að lokum bendir aukning endurgerðarvirkni til þess að samfélagsdrifið vistkerfi er að myndast í kringum röðina, þróun sem gæti hvatt vettvangana til að innbyggja AI‑listamarkaða beint í félagslegar strauma. Næstu vikur munu sýna hvort þessi flakk af generative list geti haldið viðskiptahraða í viðbót við upphaflegu hashtag‑áhugann.
36

https:// winbuzzer.com/2026/04/01/opena i-chatgpt-apple-carplay-voice-hands-free-xcxwbn/ ChatGP

Mastodon +6 heimildir mastodon
applegeminiopenaivoice
OpenAI hefur opinberlega sett ChatGPT í loftið sem innbyggðan raddfyrsta aðstoðarmann á Apple CarPlay, og gert það að fyrsta spjallmenni byggt á stórum tungumálalíkani sem er aðgengilegt beint í gegnum upplýsingatækniplattformið. Samþættingin, sem var tilkynnt 1. apríl í gegnum WinBuzzer, gerir iPhone‑notendum kleift að kalla fram ChatGPT með einfaldri skipuninni „Hey ChatGPT“ og tala handlaust á meðan skjár bílsins sýnir lágmarks texta yfirlag. Þessi eiginleiki kemur með iOS 26 og krefst nýjustu ChatGPT‑forritsins úr App Store; engin viðbótarhugbúnaður er nauðsynleg nema bíll sem er samhæft CarPlay. Fyrirferðin er mikilvæg því hún fær samt
34

OpenAI opens up to retail as it closes record $122 billion round

CNBC on MSN +7 heimildir 2026-04-01 news
fundingopenai
OpenAI opnar fyrir smásöluviðsk
33

America’s AI build-out hinges on Chinese electrical parts

Mastodon +6 heimildir mastodon
Bandaríkjanna flýtingur til að byggja upp gagnaver sem knúin eru af gervigreind hefur lent í óvæntum flöskuhólki: skortur á breyturum, rofaumbúðum og háafkastabatteríum sem eru enn að mestu framleidd í Kína. Greiningar frá iðnaðarsérfræðingum vísa í „gagnrýna bil í lykilhlutum“ sem seinkar útbreiðslu orkukrefjandi aðstöðu sem þarf til að styðja stór tungumálalíkön og þjónustu í framleiðslu gervigreindar. Innlendir framleiðendur hafa átt í erfiðleikum með að auka framleiðslu á þungum rafmagnsbúnaði sem þarf til að knýja megawatt-klasa netþjóna. Þetta bil neyðir skýjafyrirtæki og vélbúnaðaraðila til að flytja inn allt að 40 % af birgðum sínum af breyturum og batteríum frá kínverskum birgjum, samkvæmt nýlegum viðskiptagögnum. Þessi áreiðanleiki skapar veikleika í framboð keðjunni á þeim tíma þegar alþjóðleg stjórnvöld leggja milljarða dollara í AI rannsóknir og innviði í samræmi við AI Innovation Act og útvíkkaða CHIPS and Science Act. Málefninu er mikilvægur vegna þess að aðgengi að orku er síðasta landamær í stækkun AI. Án áreiðanlegs, staðbundins rafmagnshugbúnaðar geta þróunaraðilar gagnavera lent í kostnaðaráhrifum, hærri rekstrarkostnaði og útsetningu fyrir alþjóðlegum áhættuþáttum. Ástandið dregur einnig fram víðtækari stefnumótandi ójafnvægi: á meðan Bandaríkin leiða í AI-algoritmum, heldur Kína yfirráða yfir lágnámsbúnaði sem knýr þau. Stjórnmálamenn eru þegar að íhuga ýmsa lausnir. Orku- og umhverfisráðuneytið er að vinna að „Critical Electrical Infrastructure“ styrkaráætlun til að styrkja innlenda breyturverksmiðjur, á meðan viðskipta- og iðnaðarráðuneytið er að endurskoða útflutningsstýringar fyrir háþróaða rafmagnstæknihluta. Iðnaðarskoðarar munu fylgjast með komandi ráðstefnu Senatts um AI framboð keðjur sem áætluð er í maí, og hverju lögfræðilegu breytingu sem úthlutar fjármagn til „grænsins“ framleiðslu á háspennu búnaði. Ef Bandaríkin geta lokað bilið í þessum þáttum, mun það tryggja orkukerfið í bakgrunni AI-áskorana sinna og draga úr stefnumótandi háðinu á Peking. Ef ekki er gripið til aðgerða gæti það hægð á AI-búskapnum og gefið kínverskum fyrirtækjum yfirburða í nýrri tækni- og samkeppnisröð.
32

Ríkisvísindastofnun: NSF‑átak markar að gera hvern bandarískan starfsmann, fyrirtæki og samfélag tilbúið fyrir gervigreind

Mastodon +6 heimildir mastodon
funding
National Science Foundation kynnti AI‑Ready America‑átakið, fjölárlegt fjármagnsforrit sem er ætlað að veita hverjum bandarískum starfsmanni, fyrirtæki og samfélagi þau kunnáttu, verkfæri og þekkingu sem þarf til að dafna í efnahag sem byggir á gervigreind. Stofnunin tilkynnti upphaflegt $200 milljónir í styrkjafé, skipt milli starfsmannamenntunarstyrkja fyrir samfélagsframhaldsskóla, fagþróunarverðlauna fyrir K‑12 kennara og fræða fjárhags til svæðisbundinna AI‑miðstöðva sem munu vinna með staðbundnum iðnaði, sveitarfélögum og óháðum hópum. Umsóknir opna í næsta mánuð, og fyrstu úthlutanir eru áætlaðar fyrir byrjun 2027. Átakið kemur í kjölfar þess að Bandaríkin glíma við vaxandi AI‑tæknimenntarmun og vaxandi áhyggjur af því að ávinningur frá generatívri gervigreind gæti farið framhjá smærri fyrirtækjum og óþróuðum svæðum. Með því að innleiða AI‑námskrár í iðnnámskeið, styrkja smáfyrirtækja‑prófanir og skapa opinbera‑einka nýsköpunarklasa vonast NSF til að lýðræðislega dreifa aðgengi að tækni sem umbreytir greinum frá framleiðslu til heilbrigðisþjónustu. Átakið samræmist einnig víðari alþjóðlegum tilraunum til að viðhalda samkeppnishæfni, eftir stefnu Evrópu um „AI for All“ og kínverska ríkisstýrðu AI‑starfsmannaplön. Fylgist með útgáfu fyrstu svæðisbundnu miðstöðva, sem eru áætlaðar í Miðvesturlöndum, Kyrrahéraðinu og Suðausturlöndum, þar sem háskólar á svæðinu munu samræma þjálfunarstofur og sýningarrými. Val á samstarfsaðilum—sérstaklega hvort stórir skýjaþjónustuaðilar eða opinn hugbúnaðarhópar eins og Hugging Face fái hlutverk—mun gefa vísbendingu um hvernig Bandaríkin jafna viðskiptalegan valdamátt við samfélagsmiðaða þróun. Fylgið með væntanlegum tilkynningum um styrkúthlutir og þeim mælikvörðum sem NSF mun birta um þátttöku, vottun kunnáttu og eftirfylgni AI‑innleiðingar, sem mun sýna hvort forritið geti minnkað kunnáttuþurrðina áður en næsta bylgja AI‑bættra vara fer á markað.
32

God dammit stopping my # gitea container for a bit while I fix my # fail2ban config # FuckA

Mastodon +6 heimildir mastodon
openai
Kerfisstjóri á norðuræskum sjálfhýsnarfórum tilkynnti að hann þurfti að stöðva Gitea Docker ílátið sitt meðan hann endurstillti fail2ban, innbrotavörnartólið sem hindrar endurteknar mistókna innskráningar. Bráðabirgðaaðgerðin var sett í gang eftir nýlegan regluumbreytingu sem ranglega merkti lögmætar Git‑í‑HTTP beiðnir sem þvingunarárásir, lokaði þróunaraðilum út og stöðvaði kóðapúsa í teyminu. Atvikið varpar ljósi á vaxandi erfiðleika sjálfhýðinna þróunarpalla í tíma þar sem AI‑knúin þjónusta er sífellt fléttað saman í sömu innviði. Gitea, léttur Git‑þjónn sem er eftirsóttur vegna auðveldra uppsetningar á lágvörðum vélum, er oft settur í samhengi við fail2ban til að verja gegn innskráningaratökum (credential‑stuffing). En þegar fail2ban reglur verða of áköf — stundum innblásnar af AI‑mynduðum ógnaupplýsingum — geta rangar stillingar valdið nákvæmlega öfugum áhrifum: sjálfvirk þjónustuhindrun. Óánægð kerfisstjórans í myndefni með hastögnunum (#FuckAI, #noAI) endurspeglar víðtækari pirring meðal rekstraraðila sem þurfa að jafna sjálfvirka öryggisvörn við áreiðanleika kjarnaverkefna. Eins og við skýrðum þann 31. mars, sýndi OpenAI patch á DNS‑gögnasleipunargalla hvernig greinin er að leggja meiri áherslu á öryggisgalla sem geta breiðst í gegnum flókin kerfi. Gitea‑atvikið undirstrikar að jafnvel þjónustur sem eru ekki AI‑tengdar eru viðkvæmar fyrir aukaverkunum þegar öryggistól eru of fínstillt. Hvað er næst að fylgjast með: Gitea‑samfélagið áætlar að gefa út sett af fail2ban reglum sem greina á milli raunverulegra innskráningarbylta og árásarmynstra, til að minnka fjölda falskra jákvæðra. Iðnaðarstjórnunarkerfi eins og Docker Compose og Kubernetes eru einnig að þróa viðbætur við heilsukönnun sem geta sjálfkrafa sett þjónustu í bið áður en lokað er á aðgang. Að lokum eru AI‑aðstoðaðar skráa‑greiningartól í tilraunastöðu í nokkrum norðuræskum gagnaverum til að greina rangar reglur í rauntíma, þróun sem gæti breytt daglegri pirringi í hvata fyrir snjallari, sjálfbætandi innviði.
30

CUDA gefið út í BASIC

HN +5 heimildir hn
gpunvidia
NVIDIA hefur kynnt cuTile BASIC, nýja viðbót sem fær CUDA Tile forritunarlíkanið yfir í klassíska BASIC tungumálið. Kynnt í apríl, sameinar viðbótin CUDA 13.1 flísabundna API NVIDIA með léttum BASIC‑þýðanda, sem gerir forriturum kleift að skrifa GPU‑hröðuð kjarna beint í tungumáli sem hefðbundið hefur takmarkast við áhugamannasöfn og menntun. Aðgerðinni er mikilvæg vegna þess að hún lækkar hindrunina fyrir að komast inn í samhliða útreikninga og AI‑þróun. CUDA hefur lengi verið stoðtaug hárafköst GPU‑verkefna, en brattur námsferill þess og áreiðanleiki á C‑stíls tungumálum hefur haldið mörgum forriturum utan vallarins. Með því að birta sama lágnivaugsstýringu í gegnum einfaldan BASIC‑sniðmát, opnar NVIDIA GPU‑hröðun fyrir breiðari hóp – nemendur, viðhaldara á forritum í forgangi og sértækar greinar sem enn byggja á BASIC‑afleiddum umhverfum. Fyrstu afköstprófanir sem NVIDIA hefur gefið út sýna lítil en áþreifanleg hraðabætur í algengum fylkis‑ og myndvinnsluaðgerðum, sem bendir til þess að jafnvel lítil BASIC‑kóða geti nýtt gríðarlega útfærslu nútíma RTX GPU‑a. Það sem á eftir að fylgjast með er hvernig forritasamfélagið tekur upp verkfæraköfluna. NVIDIA hefur sett sýnidæmi verkefna á GitHub og lofað samþættingu við vinsæl BASIC‑IDE, en raunveruleg frammistaða verður metin af sjálfstæðum prófunum og eftir því hvort kennarar innleiða cuTile BASIC í námskrár. Annar lykilvísir verður tilkomu þriðju aðila bókasafna sem umgjörðaða núverandi CUDA‑kjarna til notkunar í BASIC, sem gæti skapað nýtt vistkerfi GPU‑virkra BASIC‑forrita. Ef frumkvöðullinn fær stuðning, gæti það bent til víðari stefnu NVIDIA um að gera GPU‑útreikninga tungumálalausa, leggja grunn að svipuðum viðbótum í öðrum forritunarmálum úr eldri hópi og frekari lýðræðisvæðingu AI‑þróunar í norrænu tæknilandslagi.
29

Morgan í High Potential er LLM í mannlegu formi, eins og það lítur út. #tv #highpotential #llm #ai

Mastodon +6 heimildir mastodon
Nýtt þáttur í sænska drama‑seríunni *High Potential* hefur vakið nýja umræðu um gervigreind eftir að áhorfendur uppgötvuðu að persónan Morgan, sem er sýnd sem charmerandi yngri framkvæmdastjóri, í raun er þróað stórt tungumálalíkani (LLM) í líkamlegu mannúðlegu formi. Áræðan kom fram í bakvið‑myndaþætti sem streymisvettvangur seríunnar gaf út; hann staðfesti að hlutverkið var leikið af mannúðlegum róbótum sem knúið er af eigin LLM sem hefur verið þjálfað á milljónum fyrirtækjaumfjöllunar og leiðtogasjálfsþjálfunargagna. Framleiðendum lýsti snúningi sem frásagnaræfingu, en tækninýjungin – fullkominn líkamsstýringarbúningur, rauntíma talgervimyndun og skýja‑útreikningsvél – hefur verið staðfest af sjálfstæðum AI‑rannsakendum sem rekja útkomu líkansins til þekktrar opins-kóðans LLM‑arkitektúrar. Stöðunin er mikilvæg því hún ýtir mörkum milli skáldsögulegs frásagnar og raunverulegs AI‑notkunar. Með því að setja samtals‑AI í mannúðlegt útlit á aðalprógrammi sýnir þátturinn hversu sannfærandi LLM‑kerfi geta líkt sér fagleg persónuleika, og vekur spurningar um samþykki, upplýsingagjöf og möguleg misnotkun í ráðningum, markaðssetningu eða jafnvel pólitísku sannfæring. Hún dregur einnig fram hversu hratt gerandi AI fer frá skjá til sviðs, í takt við áhyggjur sem komu fram í skýrslu okkar 1. apríl um AI‑umhverfisþjónustur sem ráðna menn til að fylgjast með offline heiminum. Eftirlitsfólk mun nú fylgjast með reglugerðarviðbrögðum í Svíþjóð og víðari ESB, þar sem AI‑lögin eru þegar að skerða reglur um líffræðileg og djúp‑svindlartækni. Framleiðslufyrirtækið hefur skuldbundið sig til að merkja komandi þætti með AI‑upplýsingamerki, á meðan neytendaverndarsamtök krefjast skýrari leiðbeininga um sýndarleikar. Næsti þáttur, sem á að koma út í næstu viku, mun samkvæmt upplýsingum kanna “sjálfsvitund” Morgans – frásagnabreyting sem gæti orðið lifandi tilraunartilvik um hvernig áhorfendur bregðast við þegar línan milli reiknirit og leikarans hverfur enn frekar.
29

Apple: Næstu 50 ár

Mastodon +6 heimildir mastodon
apple
Apple nýtti 50 ára áfanga sinn til að kynna “Apple: Næstu 50 ár”, víðfeðmt sýn sem setur gervigreind í kjarnann á öllum vörulínum. Áætlunin, sem var lögð fram á hátíð í Cupertino og fjallað um í grein á CNET, lofar stórum tungumálalíkönum á tækinu, nýrri kynslóð tauganet‑örgjörva og sameinuðu heilsutækniplatform sem mun breyta Apple Watch í greiningarmiðstöð. Japanskur tilvitnun sem hringur um með tilkynninguna – “Appleの価値は、ヒトにとっても亜人にとっても同じだと思います” – undirstrikar trú fyrirtækisins á að tækni þess muni þjóna bæði mönnum og þeim AI‑umbótum sem þeir skapa. Yfirlýsingin er mikilvæg vegna þess að Apple hefur lengi byggt á sérkennileika í vélbúnaði og mjög stjórnað umhverfi; að innleiða öflug LLM beint í iOS gæti endurskrifað þessa formúlu. Með því að halda útreikningum á tækinu forðast Apple skýjamiðaða líkan sem OpenAI og Google styðja, styrkir það persónuver
29

Allt er iPhone núna

Mastodon +6 heimildir mastodon
apple
Apple hefur kynnt fyrsta innanhússstórt tungumálalíkanið sitt, með innri kóðanafni **„iPhone,“** og tilkynnt að líkanið verði innbyggt í allar Apple vörur – frá iPhones og Macs til Apple Watch, Vision Pro hausahúðar og jafnvel í innra kerfi í bílum frá þriðju aðila eins og nýjustu BMW módelum. Fyrirtækið sýndi nýja gervigreindina á fjölmiðlaviðburði í Cupertino, þar sem sýnt var rauntímaþýðing, kóðagerð og samhengi‑stuðningur sem keyrir staðbundið á tækinu en samstillir sig við ský Apple fyrir erfiðari vinnu. Útgáfan merkir ákvörðunarlegan breytileika í AI stefnu Apple. Fram til þessa hefur fyrirtækið treyst á utanaðkomandi birgja fyrir flest generative‑AI eiginleika, sem lagðar eru ofan á Siri raddviðmótið. Með því að byggja persónuverndar‑fyrsta LLM sem getur starfað á tæki, stefnir Apple að því að halda notendagögnum í eigin stjórn og aðgreina vistkerfið sitt frá keppinautum sem treysta eingöngu á skýjaþjónustur. Þetta skref fellur einnig í línu við söguna „Machine Learning Stack Is Being Rebuilt From Scratch“ sem við fjölluðum í byrjun mánaðarins, þar sem útskýrt var hvernig Apple er að endurbæta þróunartól sín til að styðja þjálfun og ályktun á tæki. Að innleiða líkanið í alla vörulínuna gæti gert iPhone að sjálfgefnu viðmóti fyrir næstum allar stafrænar samskiptir, í samræmi við fyrirsögnina „allt er iPhone núna.“ Hvað á að fylgjast með næst: Apple hefur lofað stigvelda útgáfu sem byrjar með iOS 27 og macOS 15 seinna á þessu ári, og síðan Vision Pro samþættingu í byrjun 2027. Forritarar munu fá aðgang að nýjum API‑um í komandi Xcode 16 beta, og fyrirtækið segir að það muni opna takmarkað beta fyrir þriðju aðila bílframleiðendur í fjórða fjórðungi ársins. Greiningaraðilar í greininni munu fylgjast með hvernig frammistaða líkanisins og persónuverndarkröfurnar standa sig í samanburði við OpenAI GPT‑4o og Google Gemini, og hvort stjórnvöld muni rannsaka vaxandi AI fótspor Apple. Árangur „iPhone“ gæti endurskilgreint valdahlutfallið á generative‑AI markaðnum og styrkt sýn
28

**Þú ert það sem þú borðar: Hvers vegna stórir tungumálalíkön bjóða upp á óskýrða stefnu (og hvað á að gefa þeim í staðinn)**

AdNews +8 heimildir Opinion15 news
agents
Ný rannsókn frá rannsakendum við Háskólann í Kaupmannahöfn og Oslo AI Institute heldur því fram að „einn‑stærð‑fyrir‑alla“ nálgunin við stór tungumálalíkön (LLM) sé að gefa þeim fæðu úr hávaða, lág‑gæða gögnum, sem leiðir til þess sem höfundarnir kalla „slop‑stefnu“ – óljós, of almenn ráð sem virka í kenningunni en bila í framkvæmd. Greinin, með titlinum *Feeding LLMs: From Slop to Substance*, sýnir að þegar LLM eru beðin um að búa til hagnýtar áætlanir – frá fjárfestingarportfólíum til læknisfræðilegra flóttaferla – þá falla þau oft í örugga en óinspirerða lausn sem dregin er úr hinum gríðarlega, óúreltu safni gagna sem þau voru þjálfuð á. Rannsakandurnir leggja til að breyta stefnu í átt að sérhannaðri umhverfisþjónustu: minni, sérsniðin líkön sem eru þjálfuð á vandlega valdum gagnasöfnum og fínstillt með endurgjöf frá mannlegum viðbragðsstyrkingum. Fyrstu frumgerðir í fjármálum og heilbrigðisþjónustu náðu betri árangri en GPT‑4 á verkefna‑sértækum viðmiðum, með nákvæmari áhættumat og framkvæmanlegri skref, á sama tíma og þau notuðu aðeins brot af reikniritstímanum. Af hverju er þetta mikilvægt? Tvöfalt. Fyrst og fremst geta fyrirtæki sem hafa byrjað að treysta á almenn LLM‑aðstoð í hættu á að taka ákvarðanir byggðar á „slop“ í stað raunverulegs efnis, áhyggjuefni sem fellur í takt við fjölda málsókna og reglugerðarumsókna um AI‑úttak sem við skýrðum um í byrjun mánaðarins. Í öðru lagi mótar niðurstöðurnar við ríkjandi frásögn um að stærri líkön gefi sjálfkrafa betri frammistöðu, og bendir til modularlegrar framtíðar þar sem sérfræðiaðilar tengjast í almennan kjarnakerfi. Hvað á að fylgjast með næst: Stórir skýþjónustuaðilar hafa gefið til kynna að þeir muni bjóða upp á „sérfræðimódel“ fyrir næstu kynslóð líkana, og Evrópusambandið er áætlað að gefa út leiðbeiningar um uppruna gagna fyrir AI‑kerfi seinna á þessu ári. Ef iðnaðurinn tekur upp vandlega valda, sérsniðna umhverfisþjónustu, gætum við séð skyndilegan hækka í áreiðanleika í háspennusviðum, á sama tíma og við breytum efnahagslegum þáttum AI‑þróunar.
27

Architects of Attention: A Labyrinth of LLM Design Learn about new LLM attention variants like gate

Mastodon +6 heimildir mastodon
training
Arkitektar athyglinnar: Völundarhús í
27

Jira fyrir AI umboðsmenn og menn | fluado

Mastodon +6 heimildir mastodon
agentsalignment
Atlassian opnaði betaútgáfu „agents in Jira“ þann 25. febrúar og lofaði að AI‑knúin spjallmenni gætu fengið verkefni, verið @‑nefnd í athugasemdum og fléttað inn í núverandi vinnuferla hlið við hlið við mannlegum notendum. Tilboðið var sett fram sem leið til að færa sömu sýnileika og eftirlitsmöguleika sem teymir njóta í hugbúnaðarþróun yfir í hratt vaxandi heim sjálfstæðra umboðsmanna. Nákvæmlega nokkrum klukkustundum eftir tilkynninguna birti stofnandi fluado bloggfærslu með titlinum „Jira for AI Agents (and humans)“, þar sem hann rökstyður að innbyggða samþættingin sé ófullnægjandi. Færslan útskýrir að umboðsmenn starfa „í leyni með ótrúlegum hraða“, skapa oft undirverkefni, ítra um gögn og yfirgefa verkefni áður en mannlegur notandi nær að sjá nýjustu stöðu þess. Til að koma í veg fyrir tap á rekjanleika yfirgaf höfundurinn Atlassian‑vöruna og byggði léttan, sérstakan rekjanlegan kerfis­vörður sem skráir hverja aðgerð umboðsmanns, tekur myndir af millistigum í rökstuðningi og birtir stjórnborð „eina sannleiksgjafa“ fyrir bæði spjallmenni og fólk. Gagnrýnin er mikilvæg því fyrirtæki eru nú þegar að setja sjálfstæð LLM‑umboðsmenn í notkun fyrir allt frá viðbragði við atvikum til kóðagerðar. Án áreiðanlegs samhæfingarlagar eru teymin í hættu á tvíteknum aðgerðum, falnum bilunum og reglugerðarlegum blinda. Lausn fluado sýnir vaxandi eftirspurn eftir verkfærum sem meðhöndla umboðsmenn sem fullgildar þátttakendur frekar en sem eftirhugun sem er bætt við núverandi verkbeiðslukerfi. Það sem þarf að fylgjast með næst er hvort Atlassian muni betrumbæta betaútgáfuna til að takast á við þær eyður sem fluado bent hefur á—sérstaklega betri varðveislu á stöðu og rauntíma upprunaskráningu. Á sama tíma gæti komið í veg fyrir bylgja af opnum kóða‑ eða söluaðila‑„umboðsmannverkfærum“ sem keppa um eftirlitsmöguleika og skalanleika. Næstu nokkur mánuðir gætu skilgreint staðla fyrir mann‑AI samstarf í umhverfi sem byggir á verkbeiðslum, og mótað hvernig stofnanir halda sjálfstæðum kerfum ábyrgum.
26

OpenAI fær 122 billið dollara til að “bara byggja hluti” á meðan heimurinn sprengur þau

Mastodon +6 heimildir mastodon
openai
OpenAI tilkynnti þriðjudaginn að það hafi tryggt viðbótarfjármögnun upp á 122 billið dollara í skuldbundnum fjármagn, sem hækka eftir‑peninga verðmæti fyrirtækisins í táknræna 852 billið dollara – hæsta verðmæti nokkurra tæknifyrirtækja sem eru enn ekki í IPO. Fjármögnunarrundan, sem leiddi langtímaspáir Amazon, Nvidia, SoftBank og Microsoft, eykur heildarfjárhæðina sem safnað hefur verið síðan fyrirtækið fékk 40 billið dollara í 2025 til 162 billið dollara. Fyrirtækið lýsti peningainntökuninni sem “bara byggja hluti” stefnu og lofaði að auka innviða‑sem‑þjónustu vettvanginn sinn, flýta fyrir útgáfu löngu umdeildrar “super‑app” og dýpka rannsóknir á næstu kynslóðum stórræða‑líkana. Greiningar segja að verðmætið endurspegli ekki aðeins yfirburðarstöðu OpenAI í sköpunargervigreind, heldur einnig eftirspurn markaðarins eftir einum þjónustuveitu sem getur knúið allt frá fyrirtækja‑greiningum til neytenda‑spjallmenna. Gagnrýnendur varna þó að þessi gríðarlega stóru fjárkista muni ekki skila hagnaði í mörg ár. Sumir athugendur spá fyrir um jafnvægispunkt um 2030, með vísanir í háa kostnað við útreikninga, samkeppni um hæfileika og reglugerðarleg hindranir. Greinin í The Register lagði til að “super‑app” stefnan gæti verið varnarviðbragð gegn keppinautum eins og Anthropic, sem nýlega lokið $30 billið dollara Series G umferð með verðmæti $380 billið dollara. Eins og við skýrðum 2. apríl 2026 opnaði OpenAI þjónustu sína fyrir smásölu fjárfesta í kjölfar þessa sögðu fjármagns. Næsta stig mun prófa hvort innstreymið af fjármagninu geti skilað loforðinu um allsherjar AI-verkfæri á sama tíma og viðhaldið fjármálalegri sjálfbærni. Fylgist með útgáfuáætlun “super‑app”ins, verðlagningarlíkani fyrir útvíkkaða API-svæðið og öllum reglugerðarlegum athugunum sem gætu komið upp þegar áhrif fyrirtækisins vaxa í bæði neytenda- og fyrirtækjamörkuðum.
26

Siðfræði manipuleringar (Stanford Encyclopedia of Philosophy)

Mastodon +6 heimildir mastodon
ethics
Robert Noggle, framhaldsskólakennari í heimspeki við Háskólann í Edinburgh, hefur uppfært grein Stanford Encyclopedia of Philosophy um „The Ethics of Manipulation.“ Endurbætunin, sem hefur verið sett á opna aðgangsplattform SEP, dregur umræðuna um manipuleringu út fyrir hefðbundna pólitísku og viðskiptalega samhengi og tekur inn nýlegar áhyggjur um gervigreindarkerfi sem hvetja, sannfæra eða á annan hátt móta mannlegar ákvarðanir án skýrrar samþykkis. Uppfærslan er mikilvæg því SEP er viðurkenndur heimildarheimild fyrir fræðimenn, stefnumótunaraðila og tæknifræðinga sem leita að nákvæmum skilgreiningum á siðferðilegum hugtökum. Með því að leggja áherslu á AI‑knúna áhrif – oft lýst í fjölmiðlum sem „sýklum“ eða „þvingandi“ – veitir greinin sameiginlegt orðaforða fyrir umræður um reikniritasannfærslu, hönnun á meðmæla‑kerfum og mörkin milli góðvildar persónulegs aðlögunar og manipulativrar nýtingar. Tímasetningin er áberandi: aðeins nokkrum vikum eftir að Encyclopedia Britannica og Merriam‑Webster lögðu OpenAI á réttarbrot vegna ádeilu um höfundarrétt, hafa yfirvöld hafið rannsóknir á því hvort stór tungumálalíkön geti verið notuð til að beita vopn til að stýra almenningsáliti eða neytendahegðun. Noggle’s víðari umfjöllun um sjálfstæði, þvingun og frjálsa vilja veitir því heimspekilegan grunn fyrir væntanlegar lagasetningar og fyrirtækjastjórnunarramma. Það sem á eftir að fylgjast með er áhrifavaldurinn í AI‑siðferðisumhverfinu. Háskólakongur um siðferðilega sálfræði og AI‑samræmingu mun líklega vísa í endurbættu greinina, á meðan hugsunarmiðstöðvar gætu innifalið greiningar hennar í stefnumótunargreinum um „gagnsæja AI“ og „upplýst samþykki“ í stafrænum samskiptum. Lögfræðingar gætu einnig nýtt sér SEP‑skilgreiningarnar þegar þeir leggja fram rök um að manipulativ AI‑aðferðir brjóti ólögleg viðskipti eða neytendaverndarreglur. Þegar umræðan fer frá abstraktum kenningum til hagnýtra reglna, mun uppfærða greinina þjóna tilvísunarpunkti fyrir alla sem glíma við siðferðilegar mörk vélbúnaðar‑áhrifanna.
26

Agentic web mætir stafrænu auglýsingakerfinu | MarTech

Mastodon +6 heimildir mastodon
agents
Nýtt þáttur í “Agentic AI” hlaðvarpinu frá MarTech varpar ljósi á hvernig nýja “agentic web” er að umbreyta stafrænu auglýsingakerfinu. Þátturinn er í höndum Mike Pastore og inniheldur viðtal við Karim Raye, vörustjóri hjá Nexxen, sem útskýrir hvernig AI‑knúnir umboðsmenn fara út fyrir hefðbundna herferðabestun og takast á við dýpri, óuppgötvaðar verk, svo sem rauntíma áhorfendarrannsóknir, áætlanir um ásetning og samantekt á innsýn frá mörgum útgefendum. Raye heldur því fram að auglýsingatækniframleiðendur voru meðal fyrstu til að innleiða sjálfstæða umboðsmenn til að stilla boðverð, en næsta bylgja mun sjá umboðsmenn krækja um vörumerkjasíður, greina merki í efni og færa fínstilltar neytendaprófíla beint inn í eftirspurnarhlið (DSP). Fyrir útgefendur lofar breytingin eftirfarandi: ríkari gagnastraumar sem hægt er að nýta í tekjuöflun án þess að skerða persónuvernd notenda, þar sem umboðsmenn geta starfað á tækinu sjálfu og skila aðeins útdráttum af upplýsingum. Þessi þróun er mikilvæg vegna þess að hún dular út línunni milli efnisuppgötvunar og auglýsingamarkmiða. Þegar umboðsmenn meta vefsíður í samhengi geta þeir birta öruggt birgðarefni, merkja rangfærslur og jafnvel semja um verð í rauntíma. Þetta gæti minnkað ferlið við miðlaákvarðanir frá dögum í mínútur, sem gefur auglýsendum áberandi forskot á hratt breytilegum mörkuðum eins og netverslun og streymisþjónustu. Samtalið byggir á fyrri fjölnýtingu okkar á agentic AI, þar á meðal skýrslu frá 30. mars um Agentic Shell CLI lagið og grein frá 26. mars um verðlaunuð FPT lausn. Báðar greinar lýstu tæknilegu grunninum sem nú gerir auglýsingatækninotkun umboðsmanna mögulega. Hvað er næst á dagskrá: innleiðing staðlaðra API-kerfa fyrir gagnaskipti umboðsmanna, tilraunaverkefni hjá helstu DSP-um til að samþætta umboðsmenn á vefsvæðum og reglugerðarleg eftirlit með því hvernig sjálfstæðir umboðsmenn meðhöndla persónuleg auðkenni. Næstu mánuðir ættu að sýna hvort agentic web verður að lykilstöðu í forritunauglyktum eða haldist í hliðarmarkaði.
26

Siri í iOS 27: Allt sem við vitum

Mastodon +6 heimildir mastodon
apple
Apple er að undirbúa að koma með umfangsmikla AI‑knúna endurbót á Siri í iOS 27, samkvæmt samantekt MacRumors sem kom út 1. apríl. Skýrslan dregur saman leki frá mörgum heimildum og staðfestir að Apple muni innbyggja „Apple Intelligence“ stórt tungumálalíkani beint í stýrikerfið, sem gerir Siri kleift að svara flóknum spurningum, búa til texta og jafnvel draga upp tölvupósta án þess að senda gögn í skýið. Nýja vélinn er sagt að keyri aðallega á tækinu sjálfu, sem viðheldur þeim persónuverndarstaðli sem hefur lengi greint Siri frá samkeppnisaðilum. Uppfærslan virðist einnig innihalda endurhannað samtalsviðmót, ríkari fjölmiðlun (t.d. greiningu mynda sem sendar eru í Messages) og nánari samþættingu við þriðju aðila í gegnum víðtækari SiriKit heimildir. Stakt Siri‑forrit, sem hefur lengi verið í orðræðu, gæti loksins komið í iOS 27 og gefið notendum sérstakt viðmót til fljóttra fyrirspurna og sjálfvirkra tillagna, eins og áminningar í dagatali eða uppfærslur á ferðaplönum. Fyrstu skjámyndir sýna þéttara, íhlutulíkt útlit sem hægt er að kalla fram frá hvaða skjá sem er, í anda „always‑on“ upplifunarinnar sem Google býður með Bard‑knúnum Assistant. Af hverju þetta skiptir máli: Siri hefur eftirvarið keppinauta í getu til að framleiða generative AI, og átak Apple gæti umbreytt markaðnum fyrir raddaðstoðarmenn með því að sameina persónuverndar‑fyrsta arkitektúrinn sinn við samtalsfærni nútíma LLM‑a. Fyrir þróunaraðila gæti dýpri aðgangur að SiriKit opnað nýja tekjuuppsprettur og nánari tengingu milli forrita og aðstoðar, á meðan neytendur gætu loksins fengið raunverulega gagnlegan, samhengi‑meðvitaðan aðstoðarmann á iPhone, iPad og Mac. Hvað á eftir að fylgjast með: iOS 27 beta er væntanleg seinna á sumrin, líklega eftir iOS 26.5 beta sem kom út 31. mars. WWDC 2026 verður vettvangurinn fyrir formlega kynningu, þar sem Apple gæti sýnt fram á sjálfstætt Siri‑forrit og leikið fram frammistöðumælingar. Eftirfylgni mun einbeita sér að þróunarskjölum, útgáfuáætlunum fyrir eldri tæki og mögulegri reglugerðarathugun á umferð AI‑vinnslu á tækinu. Eins og við skýrðum 25. mars er Siri‑endurbótin hornsteinn í víðtækari AI‑stefnu Apple, og iOS 27 verður fyrsta opinbera prófið á þeirri sýn.
24

Öryggisvituð hlutverkastýrð fjölþætt LLM-rammi fyrir hermun samskipta í atferlisheilsu

ArXiv +5 heimildir arxiv
agentsai-safety
Rannsakendur frá samvinnu norrænna háskóla hafa gefið út nýtt pre‑print, arXiv:2604.00249v1, sem leggur til öryggisvituð, hlutverkastýrð fjölþætt kerfi til að líkja eftir samtölum í atferlisheilsu. Kerfið kemur í stað einnar, einheita stórra tungumálalíkans (LLM) með teymi sérhæfðra umboða—einn sem starfar sem viðskiptavinur, annar sem sálfræðingur og þriðji sem öryggisvörður sem fylgist með og grípur inn í þegar áhættusamt orðalag kemur fram. Með því að beina samtali í gegnum ólík hlutverk miðar hönnunin að því að varðveita þá fíngerðu samúð sem þarf í geðheilbrigðisstuðningi, á sama tíma og hún innleiðir strangar öryggisramma. Þessi þróun er mikilvæg vegna þess að einna umboða LLM‑kerfi hafa ítrekað sýnt blindar hliðar í hásveifluðum aðstæðum: þau geta farið í skaðleg ráð, hunsað vísbendingar um krísu eða blandað saman meðferðaraðferðum. Hlutverkastýrt kerfi býður upp á mótulegan öryggisnet, sem gerir auðveldara að endurskoða hvern þátt, innleiða útskýrandi eiginleika og uppfylla nýlegar reglugerðir um gervigreind í heilbrigðisgeiranum. Höfundarnir leggja áherslu á að ramminn er ætlaður sem rannsóknar- og ákvörðunartól í hermun, ekki sem beint klínísk tæki, og endurspeglar áhyggjur sem komu fram í fyrri umfjöllun okkar um tilfellis‑aðlögun fjölþátta umboða í klínískum spám (2026‑04‑02). Með því að bjóða upp á „sandbox“ til að prófa meðferðaraðferðir, stefnumótun og þjálfunaráætlanir gæti þessi vettvangur flýtt fyrir vísindalegri innleiðingu AI í atferlisheilsu án þess að setja sjúklinga í óprófaða líkan. Það sem er að fylgjast með næst er væntanlegur viðmiðunartestur sem ber saman fjölþátta kerfið við helstu einna‑umboða spjallmenni á stöðluðum gagnasöfnum um krísuviðbrögð, og áætluð samvinna við skandinavískt geðheilbrigðisfyrirtæki til að prófa hermunina í þjálfunaráætlunum sálfræðinga. Samhliða vinna að „red‑team“ árásum á fjölþátta LLM‑kerfi bendir til þess að öryggisprófanir verði forsenda áður en nokkuð er sett í notkun. Samfélagið mun vera spennt að sjá hvort öryggisvörðurinn geti áreiðanlega flaggað fíngerðar áhættusignaler og hvernig ramminn skalar upp í raunveruleg samtalsálag.
24

One Panel Passar Ekki Allir: Tilfellaðlögð Fjölþjónusturáðgjöf með Margvinnslu‑tölvuþjónustum fyrir Klínískar Spár

ArXiv +5 heimildir arxiv
agents
Liður rannsakenda frá Svíþjóð og Bandaríkjunum hefur kynnt nýtt rammaverkefni fyrir læknisfræðilegt gervigreind sem aðlagar ályktunarpanel sitt að hverju einstökum tilfelli. Pre‑printið, með titlinum “One Panel Does Not Fit All: Case‑Adaptive Multi‑Agent Deliberation for Clinical Prediction” (arXiv 2604.00085v1), leggur fram CAMP – kerfi sem myndar sjálfvirkt safn sérfræðinga‑tungumálalíkansins byggt á flækjustig innsláttarupplýsinga, í stað þess að reiða sig á eitt, stöðugt líkan. Höfundarnir urðu að því að stór tungumálalíkön (LLM) sem notuð eru til klínískra spár sýna óstöðugleika: einföld tilfelli skila stöðugum niðurstöðum, á meðan mörk- eða hásveiflukennd tilfelli breytast verulega við smávægilegar breytingar á spurningum. CAMP líkir eftir raunverulegum starfsháttum fjölbreyttra krabbameinsráðgjafar, þar sem úr hópi sérfræðinga‑líkana – röntgen, sjúkdómsgreining, erfðafræði og lýðfræðirannsóknir – er valið út frá þeim vísbendingum sem finnast í hverjum skrá. Í samanburðartestum á áhættu um sepsis, endurheimt vegna hjartabilunar og greiningu á snemma stigum lifrarkrabbameins, minnkaði aðlögunarlegur hópur breytileika spár um allt að 42 % og hækkaði AUROC stig um 3–5 stig miðað við bestu einstaka‑þjónustugrunninn. Afleiðingar eru tvíþættar. Fyrst takast aðferðin beint á endurtekningarvanda sem hefur plagað AI‑drifna greiningar, og býður læknum áreiðanlegri ákvörðunarstuðning. Í öðru lagi, með því að úthluta sérfræðinga‑þjónustum aðeins þegar þörf er á, gæti CAMP hjálpað til við að nýta takmarkaða sérfræðiráðgjöf í sjúkrahúsum sem eiga í erfiðleikum með að hafa fullt fjölda fjölþættra ráðgjafarhópa, vandamál sem nýlegar rannsóknir á krabbameins‑MDT‑hópum hafa bent á. Næstu skref munu segja til um hvort hugmyndin standist prófun utan rannsóknarstofunnar. Liðið hyggst framkvæma framtíðarprófun í þremur norrænum sjúkrahúsum, þar sem CAMP verður innleitt í vinnuferla rafrænna sjúkraskráa og áhrif á meðferðarákvarðanir og sjúklingsútkoma verða mæld. Stjórnvöld munu einnig fylgjast með hvernig kerfið tekst á við ábyrgð þegar mörg AI‑þjónustur leggja sitt af mörkum að tillögu. Ef tilraunirnar staðfesta fyrstu ávinninginn, gæti tilfellaðlögð fjölþjónusturáðgjöf orðið ný staðlað ferli í AI‑hjálpaðri læknisfræði, og dregið fram loforð sem fyrst var bent á í fyrri umfjöllunum um AI‑byrgaða áhættu greiningu á lifrarkrabbameini.
24

New LLM Attention Methods in March 2026 Change How AI Learns

Mastodon +6 heimildir mastodon
New research released in March 2026 shows that large‑language models are rapidly adopting a suite of novel attention mechanisms—most notably “gated” and “sliding‑window” variants—that reshape how they allocate computational focus across long text streams. Papers from DeepMind, Meta AI and the Stanford Center for AI Research demonstrate that gated attention dynamically filters token interactions, cutting the quadratic cost of classic self‑attention by up to 70 % while preserving accuracy on reasoning benchmarks. Sliding‑window attention, meanwhile, partitions sequences into overlapping chunks, enabling context windows of 64 k tokens without the memory blow‑up that previously limited LLMs to a few thousand tokens. Why it matters is twofold. First, the efficiency gains lower inference costs, making high‑capacity models viable on commodity GPUs and even on‑device hardware—a trend echoed in recent “Escaping API Quotas” hacks that run 14 B‑parameter squads on 16 GB cards. Second, longer context windows unlock new use cases such as full‑document analysis, code‑base navigation and multimodal video‑text alignment, areas where earlier models struggled with truncation. As we reported on 2 April in “Architects of Attention: A Labyrinth of LLM Design,” gated attention was already on the radar; March’s broader rollout confirms it is moving from experimental to production‑ready status. What to watch next are the integration signals from commercial providers. ZAI’s GLM‑5V Turbo, announced earlier this month, already leverages gated attention for its multimodal vision pipeline, hinting at a wave of products that will tout “64 k‑token context” as a selling point. Benchmark suites such as LongBench‑2 are being updated to stress‑test these mechanisms, and hardware vendors are courting the trend with memory‑efficient tensor cores. The next few quarters will reveal whether these attention tricks become the new default or remain niche optimisations.
24

Escaping API Quotas: Hvernig ég byggði staðbundna 14 bn fjöl‑þjónustuhóp fyrir 16 GB VRAM (Qwen‑3.5 & DeepSeek‑R1)

Dev.to +6 heimildir dev.to
agentsdeepseekllamaqwen
Þróunaraðili kom í veg fyrir takmarkanir í ský‑tengdu AI‑IDE þegar hann var að smíða gagnaríkt vefforrit og ákvað að fara “offline”. Með því að “sauma” saman tvö 14 billiár‑stærð ólokaðra líkans – Qwen‑3.5 og DeepSeek‑R1 – og keyra þau á einu 16 GB GPU, setti höfundurinn saman „fjöl‑þjónustuhóp“ sem getur rökstutt, sótt gögn og keyrt kóða án þess að nokkurn tíma nota ytri API. Leikurinn felst í áköfri 4‑bita kvörun, notkun Mamba‑V2 minnis‑aukaða transformerins til að tengja samhengi og léttvægum stjórnunarlagi byggðu á Remocal‑MVM keyrsluumhverfinu. Niðurstaðan er staðbundið umhverfi með sjálfstýrandi þáttum sem getur tekist á við sama fjölda beiðna og áður eyðilagði ský‑kvótann, á meðan tafartími er haldið undir 300 ms á umferð. Af hverju þetta skiptir máli er í þremur atriðum. Fyrst og fremst geta þróunaraðilar nú umgengt vaxandi kostnað og takmörkunarreglur við viðskipta‑LLM API‑a, vandamál sem við bentum á í skýrslu okkar frá 2. apríl um „Machine Learning Stack sem er byggt upp frá grunni“. Í öðru lagi bætir innleiðing á staðnum persónuvernd gagna – vaxandi reglugerðaráhersla í norrænum löndum. Í þriðja lagi sýnir aðferðin að jafnvel takmarkaður vélbúnaður getur stutt flókin fjöl‑þjónustuflæði, og þannig gert sjálfstýrandi AI aðgengilegt þeim sem áður þurftu að treysta á stórskala skýþjónustur. Það sem á eftir að fylgjast með er vistkerfið sem mun gera þessa aðferð auðveldari í innleiðingu. Óskum um stuðning Ollama við blandaða nákvæmniskerfi, Remocal‑ský‑sprengju eiginleiki og opinn OpenClaw keyrsluvél eru öll áætlaðir til útgáfu seinna á þessu fjórðungi. Ef þessi verkfæri vaxa í fullum mæli, má búast við sprengjulegum fjölda staðbundinna fjöl‑þjónustuhópa sem knúi allt frá rauntíma stjórnborðum – eins og Claude Code‑þjónustuteyminu sem við fjöllum 2. apríl – til sjálfstæðra gagna‑greiningarbóta. Næsta viðmið verður hvort þessir DIY‑staflar geti náð áreiðanleika og stigstærð stjórnaðra þjónusta án þess að fórna kostnaði eða samræmi.
24

AI vikublað: 27.3.–1.4.2026 – Anthropic í þrjá áföll á einni viku, Arm fær fyrsta sjálfhannaða örgjörva, Apple opnar Siri fyrir keppinauta

Dev.to +5 heimildir dev.to
anthropicappleclaudeopenaisora
Anthropic kom í fyrirséðu í þessari viku með þremur samfelldum áföllum sem gætu umbreytt AI‑landslaginu. Fyrirtækið, sem er staðsett í San Francisco, lagði fram frumskjöl um IPO í október, sem gefur til kynna traust á að hraði vöxtur tekna – knúinn áfram af Claude‑lífinu af módelum – sé nú nægjanlegur til að koma í almenna umferð. Á sama tíma var innri próf á næstu kynslóð “Mythos” módelinu óvart sýnt á opinberu umræðuvef, þar sem kerfi sem samkvæmt skýrslum er betra en Claude Sonnet 5 í kóðagerð og rökfræðiprófum kom í ljós. innan nokkurra klukkustunda lekið annar öryggisbrot út hluta af Claude Code grunnkóðanum, sem leiddi til þess að Anthropic lokaði ytri aðgangi og hóf ritháttarrannsókn. Lekið er mikilvægt vegna þess að það sýnir þunna mörk milli samkeppnisforskots og öryggis í markaði þar sem frammistöða módelanna er lykilþáttur. Fjárfestar munu fylgjast með því hvernig IPO-skjölin takast á við þessa áhættu, á meðan keppinautar gætu reynt að meta hvort Mythos bjóði upp á flýtileið til svipaðra getu. Fyrir utan Kyrrahaf, lokaði OpenAI hljóðlega Sora, áberandi texta‑í‑mynd þjónustu, og tilkynnti að “auðlindarmörk” og stefna í átt að skalanlegri fjölbreyttri lausn myndi vera ástæðan. Þetta sýnir vilja OpenAI til að fjarlægja tilraunavörur í hagnaðarmarkmiðum eins og ChatGPT og nýja GPT‑5 línuna. Á sama tíma tilkynnti Arm fyrsta sjálfhannaða AI‑hröðunaraðila í 35 ár, örgjörva byggðan á 3 nm ferli sem lofar minni tafar og minni orkunotkun en samkeppnisaðilar eins og Nvidia GPU í jaðartölvuúrvinnslu. Ef silíkið stendur undir viðmiðum sínum gæti það veitt evrópskum og asískum tæki framleiðendum innlenda valkost við núverandi GPU‑miðaða framboð keðju. Vikan endaði með iOS 27 forsmíðum frá Apple, þar sem Siri verður opnað fyrir stórt tungumálamódel frá þriðju aðila. Forritara munu geta sent raddfyrirspurnir til Claude frá Anthropic, Gemini frá Google eða annarra þjónusta, og slá á de facto einokun ChatGPT á Siri. Þetta gæti flýtt fyrir markaði fyrir AI‑bætt forrit, en vekur einnig nýjar keppnismál um stjórn vefsvæðisins. Hvað á eftir að fylgjast með: formleg IPO-skilning Anthropic og möguleg reglugerðarviðbrögð við gagnaöryggisbrotum; næsta vörufókus OpenAI eftir Sora‑útslag; frammistöðuupplýsingar og innleiðingarhlutfall nýja hröðunaraðila Arm; og júníútgáfa opins AI‑viðmóts Siri, sem mun sýna hversu fljótt þriðju aðila módel geta náð markaðshlutdeild í raddaðstoð.
24

Apple (PRODUCT)RED er liðinn, en hvað með iPhone 18 Pro?

Mastodon +6 heimildir mastodon
apple
Apple er samkvæmt rykjum að prófa “djúprauða” yfirborðsáferð fyrir væntanlega iPhone 18 Pro og iPhone 18 Pro Max, lit sem líkist meira burgundi en björtum lit sem hefðbundið er tengdur (PRODUCT)RED línunni. Rykrið, sem fyrst kom út á MacRumors, bendir til þess að liturinn verði í boði við útgáfu, en Apple hefur ekki staðfest hvort hann verði markaðssettur undir (PRODUCT)RED merkinu, sem hefur verið óvirkt síðan iPhone 14 RED módelin. Breytingin skiptir máli af tveimur ástæðum. Fyrst hefur (PRODUCT)RED verið áberandi samstarf sem beina hluta af verði hvers tækis til Global Fund til að berjast gegn AIDS, malaríu og COVID‑19. Að fjarlægja merkið gæti táknað stefnumótandi drátt frá markaðssetningu tengdri málefnum, sem gæti minnkað góðgerðaráhrif Apple og breytt neytendaímynd um félagslega ábyrgð fyrirtækisins. Í öðru lagi gæti nýi liturinn verið vísbending um víðtækari endurnýjun á litapalleti Apple, sem bendir til vilja til að prófa út fyrir þá daufu tóna sem hafa ríkir í nýlegum útgáfum. Rykrið kemur í kjölfar bylgju af iPhone 18 Pro tæknilýsingum sem benda á meira AI‑miðað myndavélakerfi. Upprunalegir heimildir segja að Pro módelin muni bjóða upp á breytilegt ljósop, sem gerir kleift að nota fljótari lokunartíma og minnka suð í myndum, á meðan vélarnám á tækinu mun beita bokeh og öðrum áhrifum í rauntíma í stað eftirvinnslu. Ef þetta er satt, gætu vélbúnaðaruppfærslurnar samræmast við stefnu Apple um að innleiða generative AI í gegnum allt vistkerfið, þema sem fjallað er um í nýlegum greinum okkar um OpenAI og þeirra “super‑app” áætlanir. Hvað á að fylgjast með næst: Septemberviðburður Apple verður fyrsta tækifærið til að sjá hvort djúprauða yfirborðið verði opinberlega merkt sem (PRODUCT)RED og hvernig það verði verðlagt miðað við venjuleg litaval. Greiningaraðilar munu einnig leita eftir staðfestingu á breytilegu ljósopi myndavélarinnar og öllum hugbúnaðartilkynningum sem tengja nýja vélbúnaðinn við vaxandi AI þjónustu Apple. Niðurstaðan mun móta bæði góðgerðarsögu fyrirtækisins og samkeppnisstöðu þess á hágæða snjallsímamarkaðnum.
24

Hugging Face – AI-samfélagið sem byggir framtíðina

Mastodon +6 heimildir mastodon
huggingface
Hugging Face hefur sett í gang sérstakt “AI Apps” miðstöð á módeldeilingarvettvangi sínum, sem breytir löngum birgðum opins uppruna módelanna og gagna í verslunarsvæði þar sem forritarar geta birta, græða og tafarlaust sett í loftið notendaforrit. Útgáfan, sem tilkynnt var á blogginu fyrirtækisins þann 30. mars, bætir við lag af framleiðslu‑klárum verkfærum — eitt‑smell í loftið útgáfu til skýjaþjónusta, innbyggða notkunargreiningu og tekju‑deilingarlíkan sem skiptir tekjum milli módelhöfundar og forritahönnuða. Þessi aðgerð er stærsta útvíkkun Hugging Face vistkerfisins síðan SyGra‑rammaritið var kynnt í byrjun þessa mánaðar til að einfalda gagnapípur fyrir stór tungumál
24

AirPods Max 2 nú tiltækt í Apple verslunum

Mastodon +6 heimildir mastodon
apple
Apple hefur hafið sendingar á AirPods Max 2 í smásölustöðunum um allan heim, og breytt 16. mars útgáfunni frá því að vera aðeins fyrirframpöntun í fullkomið tilboð í verslunum. Viðskiptavinir geta gengið inn í Apple Store, tekið upp yfireyra heyrnartækin strax og farið út með $549 útgáfuna, sem er skref upp frá 12–14 vikna biðtíma á netinu sem plágnaði fyrstu kynslóðina. Þessi aðgerð er mikilvæg því hún bendir til þess að Apple hafi leyst vandamál í framboðskerfinu sem seinkaði útgáfu upprunalega Maxins og sé nú nógu sjálfsörugg til að koma framúrskarandi vörum í gegnum eigin steinsteypa‑ og múrverknet. Max 2 heldur áfram að nota H1 örgjörinn sem kynntur var árið 2019, í mótsögn við fyrri ágiskanir um H2‑uppfærslu, en bætir við Adaptive Audio vél Apple, sem aðlagnar sjálfkrafa EQ og hljóðvíddarbreytingar byggt á hreyfingu höfuðsins sem
24

Ég sá nýlega útdrátt af samtali við Claude frá kunning, þar sem þeir segja Claude að þeir eru að segja upp

Mastodon +6 heimildir mastodon
claudevector-db
Nafnlaus kunningur deildi nýlega útdrátti af samtali við Claude frá Anthropic þar sem notandinn bað módelið um að útbúa uppsagnarskilaboð. Gervigreindin bjó til „hjartnæmt“ bréf sem útskýrði ákvörðunina um að yfirgefa 16 ára starfslíft, og vísaði í siðferðislegar áhyggjur sem höfðu orðið „óásættanlegar.“ Notandinn sendi síðan textann til vinnuveitandans, sem staðfesti að brottförin hafði í raun átt sér stað. Atburðurinn sýnir hvernig stórir tungumálalíkön flýta frá því að vera kóðunarhjálpar og fyrirtækjaskjáborð—svæði sem við fjölluðum í nýlegum greinum um Claude Code og Claude CLI‑„leka“—til að taka þátt í nákvæmum, hásveifluðum persónulegum verkefnum. Að skrifa uppsagnarskilaboð kann að virðast daglegt, en það vekur spurningar um áreiðanleika, ábyrgð og möguleikann á að
24

Hvað er Copilot nákvæmlega?

HN +6 heimildir hn
copilotgpt-4gpt-5microsoftopenai
Microsoft hefur sett í gang einfaldað vörumerki fyrir AI aðstoðarmanninn sinn, sem nú er einfaldlega kallaður „Copilot“, og skýrt nákvæmlega hvað þjónustan felur í sér. Byggt á GPT‑4 frá OpenAI og væntanlegum GPT‑5 módelum, er Copilot ekki lengur eini spjallmenni sem er falinn bak við Bing; það er safn af generative‑AI eiginleikum sem eru innfléttaðir í Windows, Edge, Microsoft 365 og stærra Azure vistkerfið. Notendur geta kallað á það frá verkstikunni, beðið það um að skrifa tölvupósta í Outlook, búa til skyggnur í PowerPoint eða draga fram gagnaupplýsingar í Excel, allt í gegnum náttúruleg málskipan. Skýringin er mikilvæg því hugtakið „Copilot“ hefur verið notað óljóslega um alla Microsoft vörulínu – frá forritara‑miðuðu GitHub Copilot til neytenda‑miðuðu Bing spjalls. Með því að sameina vörumerkið gefur Microsoft til kynna að AI verði sjálfgefinn aðstoðarlag yfir allan hugbúnaðsstafinn, og setur fyrirtækið í beinan samkeppni við Google Gemini og
23

Lausaframboðstarfsmenn sem þjálfa mannleg vélmenni heima

Mastodon +6 heimildir mastodon
appletraining
Ný bylgja lausaframboðstarfsmanna um allt um Nigeria, Indland og fleiri en 50 önnur lönd er að breyta stofum sínum í gagnalaboratoríur fyrir næstu kynslóð mannlegra vélmenna. Vettvangar sem tengja sjálfstætt starfandi með AI‑þróunaraðila borga
21

Apple bætir enn einu iPad í lista yfir vintage vörur

Mastodon +6 heimildir mastodon
apple
Apple hefur flutt Wi‑Fi útgáfu þriðju kynslóða iPad Air í “vintage” vörulistann sinn, og slær í hópinn við snúnaðarmódelin sem voru bætt við í byrjun mánaðarins. Breytingin var birt á opinberu “vintage‑and‑obsolete” vefsíðu Apple og hefur verið staðfest af MacRumors og 3uTools. iPad Air 3, sem kom fyrst út í október 2022, hefur nú náð fimm ára mörkinu sem kallar á vintage flokkun Apple, sem þýðir að fyrirtækið mun ekki lengur bjóða upp á vélbúnaðarþjónustu eða varahluti fyrir tækið. Uppfærslan er mikilvæg af nokkrum ástæðum. Fyrir norræna neytenda og viðgerðaraðila merkir vintage merkið lok opinberra stuðnings, sem ýtir eigendum í átt að þjónustu frá þriðju aðila eða í nýskiptum. Endursölugildi lækka venjulega þegar tæki er flokkað sem vintage, og það gæti haft áhrif á sterka notaða markaðinn sem mörg skólakerfi og fyrirtæki í Svíþjóð, Noregi og Finnlandi treysta á til að fá hagkvæmar spjaldtölvur. Aðgerðina dregur einnig fram breiðari líftímastrategíu Apple: með því að formlega draga úr eldri vélbúnaði hvetur fyrirtækið notendur til að fara í átt að nýrri gerðum sem geta sýnt nýjustu AI‑drifnu eiginleika, svo sem tungumálalíkön á tækinu sem voru kynnt í byrjun ársins. Eins og við skýrðum 11. júlí 2025, uppfærir Apple reglulega vintage listann, síðast þegar 2013 Mac Pro og nokkur iPad mini útgáfur voru bætt við. Að taka iPad Air 3 inn í listann bendir til þess að Apple muni halda áfram að hreinsa út tæki sem voru kynnt árið 2022 og 2023. Fylgist með tilkynningum sem gætu sett iPad mini 6, Apple TV 4K (2022) eða jafnvel iPad Pro 2023 í vintage flokkinn síðar á þessu ári. Áhugasamir aðilar ættu að fylgjast með tilkynningum Apple um hætt við þjónustu, mögulegum breytingum á innskiptaviðskiptum og áhrifum ESB‑víðrar réttinda til viðgerða‑lögum, sem gætu neydd tæknajafnan til að endurskoða hversu fljótt hún dregur úr stuðningi við eldri vélbúnað. Vintage listinn er hljóðlegur en ábendingargóður mælikvarði á hraða vörunýjunar Apple og áhrif hans á norræna markaðs­umhverfi í öðruhandi.
21

mri

Mastodon +6 heimildir mastodon
Rannsakandi hefur sett á netið stutt, bráðabirgða‑forskoðun á sönnun á hugmynd sem ber nýja stórt tungumálalíkani (LLM) í baráttu við mannlegar umsagnir í nýstárlegu innihalds‑eftirlitsprófi. Tilraunin, sem var deilt á opinberu umræðusvæði með merkingunni “#llm #ai #grc #governance #machinelearning”, sýnir fram á skilvirka aðferð sem höfundurinn kallar “MRI” – tilvísun í segulófnun (magnetic‑resonance imaging) – og skannar framleitt texta í næstum rauntíma til að meta samræmi, hlutdrægni og staðreyndarlegan réttmæti. Mikilvægi málsins felst í vaxandi þörf fyrir kerfisbundið eftirlit með LLM. Fyrirtæki og stjórnvöld glíma við óskýrleika gerandi gervigreindar, sérstaklega þegar líkön eru sett í notkun í viðskiptavina‑spjallmenni, sjálfvirkri skýrslugerð og ákvörðunarstuðningsverkfærum. Núverandi aðferðir við úttekt byggja oft á dýrmætum handvirkum yfirferðum eða þungum tölfræðilegum prófum sem draga úr hraða innleiðingar. Ef MRI‑aðferðin getur áreiðanlega flaggað áhættusamar úttök án þess að auka töf, gæti hún orðið hornsteinn í stjórnun gervigreindar, auðveldað samræmi við nýlegar kröfur EU AI‑löganna og innri GRC‑stefnur. Forskoðunin gefur til kynna merki sem er nægjanlega sterkt til að réttlæta frekari þróun, en verkið er enn á frumstigi. Næstu skref sem fylgjast þarf með eru formleg birting á aðferðafræðinni, opinn útgáfa á verkfærunum og tilraunaverkefni í samvinnu við helstu skýja‑AI‑vettvang. Atvinnugreinin mun einnig fylgjast með því hvort stjórnvöld vísi í slíkar aðferðir í komandi leiðbeiningum og hvort keppinautar kynni sambærileg eftirlitslausn. Þegar AI‑samfélagið leitar að skalanlegum öryggisráðstöfunum gæti MRI‑hugmyndin fljótt farið frá flýgilegu sýningarefni yfir í lykilþátt í ábyrgu innleiðingu LLM.

Allar dagsetningar