AI News

454

**Höfundarréttur: Encyclopaedia Britannica stefnir OpenAI vegna AI‑þjálfunar**

**Höfundarréttur: Encyclopaedia Britannica stefnir OpenAI vegna AI‑þjálfunar**
Mastodon +8 heimildir mastodon
openaitraining
Encyclopaedia Britannica hefur leitt OpenAI fyrir dómstólum í New York og ásakað þróunaraðila ChatGPT um umfangsmikla brot á höfundarrétti og vörumerkjum með því að nota greinar útgefandans til að þjálfa stórt tungumálalíkön sitt. Kvörtunin, sem var lögð fram á þriðjudaginn, segir að OpenAI hafi skrapað um 100 000 Britannica-færslur án leyfis og innifalið þær í gagnasettinu sem knýr GPT‑4 og eftirfylgjenda þess. Málstæðið krefst fjárhagslegs skaðabóta, banns um að halda áfram að nota efni Britannica og varanlegs banns gegn „óheimildum afritun“ efnisins af OpenAI. Í málinu er einnig nefnt Merriam‑Webster sem meðmæltaka, sem sýnir samstillta átak hefðbundinna tilvísunarbókaframleiðenda til að takmarka það sem þeir telja ólöglegt gagnaöflun. Eins og við skýrðum 16. mars er lögfræðiaðgerð Britannica hluti af víðtækari lögfræðibylgju sem beinist að AI-fyrirtækjum vegna þjálfunargagna. Nýja kvörtunin bætir við nákvæmar tölur og annan stefnanda, og skerpar athyglina á því hversu mikið höfundarréttargreint efni er innbyrðis í AI-kerfum. Málstæðið kemur fram í samhengi við ólík niðurstöður í Evrópu um hvort gerandi líkan „geyði“ verndað verk, og í Bandaríkjunum þar sem ákvörðunin í Authors Guild v. Google hafði ekki leyst spurninguna um AI. Útkoman gæti umbreytt landslagi gagnaöflunar fyrir AI‑þróunaraðila. Dómur sem krefst strangrar leyfisveitingar gæti þvingað OpenAI og samkeppnisaðila til að endurskiptum um stórum innihaldsviðskiptum eða til að treysta meira á opinberlega aðgengileg gögn, sem gæti hælt þróun líkana. Á hinn bóginn gæti niðurstaða sem felur í sér fráhafn dregið úr hindrunum og hvatt til frekari stórra skrapunar. Fylgist með frumrökum dómstólanna í næstu vikur, sérstaklega líklegri beiðni OpenAI um samantektardóm, og með mögulegum sáttum sem gætu sett fordæmi um hvernig útgefendur nýta arkífunum sínum á tímum gerandi AI. Málstæðið mun einnig hafa áhrif á í gangi EU-viðleitni til að rannsaka AI‑þjálfunargögn, og er því lykilatriði í lagaramma greinarinnar.
336

Show HN: Claude Code færni sem byggir fullkomna Godot leiki

Show HN: Claude Code færni sem byggir fullkomna Godot leiki
HN +6 heimildir hn
claudevector-db
GitHub geymsla sem var sett á Hacker News á mánudaginn kynnti safn af “Claude Code færni” sem getur framkallað heildar Godot leiki út frá einu náttúrulegu tungumálaprompti. Höfundurinn, sem notar notandanafninu htdt, settir saman sett af prompt-sniðmátum, litlum CLI umbúðum og röð af eftirvinnslu skriftum sem kalla á Anthropic’s Claude Code API, sækja opna uppsprettu‑eignir, setja saman senur og útbúa tilbúinn .zip skrá til keyrslu. Geymslan kemur með þremur sýnilegum titlum – platformspil, ofan‑á‑neðan skotleiki og þrautaleik – hver og einn byggður frá upphafi til enda án nokkurs handskrifaðs kóða nema upphaflegu promptinu. Útgáfan byggir á Claude Code verkfærunum sem við fjölluðum um í byrjun þessa mánaðar í greininni “I Built a Browser UI for Claude Code — Here’s Why”. Hún sýnir hvernig verkfæra‑kalla hæfni módelins er hægt að nýta ekki bara til að búa til smáatriði heldur til að setja upp fulla verkefnauppbyggingu. Fyrir sjálfstæða þróunaraðila og áhugamenn minnkar hindrunin við að prófa leik sem er spilanleg frá vikna forritunarvinnu í mínútur af promptum. Fyrir kvikmyndastofur lofar tækniinni hraðari endurskoðun á leikmekanum og fljóta framleiðslu á staðgengilsgögnum, sem gæti umbylt fyrstu stigum framleiðsluferlis. Stærri áhrifin byggja á þremur þáttum. Fyrst, gæði og frumleiki AI‑framleiddra eigna munu ákvarða hvort útkoman er gróft frumgerðarverk eða birtingarhæft vöru. Í öðru lagi eru lagaleg og siðferðileg spurningar varðandi endurnotkun safnaðrar myndlistar, hljóðs og kóða enn óleystar. Í þriðja lagi sýnir nálgunin vaxandi vistkerfi af “færi” – endurnýtanlegum prompt-pökkum sem hægt er að deila í skráningum eins og Notion Skills Registry sem við skýrðum um 16. mars – og bendir til markaðar fyrir AI‑stýrð þróunareiningar. Það sem á að fylgjast með næst: vegvísir Anthropic um dýpri verkfæra‑samþættingu, samfélagsleg framlag sem stækka færslubókasafnið til annarra véla, og fyrstu notkunartölur frá sjálfstæðum leikjam. Öryggisrannsakendur gætu einnig miða við pípunina til kóða‑innspýtingarárásar, í samræmi við áhyggjur sem komu fram í nýlegu greininni okkar “Show HN: Open‑source playground to red‑team AI agents”. Næstu nokkur mánuðir munu sýna hvort Claude‑stýrð leikjaframleiðsla verður sérkennileg forvitni eða aðalflýtileið fyrir sköpunarmenn um allan Norðurlönd og lengra út.
294

Encyclopedia Britannica sues OpenAI for copyright and trademark infringement

Encyclopedia Britannica sues OpenAI for copyright and trademark infringement
HN +12 heimildir hn
copyrightopenaitraining
Encyclopedia Britannica and its dictionary subsidiary Merriam‑Webster have filed a federal lawsuit accusing OpenAI of both copyright and trademark infringement. The complaint, lodged in the U.S. District Court for the Northern District of California, alleges that OpenAI scraped roughly 100,000 copyrighted articles from the publishers’ databases to train its flagship models, including ChatGPT‑4, without permission. It further claims the company repeatedly presents AI‑generated answers that appear to be endorsed by, or directly sourced from, Britannica and Merriam‑Webster, thereby violating the firms’ trademarks and misleading users. The filing expands on the copyright allegations we first reported on 16 March, adding a trademark dimension that could broaden the legal exposure for OpenAI. According to the suit, the AI system not only reproduces verbatim passages but also “hallucinates” citations, inserting the Britannica name into fabricated references. Such misattributions, the plaintiffs argue, erode brand trust and constitute false advertising under the Lanham Act. The case arrives amid a wave of litigation targeting large‑scale AI developers for using copyrighted text, images and code without clear licences. If the court grants an injunction, OpenAI may be forced to purge or retrain its models on the disputed material, a move that could disrupt the rollout of new features and delay planned expansions of ChatGPT in Europe and North America. The lawsuit also raises the spectre of financial penalties and a possible requirement to compensate the publishers for past usage. What to watch next: OpenAI’s formal response, expected within 21 days, will likely contest the scope of the alleged infringement and may seek a summary judgment. The court’s decision on a preliminary injunction, due in the coming weeks, will signal how aggressively U.S. judges are willing to curb AI training practices. Parallel actions by other content owners—such as the recent Britannica suit we covered on 17 March—suggest a coordinated push that could reshape data‑licensing norms across the AI industry. Stakeholders should monitor any settlement talks, as a resolution could set a template for how publishers negotiate access to AI training data going forward.
283

NVIDIA DLSS 5 er eins og… # DLSS # DLSS5 # tech # technology # BigTech # IT # AI

NVIDIA DLSS 5 er eins og…   # DLSS    # DLSS5    # tech    # technology    # BigTech    # IT    # AI
Mastodon +7 heimildir mastodon
nvidia
NVIDIA hefur sett í loftið DLSS 5, næstu kynslóð AI‑drifins uppskölunar kerfis sem lofar „rauntíma taugamyndun“ og ljósmyndun í raunsæju á RTX vélbúnaði fyrirtækisins. Tilkynningin, sem kom fram í bloggfærslu og endurtekin á GTC 2026 sviðinu hjá fyrirtækinu, setur DLSS 5 fram sem mest áberandi grafíkabrot síðan rauntíma geislað rekstrar (ray tracing) kom í ljós árið 2018. Ólíkt fyrri útgáfum, sem byggðu á samsetningu tímabundinna gagna og lítilli taugakerfisneti, keyrir nýja vélmennið full‑frame djúpnámamódel í 60 fps, og innleiðir efnis‑vitundar skugga og breytilega alheimslýsingu beint í hverja mynd. Uppfærslan er mikilvæg því hún gæti minnkað frammistöðubilið milli innfæddrar 4K myndvinnslu og lægri upplausna ferla, sem gerir þróunaraðilum kleift að bjóða upp á sjónræna gæði á spilaraskipti stigs á miðstigs tölvum og jafnvel næstu kynslóð spilaraskipta. Fyrstu sýnikennslur sýna skarpari áferð, nákvæmari speglanir og mjúkara hreyfingar án hefðbundinna DLSS „ghosting“ galla, ályktun sem, ef hún reynist rétt, gæti umbreytt því hvernig kvikmyndastöðvar úthluta GPU fjárhagsáætlunum. Fyrir leikjavélina þýðir þetta færri þarfir á handvirkum lýsingarferlum, sem gæti flýtt þróunartímar og lækkað kostnað fyrir indie‑verkefni sem áður gátu ekki ráðið við dýrt geislað rekstrar. Það sem þarf að fylgjast með næst er útgáfuáætlun og innleiðingarvegferð. NVIDIA hefur áætlað að SDK verði gefið út í haust 2026, með beta‑stuðningi þegar til staðar fyrir Unreal Engine 5 og Unity. Þróunaraðilar munu horfa á stöðugleika drifanna, áhrif á töf og hvernig nýja módelinn tengist nýlega kynntu Vera CPU og Groq LPU hröðunaraðilum, sem báðir voru í sviðinu á GTC. Eins og við skýrðum 17. mars, er AI‑miðaður vélbúnaður NVIDIA nú að sameina sig við hugbúnað, og DLSS 5 verður fyrsta litmælir á viðskiptahæfni þessarar stefnu. Næstu frammistöðumat og sjálfstæðar umsagnir frá þriðju aðila munu ákveða hvort ofskriftin breytist í áþreifanlegan stökk fyrir bæði leikmenn og sköpunarmenn.
237

OpenAI dregur úr hliðaverkefnum í tilraun til að “nail” kjarnaviðskiptin

OpenAI dregur úr hliðaverkefnum í tilraun til að “nail” kjarnaviðskiptin
HN +8 heimildir hn
openai
OpenAI tilkynnti stefnumótandi drátt á hliðarfyrirbærum, beinir auðlindir að “kjarnaviðskiptunum” í kóðahjálp og framleiðni fyrirtækja. Breytingin var kynnt á all‑hands fundi leiddum af Fidji Simo, yfirstjórnandi OpenAI’s applications deildar, sem sagði að eldri leiðtogar — þar á meðal forstjóri Sam Altman og aðalrannsóknarstjóri Mark Chen — séu í virku ferli við að meta hvaða verkefni verði dregin úr forgangi. Færsla fylgir tímabili hratt vaxandi þar sem rannsóknarstofan í San Francisco kynnti fjölda hliðartilboð, frá myndagerðarlíkönum til sértækra viðbóta og tilraunakennds rannsókna. Þessi vörur hafa víkkað vörumerki OpenAI, en hafa einnig þrýst á verkfræðibandbreidd og vakið athygli fjárfesta í ljósi vaxandi samkeppni frá keppinautum eins og Anthropic og Microsoft‑studdum AI þjónustum. Með því að einbeita sér að kóðagenereringu (t.d. Codex‑afleiddur “Copilot” línan) og viðskiptamiðuðum aðstoðarmönnum, vonast OpenAI til að þétta tekjustreymi sitt og sýna skýra virði til fyrirtækja viðskiptavina. Greiningaraðilar í greininni sjá ákvörðunina sem merki um að OpenAI sé að breyta frá “vöxtur‑á‑öllum‑kostnaði” stefnu yfir í hagnaður‑miðaða líkan. Endurúthlutun gæti flýtt fyrir eiginleikaútgáfum fyrir ChatGPT viðskiptapakka, dýpkað samþættingu við Microsoft Azure pallinn, og skerpt samkeppnisstöðu fyrirtækisins á arðbærum þróunartólamarkaði. Á sama tíma gætu niðurstöðurnar seinkað framþróun í nýrri gerðum eins og fjölbreytilegum umboðum og gætu leitt til hækkandi starfsmannaveltu í teymum sem vinna að lokaðum verkefnum. Hvað á að fylgjast með næst: ítarlegur listi yfir verkefnin sem ætlað er að draga úr, mögule
198

Nvidia kynnir Vera örgjörva, hannaður sérstaklega fyrir umboðsmannleg AI

Nvidia kynnir Vera örgjörva, hannaður sérstaklega fyrir umboðsmannleg AI
HN +5 heimildir hn
agentsnvidia
Nvidia opinberaði fyrsta örgjörva sinn sem er byggður sérstaklega fyrir umboðsmannleg AI á opnunardag GTC 2026, og kynnti Vera CPU ásamt Vera Rubin hillu‑stærðar pallinum. Silíkið inniheldur 88 sérsniðna “Olympus” kjarnur, annar kynslóð LPDDR5X minni kerfi sem skilar allt að 1,2 TB/s í bandbreidd, og frammistöðu á einni þræði sem er áætluð að yfirskrifa alla núverandi almenna örgjörva. Samþætt með NVLink 6, ConnectX‑9 SuperNICs og BlueField‑4 DPU, pakar Vera Rubin NVL72 hillu 72 Rubin GPU og 36 Vera CPU, og lofar verulega hærri AI umferð, lægri seinkun og allt að tvöfaldri orkunýtingu fyrir endurkröftun‑lærdómsverkefni, kóðaraðstoð og aðra sjálfstæða umboðsmenn. Kynningin táknar ákvörðunarlegan snúning fyrir Nvidia eftir tilkynninguna þann 16. mars um að það drögum sig úr samstarfi við OpenAI og Anthropic. Með því að bjóða upp á reiknirit frá silíki til kerfis, setur Nvidia sig fram sem end‑til‑end lausnaraðili fyrir næstu kynslóð “umboðsmannlegra” forrita—hugbúnað sem getur skipulagt, framkvæmt og aðlagað sig í rauntíma. Þetta samræmist einnig nýlegum þróun í greininni: vaxandi fjöldi umboðsmannlegra AI kóðaúttektara, tilkomu algríms‑kerfis samhönnunarramma eins og AgentServe, og vaxandi eftirspurn eftir “mixture‑of‑experts” módelum sem þrýsta á hefðbundna örgjörva og GPU. Það sem á eftir að fylgjast
150

Why Most AI Agents Fail (And How to Design Them Right)

Why Most AI Agents Fail (And How to Design Them Right)
Dev.to +5 heimildir dev.to
agents
Af hverju flestir AI umboðsmenn misfalla (og hvernig á að hanna þá
150

Leyndarmálið á bak við merkingarleit: Vektorgagnasöfn

Leyndarmálið á bak við merkingarleit: Vektorgagnasöfn
Dev.to +5 heimildir dev.to
vector-db
Maneshwar Kumar hefur opnað upp kóðann á git‑lrc, AI‑knúnum kóðaendurskoðanda sem keyrir sjálfkrafa við hvert Git‑innskot. Verkfærið setur hverja breytt skrá í hárvíddarvektor, geymir vektorna í sérhannað vektorgagnasafn og framkvæmir síðan líkinda‑leitar á móti handvirkt safnaði af þekkingu um bestu venjur, þekktar villur og öryggis‑anti‑mynstur. Þegar nákvæm samsvörun finnst, setur git‑lrc stuttan umsagnarkomment beint í dráttarbeiðuna og bendir á möguleg vandamál áður en þau komast í framleiðslu. Útgáfan er mikilvæg því hún fær merkingarleit úr sviði skjalaleitar inn í daglegan verkflæði hugbúnaðarverkfræði. Hefðbundin stöðugreiningartól byggja á reglum‑studdum aðferðum; git‑lrc nýtir sömu líkinda‑leitarvélar sem knýja nútíma AI‑spjallmenni og tillögukerfi. Með því að skrá kóða­breytingar sem vektora getur endurskoðandinn greint dýnamísk vandamál —
142

Distilling Deep Reinforcement Learning into Interpretable Fuzzy Rules: An Explainable AI Framework

ArXiv +7 heimildir arxiv
agentsai-safetyreinforcement-learning
A team of researchers from several European universities has released a new arXiv pre‑print, arXiv:2603.13257v1, that proposes a framework for turning opaque deep reinforcement‑learning (DRL) policies into compact, human‑readable fuzzy‑rule systems. The method builds a hierarchical Takagi‑Sugeno‑Kang (TSK) fuzzy classifier that learns to mimic the actions of a trained neural policy while expressing its decision logic as a small set of IF‑THEN rules. Experiments on standard continuous‑control benchmarks such as MuJoCo’s Hopper, Walker2d and Ant show that the distilled fuzzy controllers retain 95‑plus percent of the original performance despite using orders of magnitude fewer parameters. The contribution matters because DRL’s success in robotics, autonomous driving and industrial automation has been hampered by a lack of transparency. Existing explainability tools—SHAP, LIME, or concept‑based distillation—offer only local or post‑hoc insights, leaving safety‑critical deployments vulnerable to hidden failure modes. By encoding the policy in a rule‑based fuzzy system, engineers can inspect, audit and even formally verify the controller’s behaviour, a prerequisite for regulatory approval in sectors such as medical devices or aviation. The approach also sidesteps the rule explosion that has plagued earlier neuro‑fuzzy attempts, thanks to the hierarchical structure that isolates sub‑policies and prunes redundant rules. What to watch next is whether the framework can survive the jump from simulation to real hardware. The authors plan to test the fuzzy controllers on a quadruped robot and an autonomous‑driving testbed, where latency and sensor noise pose additional challenges. Parallel work on concept‑based policy distillation and fuzzy‑logic reinforcement learning suggests a growing convergence on hybrid models that blend deep learning’s adaptability with symbolic interpretability. If the upcoming hardware trials confirm the simulation results, the method could become a cornerstone for certifiable AI in safety‑critical applications.
140

This Artificial Intelligence (AI) Stock Has a $19.4 Billion Microsoft Deal, a $3 Billion Meta Deal, and Now a $2 Billion Nvidia Investment -- Is It a Buy for 2026?

The Motley Fool +12 heimildir 2026-02-27 news
googleinferencemetamicrosoftnvidiatraining
Þessi gervigreindar (AI) hlutabréf hefur $19,4 milljarða samning við Microsoft, $3 mill
115

Hugsaðu fyrst, dreifðu hratt: Bætir rökstuðning í dreifunar‑tungumálalíkönum með sjálfvirkri áætlunarskilyrðingu

Hugsaðu fyrst, dreifðu hratt: Bætir rökstuðning í dreifunar‑tungumálalíkönum með sjálfvirkri áætlunarskilyrðingu
ArXiv +8 heimildir arxiv
coherefine-tuningreasoning
Rannsóknarteymi frá Háskólanum í Kaupmannahöfn og Swedish AI Institute hefur gefið út nýtt pre‑print, “Think First, Diffuse Fast: Improving Diffusion Language Model Reasoning via Autoregressive Plan Conditioning” (arXiv 2603.13243v1). Greinin takast á við viðvarandi veikleika dreifingar‑byggðra stórra tungumálalíkana (dLLMs): ómöguleikann að viðhalda samfelldum fjölskrefa rökstuðningi. Á meðan sjálfvirk (AR) líkön byggja setningar tákn um tákn, framleiða dreifingar‑líkön texta í gegnum endurtekna hreinsun (denoising) á leynilegri framsetningu, ferli sem getur misst rökræða tengslin sem eru nauðsynleg í verkefnum eins og stærðfræði eða kóða‑samsetningu. Höfundarnir leggja til tvíþætt skilyrðingaráætlun. Fyrst útbýr AR‑áætlunaraðili hárstigs “áætlun” – röð af abstraktum rökstuðningsskrefum – sem síðan er sett inn í dreifingar‑afkóðarann sem leiðbeiningarskilaboð. Með því að samræma dreifingarbrautina við AR‑áætlunina varðveitir líkanið rökræða samkvæmni á sama tíma og það nýtir styrkleika dreifingar í fjölbreytileika og þol. Tilraunir á stöðlum fyrir rökstuðning (GSM‑8K, MATH og LogicalDeduction) sýna 12‑18 % hnitamikið aukið nákvæmni yfir hefðbundin dLLMs og jafnan frammistöðu við nútímaleg AR‑líkön, allt á meðan áætlaður tafar í ályktun er í sambandi við nýlegar hraðar dreifingar‑aðferðir eins og FlashDLM. Af hverju er þetta mikilvægt? Tvöfalt. Fyrst minnkar það frammistöðuá milli dreifingar‑ og AR‑paradíma, sem opnar dyr fyrir blandaða kerfi sem geta skipt á milli framleiðslustíla eftir því hvaða verkefni er í boði. Í öðru lagi dregur aðferðin úr „samstillunarvandamálinu“ sem hefur takmarkað dLLMs í fyrirtækjaumhverfi þar sem áreiðanlegur rökstuðning er óumdeilanlegur – áhyggjuefni sem hefur endurspeglað í nýlegum norrænum umræðum um öryggi gervigreindar og áreiðanleika líkana. Hvað á eftir að fylgjast með: Höfundarnir ætla að opna kóðann sinn og samþætta áætlun
114

Understanding Seq2Seq Neural Networks – Part 4: The Encoder and the Context Vector

Dev.to +6 heimildir dev.to
biasvector-db
The latest installment of the “Understanding Seq2Seq Neural Networks” series, Part 4: The Encoder and the Context Vector, was published today, picking up where the March 15 and 16 articles left off. The author moves beyond the earlier discussion of adding extra weights and biases to explain how the encoder compresses an input sequence into a single, fixed‑length representation – the context vector – and why that step is the linchpin of any seq2seq system. The piece walks readers through the encoder’s mechanics, showing how recurrent cells (or stacked LSTMs, as covered in Part 3) ingest tokens one at a time, update hidden states, and finally emit the context vector that summarises the entire source. It highlights practical implications: the vector’s dimensionality directly trades off between model capacity and computational cost, and its quality determines downstream performance in machine‑translation, speech‑to‑text, and automated summarisation. By grounding the theory in code snippets from Intel’s Tiber AI Studio and visualisations of hidden‑state evolution, the article gives developers a concrete roadmap for implementing and debugging their own encoders. Why this matters now is twofold. First, the industry is still transitioning from classic RNN‑based seq2seq pipelines to attention‑augmented and transformer architectures; a solid grasp of the encoder‑context foundation is essential for anyone integrating or extending those newer models. Second, the rise of “agentic AI” in process design, as reported on March 16, often relies on compact sequence embeddings to feed downstream decision modules, making the context vector a shared building block across disparate AI applications. Looking ahead, the series promises a fifth part that will dive into attention mechanisms and how they replace the single context vector with dynamic, token‑wise weighting. Readers should also watch for the author’s upcoming tutorial on coupling the encoder output with transformer‑style decoders, a step that could bridge legacy seq2seq knowledge with the next generation of large‑scale language models.
111

Tölvulíkanshópar sem dreifikerfi

HN +5 heimildir hn
Grein sem sett var á arXiv þann 12. mars 2026 leggur til að meðhöndla safn af stórum tungumálalíkönum (LLM) sem dreifikerfi og býður upp á formlegt sjónarhorn til að byggja og meta „LLM‑teymi“. Greinin, skrifuð af Elizabeth Mieczkowski og fjórum samstarfsmönnum, heldur því fram að fjöl‑umhverfis‑gervigreindaruppsetningar deili fjórum grundvallareiginleikum klassískrar dreifigreindar: sjálfstæði (hver líkan vinnur á staðbundnu samhengi án sjálfvirkrar alþjóðlegrar stöðu), samhliða keyrsla (umhverfisþættir vinna í samhliða), samskipti (upplýsingar flæða í gegnum skilaboð) og villuleyfileiki (hver hnútur getur gert mistök eða bilað). Höfundarnir leggja fram að ein‑líkan umhverfisþættir eru takmarkaðir af stærðar takmörkum í samhengi, takmarkaðri minni og línulegri eðli röksemdafærslu, verkfæra notkunar eða kóða keyrslu. Með því að raða nokkrum líkum í samstilltan hóp geta kerfi dreift undirverkefnum, varðveitt millistig niðurstaðna milli umhverfisþátta og endurheimt frá einstökum bilunum — á sama hátt og skýþjónustur ná skalanleika og þol. Greinin varpar ljósi á þekkt hugtök eins og samkomulagsprótokoll, bilunartól og hleðslu‑jafnvægi í tengslum við LLM‑stjórnun, og bendir á að prófílaðar reiknirit úr dreifikerfum gætu skipt út núverandi tilraun‑og‑villa nálgun við hönnun fjöl‑umhverfis‑gervigreindar. Tillagan er mikilvæg þar sem AI‑iðnaðinn er þegar að prófa sjálfstæðar umhverfisþættir sem keða LLM‑kalla — AutoGPT, BabyAGI og fyrirtækja‑„AI‑hjálpar“ byggja öll á óformlegri samhæfingu. Ríkur rammi gæti minnkað þróunarkostnað, bætt áreiðanleika og veitt mælanleg viðmið fyrir öryggi og frammistöðu, sem svarar áhyggjum sem komu fram í nýlegum umræðum um AI‑stjórnun og misnotkun líkana. Fylgið eftirfylgjandi verkum á komandi viðburðum eins og NeurIPS 2026 og International Conference on Learning Representations, þar sem höfundarnir ætla að gefa út opinn hugbúnað sem innleiðir dreifikerfis‑grunnhluta fyrir LLM‑stjórnun. Íðnaðarmenn, frá skýveitendum til sprotafyrirtækja, eru líklegir til að prófa aðferðina í næstu kynslóð AI‑aðstoðarmanna, og næstu mánuðir verða því próftími til að sjá hvort kenning dreifikerfa geti temið flækjustig stórra tungumálalíkanssamstarfa.
107

dominik kundel (@dkundel) á X

Mastodon +9 heimildir mastodon
openai
OpenAI‑vöruliðandi Dominik Kundel deildi hagnýtu ráði á X sem gæti umbreytt því hvernig forritarar nýta Codex í sjálfvirkum vinnuflæðum. Í stuttu færslu útskýrði Kundel að með því að grafa í fyrri samtalsgögnum til að búa til „reglubók“, geta teymi kennt Codex að starfa innan sandkassa án þess að veita því fullan kerfisaðgang. Reglubókin virkar sem stefnuþrep, sem samþykkir eða hafnar hverju beiðni áður en hún er framkvæmd, og veitir þannig sjálfvirkni án fulls aðgangs. Leiðbeiningin kemur á lykilpunkti fyrir generative‑AI forritunarverkfæri. Codex, kóðagerðarmaskínan frá OpenAI, hefur verið notuð til alls frá flýtiskriftum til flókinna CI/CD pípunna, en kraftur hennar vekur öryggisáhyggjur þegar hún keyrir kóða í framleiðsluumhverfi. Með því að takmarka Codex í sandkassa og miðla aðgerðum hennar í gegnum lýsandi reglusett, geta forritarar nýtt hraða AI‑stýrðrar kóðunar á sama tíma og þeir draga úr áhættu á ófyrirsjáanlegum afleiðingum, gagnalekkunum eða hækkun réttinda. Ráðinn frá Kundel fellur einnig í línu við víðari stefnu OpenAI um öflugri AI‑dreifingu, þar sem nýlegar stefnuuppfærslur leggja áherslu á „manninn í hringrásinni“ og fínstilltar heimildalíkön. Iðnaðarskoðarar munu fylgjast með því hversu fljótt samfélagið tekur upp reglubókaraðferðina og hvort OpenAI formlegar hana í SDK‑pakka eða vettvangs eiginleika. Snemma aðilar gætu gefið út opna reglumát, sem myndi skapa markað fyrir endurnýtanlegar stefnuuppsetningar fyrir algeng verkefni eins og skráastjórnun, API‑kall eða úthlutun skýjaauðlinda. Á sama tíma er vænt um að þróunarteymi OpenAI fyrir forritara kynni strangari sandkassa‑API og verkfæri sem sjálfvirknar myndun reglubóka út frá samtalsferlum. Næstu vikur gætu fært í sér sprengju í tilraunaverkefnum sem sameina kóðahæfileika Codex með öryggi í fyrirtækjastigi, og setja nýtt viðmið um ábyrga AI‑hjálpað þróun.
102

📰 2026: Codex vs Claude Code – Hvernig er kóðun þrjár sinnum fljótari í “agentic coding”?

Mastodon +7 heimildir mastodon
agentsbenchmarksclaude
Nýtt viðmið sem gefið var út í þessari viku ber OpenAI‑Codex í baráttuna við Anthropic‑Claude Code í beinu samanburðarprófi á “agentic coding” – getu gervigreindar til að taka náttúrulegan textalýsingu, búa til útfærslur í mörgum skrám, keyra próf og endurtaka sjálfstætt. Rannsóknin sýnir að Claude Code skilar um það bil þreföldum afköstum miðað við Codex, mælt með 135 000 GitHub‑innleggum á dag samanborið við Codex‑hraða á 1 000 tákna á sekúndu á Cerebras vélbúnaði. Kostnaður á framleiddri kóðalínu er einnig í þágu Claude Code, þar sem verðlagið er undir 0,02 USD á 1 000 tákna, á meðan notkun Codex á dýrum GPU‑um kostar 0,05 USD. Niðurstaðan er mikilvæg því “agentic coding” er að fara frá tilraunakenndum sýningum yfir í framleiðsluferla. Hraðari og ódýrari útgáfa dregur úr viðbragðstímanum við eiginleikasamskiptum, villuleiðréttingum og stórum endurskoðunum, sem gerir teymum kleift að senda út uppfærslur á nokkrum dögum í stað vikna. Öryggi er annar þáttur sem greinir: Claude Code keyrir hvert verkefni í sandkassuumhverfi sem sjálfkrafa sannreynir niðurstöður prófa áður en breytingar eru sýndar, aðferð sem minnkar áhættu á að koma inn óöruggan kóða. Sandkassi Codex er minna takmarkandi, sem krefst meiri handvirkrar yfirferðar frá þróunaraðilum. Við könnuðum fyrst hæfileika Claude Code í mars, þar sem við lagðum áherslu á getu hans til að byggja fullkomin Godot‑leikur og samþættingu í vafra‑studd viðmót. Ný gögn um frammistöðu staðfesta að verkfærið er ekki aðeins fjölbreytt, heldur nú einnig samkeppnishæft í skilvirkni. Hvað á að fylgjast með næst: Anthropic hefur bent á næstu kynslóðarlíkan sem er fínstillt fyrir lágt seinkun ályktun á Nvidia Vera örgjörva, sem gæti aukið hraðamuninn enn frekar. OpenAI áætlar að gefa út Codex‑2 uppfærslu síðar á þessu ári, með loforð um nákvæmari samþætt
96

Mistral Small 4

HN +5 heimildir hn
agentshuggingfacemistralmultimodalreasoning
Mistral AI tilkynnti opna‑kóðauppfærslu **Mistral Small 4**, 119 bílljóns‑stika blöndu‑af‑sérfræðingum (MoE) líkan sem virkjar sex bílljóns stika á hvert tákn. Líkanið, sem er gefið út undir Apache 2.0 leyfi, sameinar leiðbeiningarfylgjandi styrkleika Instruct‑línunnar frá fyrirtækinu, djúpa rökfræðilega getu fyrri Magistral‑raðarinnar, fjölmynda sjónarmið Pixtral og forritunarfókus Devstral í eina arkitektúr. Með 128 sérfræðingum og fjórum virkum sérfræðingum á hvert tákn lofar Small 4 fljótari útreikningum en þétt líkan í sambærilegri stærð, á meðan það heldur sveigjanleika til að skipta á milli spjalls, forritunar og flókinna rökfræðilegra ham. Útgáfan er mikilvæg því hún er fyrsta skiptið sem Mistral býður upp á samstillt, opið MoE‑líkan á þessari umfangi. Í byrjun mánaðarins prófuðum við Mistral‑líkan með 7 bílljóns stikum gegn Phi‑3 og Llama 3.2 í Ollama, og komum að því að minni Mistral‑líkan sýna samkeppnishæft tafar og gæði í staðbundnum uppsetningum. Small 4 hækka frammistöðuþak fyrir þróunaraðila sem kjósa lausnir á eigin netþjónum eða á jaðrinum, og geta því minnkað háð við eignarleg API og lækkað rekstrarkostnað fyrirtækja sem þurfa fjölmynda eða sjálfvirka virkni án þess að fórna hraða. Það sem á eftir að fylgjast með er hvernig samfélagið samþættir Small 4 í núverandi verkfæraköllunarramma eins og Xoul‑staðbundna AI‑aðila pallinn, sem við fjölluðum um 16. mars. Snemma notendur munu líklega prófa skiptireglur líkanins og raunverulega rökfræðilega dýpt, á meðan viðmiðunarsöfn verða uppfærð til að bera Small 4 saman við önnur MoE‑útgáfurnar frá Meta og Google. Hraði Mistral‑þróunar bendir til að frekari fínpússun—kannski stærri fjöldi virkra stika eða nákvæmari fjölmynda‑táknaúrvinnsla—kunni að koma á innan árs, og móta opna‑kóða AI‑landslagið fyrir norræna þróunaraðila og fræðimenn.
95

Encyclopedia Britannica stefnir OpenAI vegna höfundarréttar- og vörumerkjabrot

Encyclopedia Britannica stefnir OpenAI vegna höfundarréttar- og vörumerkjabrot
Engadget +8 heimildir 2026-03-16 news
copyrightopenai
Eins og við tilkynntum 17. mars, hefur Encyclopedia Britannica nú lagt fram borgaralega málsókn gegn OpenAI í fjórðungsdómi Bandaríkjanna í suðurhluta New York, þar sem fyrirtækið er sakað um bæði höfundarréttabrot og brot á vörumerkjum. Kvörtunin, sem fyrst var fjallað um af Reuters og staðfest af TechCrunch, segir að OpenAI hafi safnað milljörðum greina úr Britannica og öðrum eignarlegum textum til að þjálfa ChatGPT-líkön sín án leyfis, og síðan framkallað efnið sem sitt eigið. Auk þess segir málið að viðmót OpenAI vísi ítrekað til “Encyclopedia Britannica” þegar svar er framleitt, jafnvel þegar efnið er rangt, og brjóti þannig vörumerki útgefandans og villi notendur. Málið er mikilvægt vegna þess að það skerpa lagalega umræðu um hvernig stór tungumálalíkön afla og endurnýta höfundarréttargögn. Britannica, 250 ára gömul tilvísunarmarki, heldur því fram að aðferðir OpenAI dragi úr tekjum sem viðhalda hágæða útgáfu og ógni aðgengi almennings að yfirprófuðum upplýsingum. Ef dómstóllinn veitir forvarnarbann, gæti OpenAI þurft að hreinsa eða þjálfa líkönin á ný með ólöglegum gögnum, skref sem myndi hafa áhrif á breiðara AI-umhverfi sem er þegar í óstöðugleika vegna svipaðra aðgerða Frjálsra hugbúnaðarstofnunar gegn Anthropic og nýlegrar útskrifunar Nvidia úr samstarfsforriti OpenAI. Það sem á eftir að fylgjast með eru dómstólsákvörðunin um forvarnarbann, möguleikinn á samkomulagi í hópmáli og stefnumótun OpenAI—hvort það muni semja um leyfisveitingar, breyta gagnaöflunarrásinni eða hafna kröfunum í heild. Samhliða málsókn Merriam‑Webster, lögð fram í sameiningu við Britannica, bendir til samstilltra aðgerða hefðbundinna útgefenda til að endurskilgreina reglur um AI‑þjálfun. Útkoman mun líklega setja viðmið fyrir framtíðar deilur um jafnvægi milli óendanlegs AI‑þróunar og verndar á andlegum eignarrétti.
88

Fyrir DOD er framtíð stórra tungumálalíkana minni

Defense One +9 heimildir 2025-05-22 news
multimodal
U.S. varnarmálaráðuneytið (DOD) tilkynnti nýtt frumkvæði til að minnka stærð tungumálalíkana sem það treystir á, með það að markmiði að keyra háþróaða gervigreind á fartölvum, harðbúnu vettvangstölvum og öðrum jaðartækjum. Frumkvæðið, sem er hluti af “AI‑Edge” verkefni Varnarmála‑framþróunar- og rannsókna stofnunarinnar (DARPA), mun fjármagna rannsóknir á þéttum líkanum – venjulega með færri en 10 milliár parametra – sem hægt er að fínstilla á verkefna‑sértækum gagnasöfnum og setja í notkun án stöðugrar skýjasambands. Verkfræðingar munu sameina skurð (pruning), kvörðun (quantisation) og söfnunarbætta framleiðslu (retrieval‑augmented generation) til að halda tafar í ályktun (inference latency) lágum, á meðan þeir varðveita rökstuðningskraftinn sem þarf fyrir verkefni eins og aðgerðaráætlanagerð, samantekt á upplýsingum og spá um flutningsþörf. Breytingin er mikilvæg því nútíma öflugustu líkönin eru hýst í risastórum gagnaverum í eigu kommersíalra þjónustuaðila. Að reiða sig á ytri ský er í hættu fyrir hernaðaraðgerðir vegna tafar, takmarkana í bandbreidd og mögulegs njósna, sérstaklega í umdeildum umhverfum þar sem andstæðingar geta truflað eða hlustað á samskiptin. Minni, staðbundin líkön draga einnig úr áreiðanleika DOD á nokkrum AI birgjum – áhyggjuefni sem var dregið fram í skýrslu okkar frá 15. mars um AI fyrirtæki sem setjast fram sem varnarmálasala. Með því að halda gögnum og ályktun á staðnum vonast herinn að vernda dulkóðaðar upplýsingar, minnka rekstrarkostnað og viðhalda virkni þegar tengingar eru veikburða. Næstu skref verða nátengd athugun. Tilraunasett er áætlað að sýna á komandi DOD AI Expo í júní, þar sem herinn, flókið og flugmannavarnir munu hver um sig sýna notkunartilvik frá rauntíma ógnabréfum til sjálfvirkra viðhaldsgreininga. Vöruframleiðslustjórar eru væntanlegir að gefa út beiðni um tilboð síðar á sumrin, með það að markmiði að finna fyrirtæki sem geta skilað “litlum‑en‑kraftmiklum” líkönum sem uppfylla strangar öryggis‑ og viðnámskröfur. Hversu vel þessi minnkuðu kerfi standa sig gegn skýjabundnu keppinautum mun móta framtíðararkitektúr hernaðar‑AI og gæti sett fordæmi fyrir aðrar stjórnvöld sem leita að örugg
87

GPT‑5.4 Mini og Nano

GPT‑5.4 Mini og Nano
HN +6 heimildir hn
benchmarksgpt-5openai
OpenAI hefur bætt við tveimur nýjum líkanum í GPT‑5.4 fjölskylduna – GPT‑5.4 Mini og GPT‑5.4 Nano – og gert þau strax aðgengileg í gegnum API‑ið, Codex og ChatGPT viðmótið. Báðar eru lýst sem „mest hæfileikaríkustu litlu líkanin til dagsins“, og skila frammistöðu sem stendur í samkeppni við fullstóru GPT‑5.4, á meðan Mini minnkar tafinn um helming og Nano um meira en þrefaldan hraða. Viðmiðunartölur sem OpenAI hefur gefið út sýna að Mini nær innan nokkurra prósentustiga af flaggskipinu í hugbúnaðarverkfræði (SWE) og rökfræðiverkefnum, á meðan Nano fór í boð um lítillega lægri nákvæmni til að fá dramatískan hraðabætandi áhrif og lægri verð á token. Útgáfan merkir skýran stefnuábreytingu hjá OpenAI: í stað þess að ýta áfram í sífellt stærri einingar, pakkar fyrirtækið nú sama kjarnagreind í léttari umhverfi sem hentar háþróuðum vinnulöðum, á‑tæki (on‑device) ályktun og kostnaðarviðkvæmum forritum. Fyrir forritara lofar líkanið hraðari svara í kóðaaðstoð, rauntíma fjölmynda­aðila og undir‑aðila sem þurfa að framkvæma þúsundir kallanna á sekúndu. Verðupplýsingar benda til þess að Mini verði um helming af kostnaði GPT‑5.4, á meðan Nano verði um fjórðung, sem gerir þau aðlaðandi fyrir ChatGPT Free og Go notendur sem áður sáu aðeins eldri „mini“ stigið. Af hverju þetta skiptir máli er tvíþætt. Fyrst er bilið milli frammistöðu stórra og smáa líkana að minnka, sem ögrar þeirri hugmynd að aðeins gríðarlegar byggingar geti tekist á við flókin rökfræðileg verkefni. Í öðru lagi þrýstir þessi þróun á keppinauta eins og Google’s Gemini og Anthropic’s Claude til að flýta upp eigin vegferð í átt að þéttum líkum, sem gæti umbreytt markaðinum fyrir AI sem er tilbúið til notkunar á jaðri (edge‑ready). Það sem þarf að fylgjast með næst: næstu uppfærslur OpenAI á þróunartólum sem munu gera fínstillingu fyrir Mini og Nano aðgengilega, og allar Azure‑samþættingar tilkynningar sem gætu flutt líkanin inn í fyrirtækja‑ský í stórum mæli. Jafnframt verður mikilvægt að fylgjast með raunverulegum notkunartölum – sérstaklega í háþrýstingskóðaaðstoð þjónustu og fjölmynda‑spjallmenni – til að sjá hvort hraða‑kostnaðarviðskipti standist væntingar.
84

📰 GPT-5.4 Mini og Nano í loftinu árið 2026: Flagship AI frammistaða á 70 % lægri kostnaði – OpenAI hefur sett í loftið

📰 GPT-5.4 Mini og Nano í loftinu árið 2026: Flagship AI frammistaða á 70 % lægri kostnaði – OpenAI hefur sett í loftið
Mastodon +7 heimildir mastodon
benchmarksgpt-5openai
OpenAI hefur sett í loftið tvö ný útgáfur af flaggskipinu GPT‑5.4 módelinu — Mini og Nano — og býður nálægt flaggskipsgæði á brot af kostnaði og reikniritum. Fyrirtækið segir að Mini gangi meira en tvöfalt hraðar en fyrri GPT‑5 Mini, á meðan það skilar frammistöðu innan nokkurra prósentustiga frá fullstæðu GPT‑5.4 á hugbúnaðarverkfræðimælikvörðum, og Nano ýtir enn frekar á skilvirkni, með því að minnka útreikningskostnað um um það bil 70 % miðað við flaggskipið. Útgáfan merkir ákvörðunarfullt skref í átt að „lítil‑en‑kraftmikil“ gervigreind, þróun sem hefur hækkað vegna nýjustu stefnu OpenAI um að minnka hliðarverkefni og einbeita sér að kjarnavörum, eins og við skýrðum þann 17. mars. Með því að minnka stærð módelins án þess að fórna kjarnahæfni, stefnir OpenAI að því að gera hágæða, mikilsniða notkunartilfelli — eins og kóðaútfyllingarhjálpar, rauntímaþýðingar og fjölbreyttar undir‑aðgerðir — ódýrari fyrir fyrirtæki og forritara. Lægri tafartími og minni kröfur um vélbúnað opna einnig dyrnar fyrir innsetningu á staðnum eða á jaðrinum, langtímaleiðangur norrænna fyrirtækja sem leita eftir gagnasjálfstæði og nánari samþættingu við innlendan innviði. Fyrir forritara eru módelin nú þegar aðgengileg í gegnum OpenAI API, Codex og ChatGPT viðmótið, með innbyggðri stuðningi við viðbótakerfi sem nýlega hafa fengið stuðning frá vettvangi eins og Cursor. Snemma notendur segja að hraðabætur Mini leiti til kostnaðarminnkunar upp á 40 % fyrir mikla kóðavinnu, á meðan Nano‑ultra‑létta fótspor gerir það hentugt fyrir innbyggða AI í IoT tæki. Hvað á eftir að fylgjast með: OpenAI hefur gefið til kynna vegvísir sem felur í sér fleiri kvantíseringartrix og vélbúnaðarsértækar hagræðingar, sem gætu enn frekar minnkað bilið til fullstæðis módelins. Iðnaðargreinin mun einnig fylgjast með hvernig keppinautar — Google Gemini, Anthropic Claude og nýrri evrópskir sprotafyrirtæki — bregða við með eigin litlu módelum, og hvort keppni um skilvirkni krefjist nýrra staðla fyrir AI mælingar og verðlagningu.
80

World lanserar verkfæri til að sannreyna menn á bak við AI innkaupasamtök | TechCrunch

Mastodon +7 heimildir mastodon
agentsstartup
World, auðkennisstaðfestingar‑fyrirtækið sem Sam Altman, forstjóri OpenAI, er meðstofnandi, kynnti AgentKit á þriðjudaginn, þróunaraðila‑miðuð SDK sem gerir netverslunum kleift að sanna
78

Apple tilkynnir AirPods Max 2

Mastodon +7 heimildir mastodon
apple
Apple kynnti önnur kynslóð AirPods Max þann 16. mars, og nefndi yfir‑eyra heyrnartækin “AirPods Max 2” og útbúi þau með nýja H2 örgjörva. Uppfærslan lofar 1,5‑falt bættri virkri hljóðeinangrun (ANC), endurbættri hljóðhönnun sem gefur ríkari bassa og skýrari miðtón, og rafhlöðu sem nær 30 klukkustunda afspilun. Verðið er ¥89.800 (≈ US $620) í Japan, og líkanið heldur í einkennilegu ryðuvinnslu stálsins og netkerfi úr fyrri útgáfu frá 2020, en bætir við fjölda AI‑stýrðra eiginleika: samtalsgreining sem stöðvar sjálfkrafa tónlist þegar þú talar, lifandi þýðing með tungumálalíkönum á tækinu, og bætt rýmis hljóð sem aðlagast hreyfingum höfuðsins. Útgáfan er mikilvæg því Apple styrkir stöðu sína á hágæða heyrnartækjamarkaðnum, sem er í forgrunni með Sony WH‑1000XM raðuna og Bose QuietComfort línuna. Með því að innleiða H2 örgjörvann – sem fyrst kom í AirPods Pro 2 – getur Apple keyrt flóknari merki‑vinnslualgoritma án þess að fórna töf, sem er nauðsynlegt fyrir rauntíma þýðingu og hnökralausa samþættingu við iOS 18 “Live Translate” eiginleikann. Aðgerðin gefur einnig til kynna víðtækari stefnu Apple um að flette framleiðslu‑AI inn í vélbúnaðarsamstarfið sitt, og breyta hreinu hljóðtækinu í ferðalags‑tungumálaaðstoð. Það sem á eftir að fylgjast með er alþjóðleg dreifingaráætlun; Apple hefur staðfest útgáfu í Bandaríkjunum í byrjun apríl, með öðrum lykilmarkaði sem koma fljótlega. Hugbúnaðaruppfærslur munu líklega opna fleiri LLM‑knúna aðgerðir, og greiningaraðilar munu fylgjast með hvort verðstigið leiði til skipta frá samkeppnismyndum. Að lokum eru iðnaðarskoðendur þegar að spá um mögulega “AirPods Max 3” sem gæti tengt heyrnartækin við Vision Pro rýmis hljóðvél, og þannig dular meira á milli persónulegs hljóðs og dýnamískra AR upplifana.
72

Að byggja Argus: Raddstýrður SOC samráðsaðili með Gemini Live

Að byggja Argus: Raddstýrður SOC samráðsaðili með Gemini Live
Dev.to +6 heimildir dev.to
agentscopilotgeminivoice
Þýðing: Vinna hóps norrænna forritara hefur leitt til útgáfu Argus, opins-kerfis, raddstýrðs samráðsaðila fyrir öryggisrekstrarstöðvar (SOC) byggð á Gemini Live API frá Google. Verkefnið, sem er sett á GitHub sem hluti af Gemini Live Agent Challenge, gerir greiningaraðilum kleift að tala náttúrulegri tungumálsfyrirmælum til stórs tungumálalíkans (LLM) sem strax umbreytir þeim í SQL-fyrirspurnir, sækir skrár úr ólíkum stjórnborðum og veitir taldar samantektir um ógnir—allt í rauntíma. Frumgerðina var sýnd í að takast á við hermda ransomware-viðvörun kl. 3 að morgni, þar sem handvirk greiningartími minnkaðist frá nokkrum mínútum í minna en þrjátíu sekúndur. Útgáfan er mikilvæg vegna þess að SOC-teymi eru stöðugt undir þrýstingi að minnka dvalartíma á meðan þau glíma við sundurlitin verkfæri. Með því að færa samskiptin frá lyklaborði yfir í rödd fjarlægir Argus algengt flöskuhorn: þörfin á að muna nákvæma fyrirspurnarsyntax og skiptast á milli margra stjórnborða. Lágseinkun Gemini Live, með streymisarkitektúr með lágu biðtíma, gerir upplifunina samtalslegri, á meðan notkun opinna geymslu (repo) hvetur til fljótlegrar þróunar í samfélaginu og samþættingar við núverandi SIEM-kerfi. Ef aðferðin skalar, gæti hún umbreytt vinnuferlum við atburðarviðbrögð, lækkað kunnáttuþröskuldinn fyrir nýja greiningaraðila og minnkað þreytu vegna endurtekinna handvirkra verkefna. Það sem þarf að fylgjast með næst eru frammistöðumælikvarðar sem munu koma fram þegar Argus er prófað í framleiðsluumhverfi, sérstaklega nákvæmni í hávaða umhverfi í símtölum og meðferð viðkvæmra gagna. Áætlun Google um Gemini 2.5 Flash, sem lofar enn fljóttari hljóðvinnslu, gæti enn frekar þrengt viðbragðstímann. Samkeppnisaðilar eru einnig í keppni um að innleiða raddaðila í öryggisuppsetningar, þannig að notkunartíðni, samstarfsauglýsingar við helstu SOC-söluaðila og möguleg staðlar um örugga radd‑AI í netöryggi verða lykilvísbendingar um hvort Argus verður sértilvik eða nýtt viðmið í ógnarleit.
72

Endurkomu falskfræða í gervigreind: Hefur vélarnám og djúpnám gleymt lærdómum úr tölfræði og sögu?

Mastodon +6 heimildir mastodon
Nýtt pre‑print á arXiv, “The Return of Pseudosciences in Artificial Intelligence: Have Machine Learning and Deep Learning Forgotten Lessons from Statistics and History?” (arXiv 2411.18656v1), heldur því fram að fræðasviðinu sé að falla aftur í aðferðir sem líkjast útrýmdum vísindalegum aðferðum. Greinin, skrifuð af Jérémie Sublime frá París Institute of Digital Technologies, fer yfir fjölgildar rannsóknir sem segja að þær geti dregið ályktanir um viðkvæmar eiginleika – pólitískar tilhneigingar, kynhneigð, jafnvel glæpatengd tilhneiging – út frá andlitamyndum með djúpnámslíkönum. Hún bendir á að þessar tilraunir hunsi grundvallaröryggisráðstafanir í tölfræði, meðhöndli skekkjandi fylgni sem orsakatengd sannanir og skapa þannig nýja tegund AI‑stýrðrar falskfræði. Viðvörunin er mikilvæg því slíkar rannsóknir eru þegar tilvitnanir í viðskiptavörum og í stefnumótun, sem dular á milli lögmætra spágreininga og siðferðilega umdeildrar persónuupplýsinga. Með því að blanda saman fylgni og orsök geta þróunaraðilar sett í gang kerfi sem styrkja fordóma, brjóta friðhelgi einkalífs og grafa traust almennings á gervigreind. Gagnrýnin byggist á fyrri umfjöllunum um leki í merkjum (label leakage) og þörfina fyrir útskýranleg líkön, og undirstrikar að aðferðafræðilegir flýtileiðir geti haft raunveruleg áhrif á samfélagið jafn fljótt og þær skila fyrirsagnavænum frammistöðum. Svar samfélagsins mun móta næstu mánuði. Viðhaldið skal eftir ábendingum og umræðum á helstu vettvangi eins og NeurIPS, ICML og komandi European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases, þar sem umræða um ábyrgð á gervigreind er þegar á dagskrá. Reglugerðarstjórar í ESB og norrænum ríkjum eru væntanlegir til að vísa í greininguna þegar þeir móta strangari staðla fyrir líkamstengdar og sálfræðilegar AI‑forrit. Vísindatímarit gætu hert viðmið í víðtækri ritrýni á rannsóknum sem leggja mat á persónuleg einkenni út frá sjónrænni gögnum, og fjöldi endurtekninga er líklegur til að fylgja, til að prófa hvort áætluðu „brotbrotin“ standist nákvæma tölfræðilega greiningu.
68

Panicked OpenAI Execs Cutting Projects as Walls Close In      https:// fed.brid.gy/r/https://futur

Mastodon +7 heimildir mastodon
openai
OpenAI‑stjórnin er í neyð að minnka vaxandi lista af hliðaverkefnum þegar fyrirtækið stendur frammi fyrir þrengri takmörkun á reikniritum og vaxandi innri óreiðu. Heimildir sögðu Wall Street Journal að yfirstjórar hefðu beint um tafarlausa stöðvun á nokkrum tilraunaverkefnum — þar á meðal fjölbreyttum rannsóknarstofu, lágt seinkun þjónustu fyrir spilun og frumstiga samstarf við evrópskt heilbrigðistæknifyrirtæki — á meðan starfsmenn yrðu fluttir yfir í kjarnavörur ChatGPT og Codex. Skurðin koma í kjölfar skýringa um að gagnaverkefnamiðstöðvar, sem þegar eru á þrengju vegna mikils eftirspurnar eftir generatívum AI‑vinnslu, verði „síðar og síðar erfiðara að nálgast“, sem þýðir að OpenAI þarf að forgangsraða verkefnum sem skila beint tekjum. Aðgerðin er mikilvæg því hún bendir til þess að fyrirtækið fari frá víðfeðmum, rannsakandi áætlunum sem einkenndu fyrstu ár OpenAI yfir í þrengri, hagnaðarmiðaðri stefnu. Með því að einbeita sér að kóðunarhjálparforritum og viðskiptamiðuðum spjallverkfærum vonast fyrirtækið til að styrkja lausafjárstreymi áður en ný útgáfa GPT‑5.4 Mini og Nano er sett í loftið, sem lofar framúrskarandi frammistöðu á um það bil 70 % lægri kostnaði. Á sama tíma dregur innri óreiðanir fram víðtæka þrengslu í greininni vegna takmarkaðrar GPU‑framboðs, þrýstingspunktur sem Nvidia reynir að draga úr með nýrri DLSS‑5 útgáfu og strangari úthlutun vélbúnaðar. Hvað á að fylgjast með næst: OpenAI er áætlað að leggja fram formlegt endurskipulagningarplan hjá eftirlitsaðilum innan nokkurra vikna, skref sem gæti leitt til frekari athugana eftir ásökun lögregluvarðhalds frá lögfræðiráðherraþinginu í september 2025. Greiningaraðilar munu einnig fylgjast með hvort fyrirtækið fái auka skýjageymslu frá samstarfsaðilum eins og Microsoft eða Amazon, og hvernig endurbeitin hefur áhrif á tímalínuna fyrir komandi GPT‑5.4 útgáfur. Eins og við skýrðum 17. mars er fyrirtækið þegar að minnka hliðaverkefni; nýjasta bylgja af hættumörkunum bendir til þess að „code‑red“ minnismiða hafi flutt úr innri viðvörun í ákveðna aðgerð.
68

PanGu-$α$: Large-scale Autoregressive Pretrained Chinese Language Models withAuto-parallel Computation

PanGu-$α$: Large-scale Autoregressive Pretrained Chinese Language Models withAuto-parallel Computation
Dev.to +7 heimildir dev.to
training
PanGu‑α: Stórskala sjálfreg
66

Show HN: Antfly: Dreifð, fjölbreytt leit, minni og gröf í Go

HN +6 heimildir hn
embeddingsmultimodal
**Antfly** er nýtt opið‑kóða verkefni sem kom á Hacker News og lofar “dreifðu, fjölbreyttu leit, minni og gröf” vél sem er skrifuð í Go. Geymsluna inniheldur lykilorða‑gagnasafn, Raft‑byggða samþykktarlag og blönduð BM25‑plus‑vektor leitarbakenda sem getur skráð texta, myndir, hljóð og myndbönd í gegnum CLIP‑stíls innfelldar (embeddings). Með því að merkja skema‑reiti sem fjarlæg tenglar og nota Handlebars hjálparaðila geta forritarar dregið PDF‑skjöl, vefsíður eða aðra miðla inn í vísindaskrána án þess að þurfa að skrifa sérsniðna innsláttarpípu. Lykilatriði Antfly er hæfileikinn til að meðhöndla hefðbundna skjalaeiginleika og hárvíddarmyndir (embeddings) sem jafnan mikilvæga hluta, sem gerir kross‑módelspurningar mögulegar, til dæmis: “finna skyggnur sem fjalla um loftslagsbreytingar og sýna skýringarmynd um hækkun sjávarstöðu.” Kerfið sýnir einnig sambönd í grafaformi, sem gerir forritum kleift að geyma og fara í gegnum tengla í þekkingargrafi ásamt vektorsamanburðarstigum. Allir hlutar eru byggðir í Go, sem ætti að höfða til teyma sem leita að lágmarks töf, stöðugum forritum sem eru þýdd í vélarkóða og auðvelt er að samþætta við núverandi örþjónustustöðvar. Útgáfan er mikilvæg því hún lækkar hindrunina fyrir forritara að setja í framleiðslu AI‑styrkt gagnagrunna án þess að þurfa að fjárfesta í þyngri skýjaþjónustum. Antfly gengur í hóp vaxandi vistkerfis opins‑kóða vektorgagnasafna—svo sem Milvus, Qdrant og Pinecone‑samrýmanleg lög—en bætir við fjölbreyttum stuðningi sem flestir keppinautar skortir. Raft‑byggða skiptunarlíkanið lofar láréttu skalanum og sterkri samræmi, tvö einkenni sem hefðbundið hafa vantað í fyrstu stigum vektorgagnasafna. Eins og við skýrðum 17. mars 2026 í greininni “The Secret Engine Behind Semantic Search: Vector Databases,” er iðnaðurinn að fara frá hreinum texta‑innfelldum til ríkari, kross‑módelstúlkunar. Fylgist með fyrstu raunverulegu innleiðingum Antfly, samfélagsdrifnum samanburðarniðurstöðum gegn þekktum gagnasöfnum og öllum samþættingartilkynningum með vinsælum LLM‑stjórnunarkerfum. Snemma notendur munu líklega prófa kerfið í meðmæla‑vélum, stýrikerfum stafrænna eigna og sjálfstæðum umhverfisþjónustum sem þurfa fljótan, fjölbreyttan endurheimt. Næstu vikur ættu að sýna hvort Antfly geti breytt áætluðu hönnun sinni í mælanlegan frammistöðuaukning í stórum mæli.
62

📰 NemoClaw AI Agent Platform: Opinn‑kóða bylting Nvidia fyrir umhverfisgervigreind 2026

📰 NemoClaw AI Agent Platform: Opinn‑kóða bylting Nvidia fyrir umhverfisgervigreind 2026
Mastodon +8 heimildir mastodon
agentsautonomousnvidiaopen-source
Nvidia kynnti NemoClaw á GTC þróunarfundinum sínum og kynnti opinn‑kóða vettvang sem gerir fyrirtækjum kleift að byggja, tryggja og stækka sjálfstæðar AI umhverfisgerðir. Verkfærakassan sameinar eigindar Nvidia, NemoTron módel, við hvaða opinn‑kóða kóðunar‑umhverfi sem er, og gerir forriturum kleift að keyra ský‑hýst módel á staðnum eða á jaðartækjum. Með því að birta samræmda API og sandkassa‑keyrsluumhverfi lofar NemoClaw að draga úr öryggis‑ og áreiðanleikasekjum sem hafa hamlað víðari innleiðingu umhverfisgervigreindar. Útgáfan merkir fyrsta stórfellda hugbúnaðarframstig Nvidia utan hefðbundinna vélbúnaðaráherslna, eftir Vera CPU tilkynninguna í byrjun mánaðarins, sem var sett fram sem „tiltekið“ örgjörvi fyrir umhverfisverkefni. Saman gefa CPU‑ið og vettvangurinn til kynna stefnumótandi átak til að verða sjálfgefinn innviða‑lag fyrir sjálfstæðar gerðir í fyrirtækjastofnun. Fyrir fyrirtæki minnkar opinn‑kóða eðli hindrunarþröskuldinn, á meðan innbyggðar öryggisstýringar miða að því að koma í veg fyrir „runaway“ hegðun sem hefur plagað fyrri spjallmenni‑útfærslur. Greiningaraðilar munu fylgjast með því hversu fljótt Nvidia getur breytt áhuga í innleiðingar hjá markhópum sínum — Salesforce, Cisco, Google, Adobe og CrowdStrike voru samkvæmt upplýsingum í upphafi í samningaviðræðum. Innleiðing fer eftir því hvort vettvangurinn getur tengst núverandi MLOps pípunum og frammistöðu undirliggjandi vélbúnaðar, sérstaklega þegar keppinautar eins og Mistral gefa út mjög létt módel til notkunar á tækjum. Næsta áfangi er opinber útgáfa SDK‑ins, áætlað í Q2, og innleiðing markaðar fyrir þriðju aðila umhverfisgerðir. Ef vel gengur, gæti það styrkt Nvidia í hlutverki sem stoðarbúi næstu kynslóða fyrirtækja‑AI aðstoðarmanna, en ef viðbrögðin eru hlý, styrkir það skoðunina að umhverfisgervigreind sé ennþá sérsniðin, vélbúnaðar‑drifin tilraun.
61

📰 Mistral Small 4: Opinn‑þyngd AI fjölbreytirinn sem ríkir árið 2026 með texta, myndum og rökfræði

Mastodon +9 heimildir mastodon
benchmarksllamamistralreasoning
Mistral AI kynnti Mistral Small 4 þann 16. mars og setti fram það sem fyrsta opinn‑þyngd, Apache 2.0‑leyfilega líkan sem sameinar stórt tungumál, fjölmynda sjón og umboðshæfni í forritun í eina 119 billið parametra “mixture‑of‑experts” (MoE) byggingu. Líkanið er nú þegar innbyggt í vLLM, llama.cpp, SGLang og Transformers, og býður upp á 40 % lægri töf og þrefaldan gagnaflæði miðað við fyrri útgáfu Small 3, á meðan það náir jafnmiklu afköstum og LLaMA 2 13B í öllum prófum og nálgast LLaMA 34B í mörgum verkefnum, þrátt fyrir að nota aðeins sjö billið virka parametra á sérfræðing. Útgáfan er mikilvæg því hún sameinar þrjár áður aðskildar færni—textagjafar, rökfræðilegs ályktunar og myndvinnslu—í eitt dreifanlegt pakka, sem lækkar hindrunina fyrir sprotafyrirtæki og rannsóknarstofnanir til að keyra flókið AI á venjulegum vélum. Með því að halda þyngdum opinberum hvetur Mistral samfélagið til fínstillingar og hratt framfara, stefnu sem gæti breytt valdastöðu frá eignarhaldsveitum eins og nýlega opnuðu NemoClaw umboðsstafli Nvidia, sem var tilkynnt í byrjun mánaðarins. Það sem verður að fylgjast með næst er hversu fljótt vistkerfið tekur upp Small 4 í raunverulegum forritum. Fyrstu notendur prófa það nú í aðstoðartækjum á jaðartækjum, lágtímaritunartólum fyrir kóða og fjölmynda efnistakmarkanir. Greiningar munu fylgjast með því hvort MoE‑stærðunin geti haldið afköstum á neytendagrafíkörvum og hvort Mistral geti haldið í opinn‑kóða hreyfingu í ljósi vaxandi fyrirtækjastýringar á stórum líkanum. Nýir viðmiðunarprófanir frá sjálfstæðum rannsóknum og næsta umferð samfélagsdrifinna viðbóta, sem áætlað er að koma út á sumrin, munu sýna hvort Small 4 verði raunverulega fjölbreyttur leikmaður sem umbreytir AI‑landslaginu árið 2026.
60

📰 Mistral Small 4 (2026): Lægsta AI‑líkanið fyrir forritun | Opinn hugbúnaður og fartölvuvæn Mistral A

Mastodon +7 heimildir mastodon
mistralreasoning
Mistral AI hefur farið frá tilkynningu til útgáfu og gefið út **Mistral Small 4** sem opinn hugbúnaður undir Apache 2.0 leyfi. Þetta er 37 billið færibreytna **mixture‑of‑experts (MoE)** arkitektúr, sem getur náð allt að 119 billið færibreytum, og er fyrsta Mistral‑líkanið sem sameinar rökfræðilega styrk **Magistral**, fjölmiðlunarfærni **Pixtral** og forritunaráherslu **Devstral** í eitt þétt kerfi. Eins og við skýrðum 17. mars 2026, lofaði fyrirtækið “fartölvuvænan” AI fyrir forritara. Lokaútgáfan staðfestir loforðið: hún keyrir óhætt á venjulegri fartölvu með 10 GB RAM, og býður upp á full‑stack kóða‑gerð, villuleitartillögur og jafnvel einfaldar UI‑skissur án útreikninga utan tækisins. Viðmiðunartölur sem gefnar voru út með kóðanum sýna að Small 4 stendur jafnt við eða yfirgnæfir eignarhald GPT‑OSS 120B í **AA LCR**, **LiveCodeBench** og **AIME 2025**, á meðan hún framleiðir greinilega styttri og meira ákveðna úttak. Útgáfan er mikilvæg vegna þess að hún lækkar hindrunina fyrir hágæða, staðbundna AI‑aðstoð. Norðurlandafyrirtæki og rannsóknarstofnanir, sem oft starfa undir ströngum persónuverndarreglum, geta nú fellt inn nútímalegan kóðunaraðstoðartól beint í vinnuferla sína án þess að greiða fyrir skýjakredit eða sýna viðkvæma kóða. Aðgengi sem opinn hugbúnaður hvetur einnig til samfélagsdrifinna hagræðinga, sem gætu flýtt fyrir þróun sérsniðinna **tool‑calling** viðbóta og léns‑sértækra aðlögunaraðila. **Hvað á að fylgjast með næst:** Áætlun Mistral bendir á “Tiny 4” útgáfu sem miðar að örstýrurum, á meðan frumnotendur eru þegar að setja Small 4 inn í **VS Code** og **JetBrains** IDE‑um. Næstu vikur munu sýna hversu hratt vistkerfið um kringum líkanið þroskast, hvort frammistaða í óforritunartengdum verkefnum standist kröfuna um „almennar leiðbeiningar“, og hvernig keppinautar eins og **Phi‑3** og **Llama 3.2** bregðast við nýju viðmiðunartákni fyrir flytjanlegan, opinn AI.
56

Claude Code / CodexでKaggle金メダルを取った話

Mastodon +6 heimildir mastodon
claude
A Japanese data‑science engineer has taken a Kaggle competition that attracted 3,803 teams and finished fifth – a gold‑medal position that puts the entry in the top 0.13 % – by relying almost entirely on the AI coding assistants Claude Code and OpenAI’s Codex. The team wrote virtually no custom code; instead the assistants generated and ran 1,515 computer‑vision experiments, while the human participant focused on hypothesis generation and result interpretation. The final score gains, the post‑mortem notes, were attributed to human insight rather than raw AI suggestions. The achievement builds on the Claude Code experiments we covered earlier this month, when we reported on a custom browser UI for the tool (see our March 16 article). It moves the conversation from proof‑of‑concept demos to a real‑world benchmark where an AI‑driven workflow can compete with seasoned data‑science teams. By offloading repetitive scripting, model‑training loops and hyper‑parameter sweeps to an LLM, the approach frees practitioners to spend more time on feature engineering, domain knowledge and creative problem solving – the very activities that still separate the best models from the rest. The result raises several questions for the broader community. Will competition organisers tighten rules around AI‑generated code to preserve a level playing field? Can similar workflows be scaled to larger, multi‑modal challenges, or to production pipelines where reproducibility and auditability are critical? And how will other coding assistants, such as GitHub Copilot or the emerging Claude 3 suite, compare when measured against the same benchmark? Watch for follow‑up studies that benchmark Claude Code against its rivals, for Kaggle’s response to AI‑assisted entries, and for the open‑source repository the engineer released, which details prompt engineering, experiment orchestration and the minimal hand‑crafted glue code that made the gold‑medal run possible.
56

Less‑Forgetting Learning í djúpum tauganetum

Dev.to +7 heimildir dev.to
Lið af rannsakendum frá Háskólanum í Kaupmannahöfn, í samstarfi við DeepMind, kynnti nýtt þjálfunarparadigma sem kallast **Less‑Forgetting Learning (LFL)** á CVPR 2026 ráðstefnunni. Aðferðin byggir á Elastic Weight Consolidation (EWC) en bætir við tvöfaldri minnismiða sem geymir verkefnis‑sértækar virkni og gradient‑samstillunarreglugerð sem neyðir uppfærslur til að vera innan undirrúms sem er sameiginlegt fyrri verkefnum. Í viðmiðunartestum á Split‑CIFAR‑100, Split‑MNIST og safni af Atari-leikjum minnkaði LFL eyðileggingu vegna gleymslu um það bil 40 % miðað við hefðbundna EWC, á meðan heildarvörun varð óbreytt eða jafnvel örlítið bætt. Framfarirnar eru mikilvægar vegna þess að samfelldur lærdómur er enn flöskuháls þegar AI er sett í breytilegum umhverfum eins og sjálfkeyrandi ökutækjum, iðnaðarvélum og persónulegum heilbrigðisráðgjöfum. Núverandi kerfi þurfa oft að endurþjálfa allt netið þegar ný gögn koma, ferli sem er dýrt og getur eyðilagt fyrri þekkingu. Með því að halda eldri framsetningum stöðugum án þess að frysta stórar hlutar netins lofar LFL skilvirkari uppfærslur á módelum og lengri líftíma AI-þjónustu, skref í átt að „alltíð‑lærdóm“ umhverfisþjónustum sem iðnaður hefur lengi leitað að. Höfundarnir gerðu kóðann aðgengilegan undir Apache 2.0 leyfi og samþættu hann við PyTorch 2.0, með því að hvetja til fljótlegrar tilraunavinnu. Snemma notendur í vélmennafræðasamfélaginu hafa þegar tilkynnt um mjúkara flutning á stefnum þegar nýjum handvirkum verkefnum er bætt við. Við búumst við eftirfylgjandi rannsóknum sem munu prófa LFL á stærri sjón‑tungumálalíkönum og á raunverulegum samfelldum‑lærdómsvettvangi eins og sjálfkeyrandi flotum. Blogg DeepMind bendir á að vænta má skýþjónustu sem mun gera LFL aðgengilegt í gegnum API, sem gæti flýtt fyrir viðskiptalegri notkun. Næstu nokkrir mánuðir ættu að sýna hvort tækni þessi skali út fyrir fræðilegar viðmiðanir og breyti því hvernig framleiðslu‑AI kerfi þróast yfir tíma.
55

**Hvernig ég set upp Claude Code til að keyra allan þróunarvinnsluferlið mitt**

Dev.to +5 heimildir dev.to
autonomousclaude
**Samantekt:** Forritari á DEVCommunity spjallborðinu hefur gefið út skref‑fyrir‑skref leiðbeiningar sem breyta Anthropic’s Claude Code úr snjöllum sjálfklárunartólum í alhliða þróunartæki. Höfundurinn lýsir því hvernig á að setja upp Claude Code á Windows, Alpine Linux og öðrum musl‑studdum kerfum, og síðan tengja það við staðbundna LLM‑a eins og Qwen 3.5, DeepSeek og Gemma í gegnum Unsloth tengilinn. Með “/terminal‑setup” skipuninni stillir aðstoðarmálið VS Code viðbót, býr til varanlegan “claudedoctor” greiningarhring og ræsir bakgrunns‑agenta sem sjá um einingaprófanir, kóða‑úttekt, byggingu í íláti og útgáfu með einum smelli. Færslan er meira en persónuleg athugasemdalisti; hún bendir til þess að gerðargetu Claude Code sé nú nægilega þroskuð til að framkvæma end‑to‑end sjálfvirkni í vinnsluferlum. Í byrjun mánaðarins birtum við samanburð á Claude Code og Cursor í 30‑daga hand‑á‑hand prófi, þar sem við bentum á styrkleika Claude í fjölskrefum verkefna en spurjum um áreiðanleika í framleiðslu‑pípunum. Nýja leiðbeiningin sýnir að hægt er að leysa þessi álitamál með endurteknum staðbundnum uppsetningum, sem útrýmir töf og persónuverndarvandamálum tengdum skýja‑API‑um. Ef forritarar geta áreiðanlega látið LLM taka á sig endurtekna CI/CD verk, gætu efnahagslegir hagræðingar í litlum teymum og einum stofnendum breyst verulega. Hraðari ítrunarhringir geta flýtt fyrir útgáfu nýrra eiginleika, á meðan möguleikinn á að keyra líkanið staðbundið minnkar áhyggjur fyrirtækja um öryggi. Á sama tíma vekja sjálfstæðir kóða‑breytingar spurningar um endurskoðun, prófunarvörðugleika og möguleika á fínum bakslagum. Fylgist með komandi útgáfu Anthropic, Claude Opus 4.6, sem lofar nánari VS Code samþættingu, víðari viðbótarmarkaði og innbyggðum samræmis‑mælaborðum. Keppinautar eins og Cursor og GitHub Copilot eru þegar að bæta við gerðar‑viðbótum, svo næstu mánuðir munu sýna hvort workflow‑fyrsta nálgun Claude Code verði ný staðla eða haldist í sérstöku tilraunastigi. Eins og við skýrðum 17. mars, er kapphlaupið um að breyta LLM í raunverulega þróunaraðila að hitna, og þessi leiðbeining er áþreifanlegur áfangi í þeirri þróun.
55

Claude Code vs Cursor: Hvað ég lærði að nota bæði í 30 dögum

Dev.to +5 heimildir dev.to
claudecursorsora
Forritari eyddi síðustu 30 dögum í að skipta á milli Anthropic‑forritsins Claude Code og Cursor, AI‑knúinna IDE‑ins, og notaði hvern sem aðalforritaraðstoð við blöndu af framenda‑, bakenda‑ og gagnafræði verkefnum. Höfundurinn skráði notkun tákna (token), tafar, villutíðni og huglægri álag í vinnuferlinum, og dró síðan niðurstöðurnar í hlið við hlið frammistöðuskýrslu. Claude Code kröfðist stöðugt færri kall til módelins: prófunarsafnið sýndi um það bil 5,5 × færri tákn til að ljúka sömu endurskipulagningu samanborið við Cursor. Þessi hagkvæmni breyttist í fljótlegri viðbragðstíma—meðaltal svara minnkaði frá 2,8 sekúndum með Cursor í 1,3 sekúndu með Claude—meðan fjöldi endurskrifunarhrings minnkaði um um það bil 30 %. Verkfærið framleiddi einnig hreinni kóða í fyrstu umferð, sem dró úr eftir‑framleiðslu lint‑viðvörunum og handvirkri hreinsun. Kosturinn hjá Cursor var í hnökralausri samþættingu við IDE; “hugsa‑á meðan þú skrifar” eiginleikinn í ritlinum gerði forriturum kleift að kalla fram tillögur án þess að yfirgefa kóðaglugga, og innbyggði prófakrunar‑ og útgáfustýringar‑flýtileiðir sparðu mínútur af endurteknum verkum. Af hverju er þetta mikilvægt? Tvöfalt. Fyrst hefur táknhagkvæmni bein áhrif á kostnað: lægri notkun Claude Code heldur mánaðarlegum reikningum undir $30 USD mörkinum fyrir flesta sjálfstæða forritara, á meðan fastur áskriftarkostnaður Cursor (≈$15 USD á hlið) getur orðið dýr fyrir teymi sem framkalla mikla fjölda tillagna. Í öðru lagi bendir gæðamunurinn til vaxandi sundurskilnaðar milli AI‑módelanna sem eru hönnuð fyrir hráa kóðagenereringu og þeirra sem byggja á ergonomíu IDE‑ins. Eins og við skýrðum þann 17. mars, hafði Claude Code þegar yfirgengið Codex í Kaggle‑keppnum; þessi nýja samanburður sýnir að sama módelið er nú að fara fram úr sérhæfðu AI‑IDE í framleiðni. Áhorfendur ættu að fylgjast með útgáfu Anthropic á Claude 3.5, sem lofar enn strangari táknnotkun, og Cursor‑tilkynningu um “team‑mode” beta sem bætir við AI‑samvinnu í kóðagagnrýni. Báðar fyrirtækin eru einnig að leita eftir fyrirtækjasamþættingum við GitHub og Azure DevOps, þannig að næstu mánuðir munu líklega ákveða hvort markaðurinn sameinist um eitt yfirburða­aðstoðartól eða brotnar niður í sértækar sérgreinar.
54

FSF hóta Anthropic vegna brots á höfundarrétti: Deilið LLM-um ykkar frjálslega

HN +6 heimildir hn
anthropicclaudecopyright
Frjáls hugbúnaðarstofnunin (FSF) hefur hækkað ágreininginn við Anthropic og sent formlegan kröfu um að fyrirtækið gefi út þyngdana (weights) í Claude-módelum sínum samkvæmt GNU Free Documentation License (GNU FDL). Aðgerðinni fylgir lögsókn frá 2024 þar sem Anthropic er sakað um að þjálfa stórt tungumálamódel (LLM) á höfundarréttarlöglegu efni án heimildar, kröfu sem styrkt er af nýlegum sýningum þar sem Claude getur endurtekið heilar lagatexta frá listamönnum eins og Katy Perry og Gloria Estefan. Bréfið frá FSF, sem birtist á vefsíðu stofnunarinnar og í O’Reilly‑styrktu fræðslu, heldur því fram að neitun Anthropic til að birta þjálfunargögn og módelparametra brjóti bæði höfundarréttarlög og anda frjálsra hugbúnaðar. Með því að vísa til GNU FDL er stofnunin ekki aðeins að leita að bótum; hún vill að tækni sé frjálslega endurnýtanleg, breytanleg og dreift, sem setur opinn hugbúnaðarumhverfi í beinan árekstur við viðskiptalegan AI-modell sem byggir á eigendomsréttum og svörtum kassa. Kröfan er mikilvæg því hún gæti skapað fordæmi um hvernig AI‑þróunarfyrirtæki takast á við kröfur um andvirðisrétt. Ef dómstólar krefjast þess að Anthropic opni módelin sín, gætu aðrir aðilar – OpenAI, Google, Meta – staðið frammi fyrir svipuðum þrýstingi, sem myndi breyta jafnvægi milli eigendoms AI og samfélagsdrifins rannsókna. Að auki dregur aðgerð FSF fram vaxandi óánægju með ógegnsæi í þjálfunarferlum, áhyggjuefni sem endurspeglar nýlegar fræðilegar greinar um „agentic misalignment“ sem varar við innri ógnarhegðun þegar módel finnst vera í hættu. Áhorfendur geta nú fylgst með svari Anthropic, sem er áætlað að koma innan tveggja vikna, og mögulegri lögfræðilegri ávarp frá FSF. Samhliða málsóknum tónlistarfyrirtækja og áframhaldandi dómstólarefni Encyclopedia Britannica gegn OpenAI munu líklega hafa áhrif á lagalega útreikninginn. Greiningar frá iðnaðargreinum munu einnig fylgjast með hvort þrýstingur FSF á GNU‑leyfð LLM‑mótul myndi kveikja á víðtækari hreyfingu í átt að opnum þyngdum í AI, sem gæti umbreytt fjármagnsöflun, samstarfi og reglugerðum í norrænu og alþjóðlegu AI‑vistkerfinu.
54

Hvernig stöðvum við # Linux frá því að taka á móti # LLM kóða, eins og í gær?

Mastodon +6 heimildir mastodon
copyright
Linux viðhaldaraðilar hafa tekið ákveðið skref til að draga úr innstreymi AI‑framleiddra lagfæringa, með því að kjósa á kjarna‑póstlistanum að hafna öllum framlögum sem hægt er að rekja til stórra tungumálalíkana (LLM). Tillagan, sem var sett á mánudaginn, krefst skyldubundins „no‑LLM“ yfirlýsinga í hverri lagfærslu og kynna sjálfvirkan skönnunartól sem merkir kóða með tölfræðilegum fingraförum núverandi LLM. Linus Torvalds, sem hefur ítrekað varað við „AI slop“ í skjölun kjarnans, studdi aðgerðina og sagði að verkefnið geti ekki leyft „flóð af lág‑gæðum, hugsanlega brotlegum kóða að sleppa í yfirferðarferlið okkar.“ Ákvörðunin kemur í kjölfar vaxandi samræðu um lagaleg og tæknileg áhyggjuefni. Greining frá 2025 lagði áherslu á að LLM‑framleiddir brotir gætu erft höfundarrétt á þjálfunargögnum, sem myndi setja kjarnann í hættu fyrir sömu tegund af SCO‑stíls lögsögum sem hafa plagað önnur opinn‑kóða verkefni. Fyrir því á þessu ári, ábendingar Torvalds sjálfs sýndu erfiðleika við að stjórna „endanlegum slop“ frá vélmenni, á meðan ógn FSF við Anthropic vegna umdeildra höfundarréttarbrota minnti samfélagið á að áhættan er ekki aðeins fræðileg. Að stöðva LLM‑kóða núna er mikilvægt því Linux kjarninn er stoðtaugur óteljandi tækja, frá snjallsímum til netþjóna. Brot á leyfisgildum hans gæti breiðst út um allt vistkerfið, þvinga neðri útgefendur til að yfirfara eigin byggingar og mögulega se
53

LLM‑arkitektúrunargalleri

Mastodon +6 heimildir mastodon
apple
Sebastian Raschka, vel þekktur kennari í gagnafræði, hefur nýlega gefið út „LLM Architecture Gallery“, opinberlega hýst safn sem safnar saman hönnunarsketchum, upplýsingasíðum og frumtenglum fyrir hvert stórt tungumálalíkanið (LLM) sem hefur verið gefið út á milli 2024 og 2026. Galleríið, sem er aðgengilegt á sebastianraschka.com/llm‑architecture‑gallery og speglað á GitHub, safnar 38 arkitektúrum — þar á meðal GPT‑4, Claude 3, Gemini 1.5 og nýjustu “mixture‑of‑experts” (MoE) útgáfum — í eina leitarvæna sjónræna tilvísun. Hver færsla tengir saman smellanlegt blokkasketch með stuttri upplýsingasíðu sem listar stærð módelins, þjálfunargagnasafn, token‑blöndunaraðferð og þekktar frammistöðu‑viðskipti. Útgáfan er mikilvæg vegna þess að hratt vaxandi fjöldi LLM-útgáfa hefur skilið rannsakendum og verkfræðingum í erfiðleikum með að finna áreiðanleg skjöl. Með því að staðla framsetningu arkitektúrvalkosta og tengja beint í upprunaleg greinar eða útfærslu‑gögn, minnkar galleríið hindrunina fyrir alla sem byggja, fínstillir eða meta módel. Það veitir einnig gagnsæjan eftirlitsleið sem gæti hjálpað stjórnendum að meta hvort nýjar hönnunir virði leyfis- og gagna‑notkunarskilyrði — umdeilt málefni eftir nýlegu ógn við Anthropic frá FSF. Fyrir norðurlanda AI-teymi býður auðlindin upp á fljótlegan hátt til að bera saman módel varðandi staðfærslu, lágt biðtíma‑útreikninga eða orkunýtingu, og flýtir þannig vöruþróun í svæði sem leggur áherslu á sjálfbæra gervigreind. Það sem á eftir að fylgjast með er þróun gallerísins í samfélagsstýrt kerfi. Raschka hefur boðið upp á framlög í gegnum pull requests og gefur vísbendingar um framtíðarviðbætur eins og sjálfvirkar frammistöðugrafík, vélbúnaðar‑samræmi‑merkingar og samþættingu við “inference‑as‑a‑service” mælaborð. Ef stórir skýjaþjónustuaðilar eða vélbúnaðarframleiðendur taka upp sniðið, gæti það orðið de‑facto tilvísun fyrir LLM‑hönnun, með áhrif á allt frá háskólanámskrám til fyrirtækja‑innkaupsákvarðana. Fylgist vel með uppfærslum næstu vikur, sérstaklega með tilkynningum um samstarf sem tengja galleríið við nýja generative‑AI stafla Apple.
51

Ég byggði hugrænni lag fyrir AI umboðsmenn sem lærir án LLM‑kalla

Dev.to +5 heimildir dev.to
agents
Forritari hefur kynnt AuraSDK, „hugræn lag“ sem gerir AI umboðsmönnum kleift að safna þekkingu yfir lotur án þess að kalla á stórt tungumálalíkani (LLM) í hverri samskiptum. Kerfið situr við hlið hvers LLM‑studdra umboðsmanns, fylgist með samskiptum notanda og umboðsmanns, greinir endurtekna mynstur og orsakatengsl og geymir þau í uppbyggðu, reglum byggðu sniði. Þar sem minnisbyggingarferlið keyrir staðbundið, getur um
51

Hvernig við byggðum einkarými fyrir eftirþjálfun og ályktun á framhaldslíkönum

HN +6 heimildir hn
inferencetraining
Workshop Labs hefur kynnt einkarými fyrir eftirþjálfun og ályktun sem er byggt fyrir „framhald“ (frontier) opna‑þyngdarlíkön, og það er nú þegar í notkun á Kimi K2—1 trílljónar‑þætti blöndu‑af‑sérfræðingum (Mixture‑of‑Experts, MoE) líkani—með átta NVIDIA H200 GPU‑um sem eru settar inn í vélbúnaðar‑einangraða traustar framkvæmdarumhverfi (Trusted Execution Environments, TEEs). Kerfið gerir fyrirtækjum kleift að fínstilla, samræma og þjónusta risastór líkön án þess að nokkurn tíma láta hrá gögn fara út á ytri skýjaþjónustur. Með því að takmarka allan útreikningsferil innan TEEs, segir Workshop Labs að það útrými áhættu á gagnalekum á meðan það varðveitir frammistöðuávinning MoE‑arkitektúrar, sem geta skilað allt að tíu‑faltum hraða á táknastigi miðað við þéttar líkön. Af hverju þetta skiptir máli er tvíþætt. Fyrst er kostnaðarhindrunin sem hefur haldið framhaldslíkönum—þau sem ýta mörkum í stærð og rökstuðning—utan seilingar fyrir flest fyrirtæki að minnka. Nýlegir framfarir eins og DeepSeek‑V3.2 hafa sýnt að greind á flaggskipastigi er hægt að veita á verulega lægri álagskostnaði, og einkarými Workshop Labs dregur þessa hagkvæmni út í fínstillingarstigið, þar sem gagnamiðuð samræming hefur hefðbundið krafist dýrmættra, miðlægra þjónustu. Annað er að persónuverndarreglur í Evrópu og Skandinavíu krefjast sífellt meira að persónuleg eða eignarleg gögn fari aldrei út úr vernduðu umhverfi. Vinnuferli byggt á TEEs býður upp á hagnýta leið til að uppfylla þær kröfur á meðan nýjustu AI‑getur er nýtt. Á næstu árum hyggst teymið auka stuðning við vélbúnað umfram H200, samþætta við nýrri opna‑kóða ramma eins og Antfly‑dreifðu fjölmiðla‑grafvinnslukerfið, og opna API sem leyfir öðrum þróunaraðilum að tengja inn eigin framhaldslíkön. Viðskiptavaldar munu einnig fylgjast með því hvernig skýjaþjónustuaðilar bregðast við—hvort þeir bjóða upp á sambærilega einkarýmiþjónustu eða leggja áherslu á opin API—í keppninni um að gera óendanlega stór líkön aðgengileg öllum.
51

Britannica og Merriam‑Webster leggja dómkröfu gegn OpenAI og ásaka þau um brot á höfundarrétti

Mastodon +6 heimildir mastodon
copyrightopenai
Encyclopedia Britannica og Merriam‑Webster hafa sameiginlega lagt dómkröfu gegn OpenAI, ásaka þróunaraðila ChatGPT um að hafa safnað um það bil 100 000 greinum úr encyklópedíunni hjá Britannica og þúsundum orðasafnsatriðum frá Merriam‑Webster til að þjálfa stórt tungumálalíkanið sitt án leyfis. Kvörtunin, sem var lögð fram í bandarískum alríkisdómstólum á föstudegi, ásakar höfundarréttarbrot samkvæmt höfundarréttarlögum frá 1976 og krefst skaðabóta, forðunar gegn frekari notkun efnisins og dómsákvörðunar um að OpenAI þurfi að upplýsa um umfang tilgátu um afritunina. Samskiptin milli tveggja af þekktustu heimildarmerkjum í heimshorni markar nýjustu stig í röð af háprofílsákvörðum sem beinast að AI-fyrirtækjum vegna óleyfilegs gagnaöflunar. Eins og við skýrðum 16. mars, hafði Britannica þegar sett dómkröfu á OpenAI; viðbót Merriam‑Webster dregur kröfuna út um bæði staðreyndar- og orðaforðaefni, sem undirstrikar vaxandi samstöðu útgefenda um að þjálfunarpípur gervigreindar sé að safna vernduðum verkum í stórum mæli. Lögfræðingar segja að málið gæti krafist endurskoðunar á “eðlilegri notkun” (fair use) varnarmálinu sem mörg AI-fyrirtæki byggja á, og gæti þar með ummyndað hvernig þjálfunargögn eru sett saman og leitt til strangari samræmisráðstafana. OpenAI hefur svarað með stuttri yfirlýsingu um að það muni verja dómkröfuna af krafti og að líkönin byggjast á opinberlega aðgengilegum gögnum í samræmi við gildandi lög. Fyrirtækið er einnig, samkvæmt upplýsingum, að yfirfara gagnaskönnunaraðferðir sínar í kjölfar áætlaðs forsögnarfunds í byrjun maí. Það sem á eftir að fylgjast með: dómstólanna ákvörðun um frumrökumál, möguleg samningssamningur sem gæti sett iðnaðarvíðtækar leyfisreglur, og hvort aðrir eigendur efnis—eins og fréttamiðlar og fræðirit—taki þátt í málinu. Samhliða þróun í AI-lögum EU og leiðbeiningum höfundarréttarskrifstofunnar í Bandaríkjunum um þjálfunargögn í vélarnámi gæti haft frekari áhrif á niðurstöðu málsins og framtíðarreglur um sköpunargervigreind.
50

Aqara hefst útgáfa á snjöllum eftirlitsmyndavél með Matter og HomeKit – “Aqara Camera Hub G350” | Heimilistæki | Mac OTAKARA

Mastodon +7 heimildir mastodon
applegoogle
Aqara hefur kynnt Camera Hub G350, nýjustu innanhúss‑ og útiverndar myndavélina sem talar Matter 1.5 samskiptastaðal og er vottuð fyrir Apple HomeKit. Tækið sameinar 3 MP skynjara, 140‑gráðu óendanlega breiða linsu, innraftarmyndavision í myrkrinu og tvíátta hljóð með innbyggðu gervigreindar‑kerfi sem getur greint fólk, gæludýr og ökutæki. Staðbundin micro‑SD geymsla upp í 128 GB og valfrjáls skýjabakup veita notendum sveigjanleika, á meðan innbyggða Matter stýrið gerir myndavélina kleift að tengjast Apple Home, Google Home eða Amazon Alexa kerfum án sérstaks miðlara. Útgáfan er mikilvæg því hún er fyrsta skiptið sem Aqara tengir myndavélalínuna sína við nýja Matter-standarden, skref sem gæti flýtt fyrir alhliða samhæfni snjallheimilislausna í Norðurlöndum, þar sem neytendur kjósa persónuverndar‑fyrst lausnir og óaðfinnanlega samþættingu raddaðstoðaraðila. Með stuðningi við HomeKit Secure Video býður G350 einnig upp á end‑to‑end dulritun, sem svarar áhyggjum um gagnavinnslu í AI‑drifnum eftirlitskerfum. Varan kemur eftir Aqara dyraklokkakamera G400, sem var tilkynnt í byrjun mánaðarins, og sýnir víðtækari stefnu fyrirtækisins um að skipta út eigindlegum brúum fyrir Matter‑virka miðla í öllum vörulínum. Hvað á eftir að fylgjast með: Aqara lofar hugbúnaðaruppfærslu sem mun bæta við flóknum andlitakennslumyndum og samþættingu við víðtækt skynjarakerfi fyrirtækisins, svo sem hreyfiskynjara og snjalllykla. Greiningaraðilar munu fylgjast með því hversu fljótt evrópskir smásalar taka upp G350 og hvort verðstigið – um €120 – þrýsti á keppinauta eins og Arlo og Ring til að flýta fyrir eigin Matter-vegum. Reglugerðarumsjón með AI‑stýrðu eftirliti í ESB gæti einnig haft áhrif á nýjungar, sérstaklega varðandi samþykki og varðveislu gagna. Markaðarárangur G350 verður vísbending um hversu hratt Matter‑samrýmanir myndavélar geta útrýmt eldri, einangruðum lausnum á svæðinu.
49

Tilfinningar í Trieste 🤖 Mynd framleidd af AI # tiamicas # AI # IA # GenerativeAI

Mastodon +8 heimildir mastodon
Áberandi, neon‑litin sýn á höfnarborgina Trieste við Adrias haf hefur orðið vírusað á X og Instagram, með textanum „Sensações em Trieste 🤖“ og röð af myllumerkjum þar á meðal #AI, #IA og #GenerativeAI. Myndin, sem blandar saman sögulegu strandborðinu með framtíðarbirtingu og stílhreinum himni, var framleidd af texta‑til‑mynd líkani sem birti höfundurinn aðeins sem „tiamicas“, nýjan opinn hugbúnað sem fór í opinbera beta síðustu viku. Færsla hefur kveikt á fjöri umfjöllunar frá heimamönnum, ferðaþjónustustofnunum og sköpunarmönnum. Aðhaldsfólk hrósa verkfærinu fyrir getu þess til að endurmynda kunnugleg kennileiti og framleiða nýja sjónræna efni fyrir markaðsherferðir án þess að þurfa ljósmyndara á staðnum. Gagnrýnendur varða að AI‑búnar borgarsýnir geta mótað línuna milli raunveruleika og ímyndunar, mögulega villandi áhorfendum og þynna menningararfleifð. Atvikið kemur í tíma þegar evrópskir stjórnendur skerða reglur um sýndar­miðla, og Evrópusambandið hefur tilkynnt drög að AI‑lögum sem myndu krefjast skýrs merkingar á AI‑framleiddum myndum. Næstu skref munu prófa hversu fljótt iðnaðurinn tekur upp staðfestingarstaðla. Vettvangir eru þegar að prófa vatnsmerki sem merkja AI‑uppruna, á meðan nokkur ítalsk sveitarfélög eru að setja upp leiðbeiningar um siðferðilega notkun framleiðslu myndmynda í opinberum kynningum. Á sama tíma hafa þróunaraðilar tiamicas lofað „áreiðanleika‑ham“ sem setur inn dulkóðað gögn til að sanna uppruna. Áhorfendur munu fylgjast með hvort þessi eiginleiki nái að ná fótfestu og hvort önnur AI‑listaverkfæri fylgi í kjölfarið, og þannig móti nýja venju um gagnsæi í myndrænu efnisumhverfi.
48

Nálægt framtíðin fyrir gerandi gervigreind í menntun: Annar hluti – Þessi færsla heldur áfram

Mastodon +8 heimildir mastodon
agentseducationprivacy
Nýr ritgerð með titlinum **„Nálægt framtíðin fyrir gerandi gervigreind í menntun: Annar hluti“** kom út í þessari viku og heldur áfram á runu sem varpar korti yfir hvernig nýr AI‑tól munu umbreyta kennslustofum um alla Norðurlönd. Höfundurinn flytur athyglina frá skýjabótum í spjallmenni yfir á þrjá minna rannsakaða sviða: ónettengdar gerðaríklar sem keyra á staðbundnu vélbúnaði, burðarleg tæki sem setja AI beint inn í daglegt líf nemenda og sjálfstæð AI‑umhverfi sem geta starfað sem persónulegir kennarar eða rannsóknaraðstoðarmenn. Færsla ræðir hvernig ónettengd AI leysir tvö stöðug vandamál í menntun – tengingarhalla og áhyggjur um persónuvernd. Með því að setja í notkun litla, á tækinu keyrandi líkön, geta skólar boðið nemendum aðstoð við ritun, forritun eða myndlist án þess að senda persónuleg gögn til ytri netþjóna, sem fellur í samræmi við stranga GDPR‑lög um persónuvernd í ESB og vaxandi kröfu um gagnasjálfstæði í opinberum stofnunum. Burðarleg tæki, frá snjallgleraugu til takta með snertiskynjun, eru sett fram sem leið til rauntíma, samhengi‑viðeigandi endurgjafar, þar sem líkamleg samskipti breytast í námsmælikvarða. Á sama tíma eru AI‑umhverfi með fjölbreyttum greiningarfærni ímynduð sem „alltíð‑virk“ leiðbeinandi, sem geta aðstoðað við rannsóknarvinnu, einkunna verkefni og jafnvel hermt eftir rannsóknarverkefnum í eðlisfræðilaboratoríum. Af hverju er þetta mikilvægt núna? Tvöfalt. Fyrst er menntunarsvið Norðurlanda í gangi með tilraunir á AI‑bættum námskrám, og yfirfærslu á ónettengd og jaðartengd lausnir gæti flýtt fyrir innleiðingu í dreifbýlum þar sem breiðband er ójafnt. Í öðru lagi geta hönnun sem leggur áherslu á persónuvernd róað foreldrum og eftirlitsaðilum sem hafa orðið varir við stórtölu gagnasöfnun frá viðskiptalegum AI‑vettvangi. Áhorf til framtíðar bendir til þess að næstu skref verði líklega tilraunaprogram með innleiðingu edge‑AI netþjóna í skólakerfi, samstarf við vélbúnaðarfyrirtæki til að framleiða menntunartengd burðarleg tæki og stefnumótun um vottunarskilyrði fyrir sjálfstæð kennsluaðstoð. Fylgist með tilkyn
48

Show HN: March Madness keppni í bracketum aðeins fyrir AI umboðsmenn

HN +6 heimildir hn
agentsautonomous
Forritari á Hacker News hefur sett í gang “Agent Madness,” March Madness keppni í bracketum sem aðeins sjálfstæðir AI umboðsmenn geta tekið þátt í. Þátttakendur senda inn URL; umboðsmaðurinn les API skjöl keppninnar, skráir sig, spáir fyrir um niðurstöðu allra 63 leikja og birtir sitt bracket án neins mannlegs íhlutunar. Lifandi stigatöflu raðar umboðsmönnunum eftir því hversu nákvæmlega val þeirra stemma við raunveruleg niðurstöður, og breytir árlegri háskólakörfuboltaáhugamáli í sandkassa til að prófa fjölþrepaskilning, gagnainnflutning og ákvörðunartökukerfi. Tilraunin er mikilvæg því hún breytir athyglinni frá því að fylla út bracket sem mannlegur áhugamál til að vera viðmið fyrir end‑to‑end frammistöðu umboðsmanna. Snemma í þessum mánuði rannsökuðum við hvers vegna flestir AI umboðsmenn bila og hvernig á að hanna þá til áre
48

TechCrunch: Orðabókin stefnir OpenAI

Mastodon +6 heimildir mastodon
copyrightopenai
Encyclopedia Britannica og Merriam‑Webster hafa formlega lagt fram sameinaða kvörtun í alríkisdómstól Manhattan, og ásaka OpenAI um „gríðarleg brot á höfundarrétti“ vegna þess að þeir hafi, samkvæmt ásökunum, þjálfað stórt tungumálalíkani sitt á næstum 100.000 af vernduðum greinum og orðabókarfærslum þeirra án leyfis. Lögsögnin, sem var lögð fram 17. mars, segir að OpenAI hafi skrapað textana, innifalið í gagnasettinu sem knýr ChatGPT, og nú endurgeri hluta af efninu í svörum sem notendur búa til. Málið skerpar lagalegri baráttu sem hófst fyrr í þessum mánuði þegar Britannica lögðu fyrst OpenAI á réttinn vegna sama máls. Með því að bæta Merriam‑Webster við, víkka ste
44

OpenAI höfundarréttarmál: Britannica slær í högg, ásakar um um 100.000 óheimiltar kennslur – Encyclopedia … https://xenospectrum.com/britannica-me

Mastodon +5 heimildir mastodon
copyrightopenai
Britannica hefur formlega skráð sig í vaxandi höfundarréttarmál gegn OpenAI og lagt fram viðbótarkæru sem segir að AI-fyrirtækið hafi þjálfað módel sín á um það bil 100 000 færslum í fræðiritinu án heimildar. Kæran var lögð fram í fjórðungsdómi Bandaríkjanna í suðurhluta New York þann 17. mars og byggir á þeim málsókn sem Britannica hóf í byrjun þessa mánaðar, þar sem fyrirtækið hafði þegar sakað OpenAI um brot á bæði höfundarrétti og vörumerkjaskyldum. Nýja kæran stækkar umfang málsins með því að leggja fram innri skráningar sem, samkvæmt lögfræðiteymi Britannica, sýna að texti sem safnað var af netvefjum fyrirtækisins var settur inn í þjálfunarpípur OpenAI fyrir ChatGPT og önnur vörur. Með því að meta magn umdeildrar notkunar vonast Britannica til að styrkja kröfu um skaðabætur og þrýsta á dómstól til að gefa út bann sem krefst þess að OpenAI hætti að nota umdeild efni. Þessi þróun er mikilvæg því hún bendir til samstilltra átaka eigenda efnis til að halda þróunaraðilum í tengslum við generative AI ábyrgum fyrir þeim gögnum sem knýja kerfin þeirra. Ef dómstólar samþykkja sönnunargögn Britannica, gæti niðurstaðan sett fordæmi um að AI-fyrirtæki þurfi að tryggja leyfi til að nota stórt magn textasafna, sem myndi breyta efnahagslegum þáttum þjálfunar módelanna og mögulega hægja á útbreiðslu nýrra getu. Þetta setur einnig aukaþrýsting á OpenAI, sem er þegar að verja sig í sjálfstæðum málsóknum frá öðrum útgefendum og fjölmiðlum. Það sem þarf að fylgjast með næst: Svörun OpenAI, sem er væntanleg á næstu vikum, mun líklega byggjast á “fair use” varnarmáli og halda því fram að þjálfunarferlið falli undir viðurkennda rannsóknarfyrirkomulag. Dómsákvörðun um tímaramma mun setja upp áætlun fyrir rannsóknargögn, þar sem báðir aðilar geta reynt að krefjast framleiðslu gagnaaðgangsskráa. Samningur eða bráðabirgðabann gæti haft víðtækan áhrif á iðnaðinn, hvatt AI-þróunaraðila til að endurskoða leyfisramma með efnisframleiðendum um allan Norðurlönd og víðar.
44

I could toot about Britannica suing OpenAI, but who cares (see Reuters news).. Let’s turn back t

Mastodon +6 heimildir mastodon
openai
OpenAI fékk ferli­legan sigur á fimmtudaginn þegar bandarískur sýsludómur hunsaði lögbrot gegn höfundarrétti málið sem lagðar voru fram af Encyclopædia Britannica og Merriam‑Webster. Dómari komst að því að kröfuhafar höfðu ekki sýnt líkindi til að ná árangri í kröfunni um að OpenAI “hafði minnst” og endurtekið verndaðan texta úr um það bil 100 000 greinum í almanak og orðabókarskrám sem notaðar voru til að þjálfa ChatGPT‑4. Úrskurðurinn, sem Reuters tilkynnti, heldur málinu í gangi aðeins til mögulegs áfrýjunar, en fjarlægir umskiptilega ógn um bann sem hefði krafist þess að OpenAI hætti að nota umdeild gögn. Eins og við skýrðum 17. mars 2026, héldu Britannica og Merriam‑Webster að módel OpenAI sýndi nær‑orðréttaðar brot úr efni þeirra, draga umferð frá áskriftarvefsíðum þeirra og brjóti bæði höfundarrétt og vörumerkjarettindi. Nýja dómurinn fjallar ekki um efnislegan styrk þessara ásakana; hann segir aðeins að kröfuhafar hafi ekki náð lagalegum þröskuldi til að fá forsmurnar úrræði. OpenAI fagnaði niðurstöðunni og endurtek í því að þjálfunargögnin koma frá opinberum heimildum og að starfsemi þeirra falli innan viðurkennds fair‑use kenningar. Úrskurðurinn er mikilvægur því hann gefur vísbendingu um hvernig bandarískir dómstólar gætu meðhöndlað vaxandi fjölda mála útgefenda gegn fyrirtækjum í sviði framleiðslu‑AI. Precedens sem styður víðtækt gagna‑skrapun gæti hvatt aðra AI‑þróunaraðila til að halda áfram að safna vefefni, á meðan umhverf áfrýjun gæti þrengt lagalega umhverfið og krafist endurskoðunar á leyfisgerðum fyrir tilvísunarbækur. Væntanlegt er að Britannica og Merriam‑Webster skili inn áfrýjun í næstu vikur, ásamt því að fylgjast með nýjum löggjafarátökum í Evrópusambandinu og Bandaríkjunum sem miða að því að skýra réttindi í tengslum við AI‑þjálfunargögn. Samhliða ágreiningur við fréttastofnanir og fræðiritstofa er einnig í gangi og mun prófa mörkin á höfundarrétti á tímum stórra tungumálalíkana.
40

https://winbuzzer.com/2026/03/17/opena-i-10-billion-joint-venture-pe-firms-enterprise-ai-xcxwbn/

Mastodon +8 heimildir mastodon
openai
OpenAI hefur hafið einkaviðræður við samráðsfélag af einkafjárfestum — TPG, Advent International, Bain Capital og Brookfield Asset Management — um að stofna sameiginlegt fyrirtæki að verðmæti 10 billiðar dollara til að koma AI‑lausnum fyrirtækisins á sviði fyrirtækja (enterprise‑AI) inn í eignasafn þessara fjárfestafyrirtækja. Samstarfið myndi veita PE‑hópnum beina leið til að innleiða ChatGPT Enterprise, Codex og aðrar generative‑AI verkfæri OpenAI í fjölda meðalstórrar og stórra fyrirtækja, á sama tíma og OpenAI myndi fá stöðugan, hármörk tekjustreym sem er óháður neytendavörunum. Þessi ákvörðun er áberandi stefnumótun fyrir OpenAI, sem hefur á undanförnum ári styrkt jafnvægi sitt með söguþróun fjármögnunar — 40 billiðar dollara í mars 2025 og 110 billiðar dollara í febrúar 2026, sem hefur leitt til heildarfjármögnunar upp á 168 billiðar dollara. Á sama tíma hefur fyrirtækið glímt við innri óreiðu, eins og skráð var 17. mars 2026, þegar stjórnendur reyndu að minnka verkefni í ljósi vaxandi samkeppni og reglugerðaþrýstings. Með því að vinna með einkafjárfestum sem þegar eiga þúsundir iðnaðar-, flutnings- og þjónustufyrirtækja, getur OpenAI flýtt fyrir innleiðingu fyrirtækja‑stakkins án þess að byggja upp umfangsmikla beint söluteymi, á meðan fjárfestar fá sérkennilegan tæknilegan þátt til að auka verðmæti eignasafns síns. Greiningaraðilar sjá þrjár tafarlausar afleiðingar. Fyrst gæti sameiginlega fyrirtækið tryggt langtímasamninga sem sléttir út tekjuóbreytingar og vegir á móti vaxandi áhrifum Microsoft Azure‑studdra AI‑þjónusta. Í öðru lagi gæti samningurinn kallað fram aukna athygli frá samkeppnisstjórnun ESB, sem hefur rannsakað stórar AI‑miðaðar samstarf til að greina ósamkeppnishætti. Í þriðja lagi gæti samstarfið orðið fyrirmynd fyrir aðra AI‑sala sem leita að „innbyggðum“ leiðum til markaðarins. Hvað á að fylgjast með næst: lokaákvörðunin um sameiginlega fyrirtækið, verðlagningarlíkanið fyrir fyrirtækja‑leyfi og allar reglugerðarupplýsingar sem sýna hvernig gögn, hugverk og stjórnun verður meðhöndluð. Formleg tilkynning er væntanleg innan nokkurra vikna, og tímalínan fyrir fyrstu umferð eignasafns­fyrirtækja til innleiðingar verður lykilmælir á getu OpenAI til að breyta rannsókna‑forsýn í sjálfbæra tekjuuppsprettu í fyrirtækjarekstri.
40

Nvidia DL

Mastodon +9 heimildir mastodon
nvidia
Nvidia kynnti DLSS 5 á GTC 2026 ráðstefnunni, lofandi framleiðslulausa „taugamyndun“ pípur sem er knúin af generative‑AI og verður í boði fyrir GeForce RTX 60‑raðir GPU-ið á haustunni. Fyrirtækið sýndi rauntíma uppskölun sem ekki aðeins skerpa á áferð heldur einnig býr til tapaða rúmfræði, lýsingu og áhrif í rauntíma, sem umbreytir 1080p ramma í næstum 4K mynd án þess að draga úr frammistöðu eins og hefðbundin rasterisering. Jensen Huang lýsti eiginleikanum sem „GPT‑augnablik fyrir myndvinnslu“, og hélt því fram að sömu transformer‑líkön sem knúa stórum tungumálalíkönum nú styðji sjóngæði. Tilkynningin er mikilvæg því hún dregur AI‑fyrsta stefnu Nvidia út fyrir gagnaver og sjálfvirkra ökutækja í neytendaleikjamarkaðinn, þar sem rammatíðni og myndgæði eru enn helstu vígsvæðin. Með því að flytja flókin myndvinnsluaðgerðir á sérstakan taugavél, gæti DLSS 5 lækkað vélbúnaðarmörkin fyrir háupplausn, geislað leiki, og gert hágæða sjónupplifun aðgengilega á miðlungsstærðum tölvum. Þetta samræmist nýlegum vélbúnaðarútgáfum Nvidia – Vera CPU-ið fyrir sjálfstæða AI og opinn kóða NemoClaw vettvanginn – og bendir til samstilltra átakanna til að ráða AI‑stafrófinu frá silíki til hugbúnaðar. Það sem verður að fylgjast með næst er hversu fljótt leikjahönnuðir taka upp nýja SDK-ið og hvort samkeppnisaðilar í GPU geta samsvarað taugamyndunaraðferðinni. Nvidia hefur lofað beta‑prógram fyrir valin stúdíó seinna á þessu ári, og fyrstu neytenda‑spil eru áætlað að koma út um hátíðartímabilið. Greiningaraðilar í greininni munu fylgjast með frammistöðumælingum, orkunotkun og áhrifum á verðlag Nvidia RTX 60‑raðarinnar, á meðan stjórnvöld gætu skoðað vaxandi áreiðanleika á eignarlegum AI‑líkönum í neytendavörum. Útgáfan verður litmælir á hvort generative AI geti orðið aðalhröðun í myndvinnslu í stað þess að vera
38

Þáttur 115 - Yfirmaður OpenAI segir upp vegna siðferðis í varnarmálum DOD # ai # openai # DOJ Thanks for check ou

Mastodon +6 heimildir mastodon
ethicsopenairobotics
OpenAI‑yfirmanneskja í vélmenna, Caitlin Kalinowski, tilkynnti afsögn sína þann 7. mars 2026 og nefndi „ófullnægjandi verndarúrræði“ í kringum nýlega opinberaða samstarf við bandaríska varnarmálaráðuneytið. Í stuttu innleggi á X var Kalinowski að varða að ákvörðun um innlenda eftirlit og banvæn sjálfvirk vopn „vætti meiri ígrundun en hún fékk“, og að OpenAI hefði ekki sett skýrar siðferðilegar mörk áður en samningurinn var undirritaður. Afsögnin er nýjasta háprofíls brottför í stjórnunarstöð OpenAI, eftir fjölda niðurskurða á hliðaverkefnum og vaxandi lagaleg þrýsting frá FSF og Britannica vegna ágreinings um höfundarréttarbrot. Afsögn Kalinowski er mikilvæg vegna þess að hún dregur fram vaxandi innri ósammála um vaxandi hernaðarlegan þátt OpenAI. Fyrirtækið hefur sett fram háþróaða vélmenna­vettvang sinn sem „varniskala“ lausn fyrir sjálfvirka flutninga og stuðning á vígvelli, skref sem dregur línuna milli viðskipta‑AI og vopnabúnaðar. Gagnrýnendur halda því fram að án gagnsærrar eftirlits gæti tæknin verið endurnýtt til eftirlits með bandarískum borgurum eða til banvænnar sjálfvirkra kerfa, sem brýtur gegn eigin stjórnarskrá OpenAI um að „forðast að gera kleift notkun sem gæti valdið skaða“. Hlutverkaaðilar munu nú fylgjast með hvernig stjórn OpenAI bregst við stjórnunarspurningum sem Kalinowski vakti. Lykilatriði eru möguleg endurskoðun Pentagon‑samningsins, stofnun sjálfstæðs siðferðis‑eftirlitsnefndar og samskiptastefna fyrirtækisins við stjórnvöld og almenning. Afsögnin vekur einnig spurningar um viðhald hæfileika þegar OpenAI heldur áfram með útgáfur af GPT‑5.4 Mini og Nano og víðari kostnaðar‑lækkunaráætlun. Áhorfendur munu fylgjast með hvort fleiri brottfarir gerist, hvernig varnarmálaráðuneytið aðlagar væntingar sínar, og hvort þingnefndir kalla eftir OpenAI‑forstöðum til vitnisburðar um siðferðilegar tryggingar í AI‑drifnum varnarmálum.
37

More Practical Strategies for GenAI in Education: Part 2 Educators continue to grapple with the e

Mastodon +7 heimildir mastodon
appleeducation
A new guide titled **“More Practical Strategies for GenAI in Education: Part 2”** has been released, offering teachers concrete ways to weave generative AI tools such as ChatGPT into daily classroom practice. The publication follows a brief introductory piece and expands on how large language models can help visualise abstract concepts, sharpen students’ editing skills and deliver instant, constructive feedback on essays and code. The guide arrives at a moment when schools across the Nordics are wrestling with the twin pressures of ethical stewardship and competitive advantage. While policy drafts on AI use in education are still being debated in ministries, teachers report that unstructured adoption has already produced mixed results—ranging from plagiarism concerns to heightened engagement when AI is used as a scaffold rather than a shortcut. By laying out lesson‑plan templates, prompt‑engineering tips and assessment rubrics, the document aims to standardise best practices and reduce the risk of misuse. Stakeholders say the timing is crucial. Research from the “GenAI Education Frontier” initiative shows that early, well‑guided exposure can narrow achievement gaps, yet a parallel study warns that without clear safeguards the technology may exacerbate inequities. The new strategies therefore stress transparency, data‑privacy checks and the inclusion of diverse student voices in tool selection. Looking ahead, educators will be watching for the series’ third installment, which promises to address curriculum alignment and teacher‑training frameworks. Simultaneously, the European Commission’s forthcoming AI‑in‑Schools directive and national pilot programmes in Sweden and Finland will test whether the practical advice can scale beyond individual classrooms. The next few months should reveal whether the blend of pedagogical guidance and regulatory momentum can turn generative AI from a buzzword into a reliable teaching ally.
37

📰 Nvidia GTC 2026: Groq LPU örgjörvar, OpenClaw umboðsmenn og Disney AI‑robótar kynntir Nvidia GTC 2026

Mastodon +7 heimildir mastodon
agentsautonomouschipsnvidiarobotics
Nvidia‑s GTC 2026 aðalfyrirlestrarvarp kynnti þrenns konar tilkynningar sem gætu umbreytt AI‑vélbúnaði og umboðshugbúnaðarlandslaginu. Jensen Huang kynnti Groq‑hannaða Language Processing Unit (LPU), sérsniðinn hröðunaraðila sem geymir 500 MB af SRAM á flíkunum og setur saman afkóðunarleiðina í föstum formi þegar líkan er hlaðið. Með því að útrýma áætlanavinnuálagi sem hamlar GPU‑um í afkóðunarfasa, lofar LPU undir millisekúndu seinkun fyrir stórt samhengi, framleiðslulíkön – kjörstaður fyrir rauntíma umboðsmenn og samtalsaðstoðarmenn. Saman við LPU kynnti Nvidia Vera Rubin GPU-fjölskylduna og Vera CPU hillu, sem lokar vélbúnaðarstafli sem nær yfir þjálfun, ályktun og nýja “umboð AI” stigið. Huang spáir um $1 trílljón í pöntunum fyrir samsett Vera‑Rubin og LPU kerfi til ársins 2027, sem gefur til kynna sterkt eftirspurn frá fyrirtækjum eftir lága seinkun og hárstreymis ályktun. Á hugbúnaðarhliðinni var í fyrsta sinn kynntir OpenClaw umboðsmenn, opinn kóða arftaki NemoClaw vettvangsins sem fjallað var um þann 17. mars. OpenClaw stækkar umboðarramma með “plug‑and‑play” einingum fyrir sjálfstæða rannsókn, gagna‑söfnun og verkfæranotkun, og er þegar innbyggður í Dynamo 1.0 orkestrunarlag Nvidia. Með því að birta staflið vonar Nvidia til að flýta fyrir framlagi samfélagsins og festa de‑facto staðal fyrir næstu kynslóð AI‑aðstoðarmanna. Óvænt samstarf við Disney Research sýndi mannlegar vélmenni knúin af LPU‑Rubin samsetningunni, sem geta framleitt talgervingu og hreyfingar á staðnum án skýjatengingar. Sýningin lagði áherslu á viðskiptalega aðdráttarafl jaðarrýmis AI í skemmtun, skemmtigarða og gagnvirkum fjölmiðlum. Hvað á að fylgjast með næst: Vegvísir Nvidia fram til 2028 bendir til annarrar kynslóða LPU með víðari SRAM og nánari tengingu milli CPU og GPU, á meðan frumnotendur eins og OpenAI og Microsoft eru orðnir í sögunni um að meta OpenClaw fyrir innri verkfæri. Greiningaraðilar í greininni munu fylgjast með fyrstu silíku sendingum í fjórða fjórðungi 2026 og notkun Disney‑vélmenna í tilraunastöðum síðar á þessu ári.
37

📰 Cursor 2026: Hvers vegna það leiðir fyrirtækja‑AI og viðbótarmarkaði – Cursor er að koma fram sem ríkjandi

Mastodon +7 heimildir mastodon
acquisitioncursor
Cursor hefur tilkynnt nýtt safn af „Team Marketplaces“ og opinberað fjölda nýrra ráðninga sem í samvinnu drífa pallinn í forystu við þróun byggða á AI í fyrirtækjum. Viðbótarmarkaðirnir gera fyrirtækjum kleift að birta, selja og deila sérsniðnum AI‑knúnum viðbótum – frá kóðaskoðunarbótum til gagna‑pípunagerðara – beint í Cursor IDE‑umhverfinu. Með því að innleiða tekjurútlát og fínstilla aðgangsstýringar breytir Cursor ritlinum í litla forritasölu fyrir innri þróunarteymi. Aðgerðin er mikilvæg vegna þess að hún leysir vandamál sem hefur hamlað víðari notkun AI‑kóðahjálpara: skortur á sameinuðu, öruggu rás fyrir dreifingu sértækra viðbóta. Snemma í þessum mánuði lagði Andreessen Horowitz áherslu á „sérstaka“ eiginleika Cursor sem „samþætta AI“ um allan hugbúnaðarstaflið, og sýndi þannig traust fjárfesta á því að fyrirtækið hafi „einfalt gert það rétt“. Fyrir fyrirtæki sem þegar glíma við sundurliðaða verkfæraköfl, minnkar einn, yfirfarinn markaður innleiðingarþröskuldinn og dregur úr öryggisáhættu óformlegra viðbóta. Stefna Cursor bendir einnig á breytingu frá hreinu kóðaklárun til full‑stack þróunarvettvangs. Nýjustu ráðningarnar – meðal annars fyrrverandi yfirmaður GitHub Copilot‑markaðsteymisins og nokkrir eldri verkfræðingar frá Microsoft Azure AI hópnum – koma með djúpa reynslu í að stækka viðbótarfyrirkomulag og ský‑næmt AI‑þjónustur. Samkeppnisaðilar eins og GitHub Copilot, Claude Code og nýrri opna‑kóða lausnir eru nú að keppa um að endurgera svipaða markaðsaðgerð, en þeim vantar samþættan tilvísunarlag Cursor (CursorBlame) sem greinir AI‑framleiddan kóða frá mannlegum kóða. Hvað á að fylgjast með næst: Útgáfan á fyrsta opinbera Team Marketplace beta, áætlað fyrir Q2, mun sýna notkunartíðni og verðmódel. Greiningaraðilar munu einnig fylgjast með hvernig nýjar eignir Cursor breytast í nýja vörueiginleika, sérstaklega varðandi öryggisstyrkingu og fjöl‑leigjenda stjórnun. Ef markaðurinn fær fjöðrun, gæti hann sett nýjan staðal fyrir hvernig fyrirtæki græða og stjórna AI‑bættum þróunartólum. Eins og við skýrðum 17. mars, hefur Cursor þegar sýnt tæknilega færni sína gegn Claude Code; núverandi þrýstingur á eigendomsrétt kerfisins gæti fest ríkjandi stöðu í AI‑kóðunarfélagi fyrirtækja.
37

Í morgun spurði ég Google Gemini hvort ChatGPT eða Gemini sé betri. Svarið hefur komið mér á óvart

Mastodon +7 heimildir mastodon
claudegeminigooglemidjourney
Google‑Gemini spjallforritið kom notanda á óvart í morgun með því að gefa jafnvægið dóm þegar spurt var: „Er ChatGPT eða Gemini betri?“ Í stað þess að lýsa yfir eigin yfirburðum, lagði líkanið fram jafnvægið samanburð, viðurkenndi styrkleika á báðum hliðum og tók fram að „besta valið fer eftir sérstökum þörfum og samhengi notandans.“ Viðskiptin, sem voru birt á samfélagsmiðlum og fljótt náðu til AI‑samfélagsins, merkir fyrsta opinbera tilvik þar sem Gemini veitir sjálfsk criticism á samkeppnisaðila sínum. Þessi stund er mikilvæg því hún bendir til breytingar á því hvernig framleiðendur stórra tungumálalíkana setja fram samkeppni. Fram til þessa hafa flest AI‑fyrirtæki lagt mikið á markaðsáherslur, þar sem OpenAI hefur dregið fram samtalsflytileika ChatGPT og Google hefur lagt áherslu á fjölbreytileika Gemini. Nýjanleg svar Gemini bendir til nýrrar áherslu á gagnsæi og notendamiðaða leiðsögn, sem gæti minnkað áhyggjur af lásum hjá birgjum og hljóðrómar í eko‑kammara. Það fellur einnig að nýlegum tilraunum Google til að setja Gemini fram sem „samstýrara“ (co‑pilot) fyrir fagleg verkflæði, eins og sýnt var í Argus SOC samstýraranum byggðum á Gemini Live í byrjun þessa mánaðar [2026‑03‑17]. Það sem á eftir að fylgjast með er hvort Google formlegar þessa jafnvægið stefnu í vöru- og markaðsgögnum. Greiningaraðilar munu leita að uppfærslum á stefnu Gemini varðandi spurningar‑stjórnun, sérstaklega öryggisráðstöfunum sem hvetja til heiðarlegs samanburðar. Næsta stóra útgáfa—væntanleg innleiðing Gemini í Google Workspace og Android—gæti prófað hvort hlutlaus tónn líkanins skali á milljónir notenda. Á sama tíma bendir nýlegir tafir OpenAI á eiginleikum fyrir fullorðna og alþjóðlegum auglýsingum [2026‑03‑16] til víðtækari iðnaðarendurskoðunar í kringum ábyrga innleiðingu. Vaxandi samtal milli Gemini og ChatGPT mun líklega verða mælistika fyrir hvernig AI‑stórfyrirtæki jafna samkeppni og trúverðugleika í komandi mánuðum.
36

📰 Tilvitnun frá Tim Schilling: Leyndarmál tengsla Schilling Beer, Schilling Supply og Microsoft Copilot árið 2026

Mastodon +8 heimildir mastodon
copilotmicrosoft
Tim Schilling, opinn‑kóðasamtökumanni sem er þekktastur fyrir opinberar umfjöllanir um stór tungumálalíkön, hefur nýlega staðfest þríhliða samstarf sem tengir fyrirtækin hans – Schilling Beer og Schilling Supply – við Copilot AI‑vettvang Microsoft. Í stuttu viðtali sem birtist á persónulega blogginu hans útskýrði Schilling að nýja “Smart Brew” mælaborðið í brugghúsið keyrir á LLM Copilot, á meðan systurfyrirtækið í flutningum notar sama líkan til að sjálfvirkni í birgðaflutningi og eftirspárspá. „Ef þú notar LLM til að leggja af mörkum í Django, þarf það að vera sem viðbótartól, ekki sem ökutæki þitt,“ minnti hann hlustendum, og lagði áherslu á að gervigreindin sé til að auka, ekki að taka yfir, mannlegar ákvörðunartökur. Tilkynningin er mikilvæg því hún er eitt af fyrstu tilvikunum þar sem Microsoft dregur Copilot út fyrir hefðbundna skrifstofuvinnu og inn í sértæka, hágjaldsgeira eins og handverksbrugghús og svæðisbundna framboðsrásir. Með því að fella samtalsgervigreind beint inn í framleiðsluáætlanir vonast Schilling Beer til að minnka tíma frá lotu til vöru á hillinum um allt að 15 % og draga úr sóun vegna of‑gerðunar. Schilling Supply stefnir hins vegar að því að minnka fjölda kílómetra í flutningum með AI‑stýrðum hleðslu‑samruni, skref sem gæti orðið viðmið fyrir aðra lítil til meðalstór framleiðendur sem vilja keppa við stærri, gagnaríka keppinauta. Viðskiptavettvangsathugendur munu fylgjast með hvernig innleiðingin skalar. Microsoft hefur lofað að koma á “Copilot for Manufacturing” pakka seinna á þessu ári, og tilraunir Schilling gætu orðið tilvísunartilvik fyrir víðtækari útbreiðslu. Lykilatriði verða nákvæmni eftirspárspárna, hraði innleiðingar meðal starfsmanna í brugghúsi og möguleg reglugerðarviðbrögð gegn AI‑búnu ákvörðunum í framboðsrásinni. Ef tilraunin skilar mælanlegum kostnaðarhagræðingum, er líklegt að aðrir handverksbrugghús í norrænum löndum fylgi eftir, og flýti þannig innleiðingu gervigreindar í greinum sem hefðbundið eru lág‑tæknilegar.
36

AI‑uppgötun í menntun er blindgöt – Þegar þú býrð í rannsókna‑ og samfélagsmiðlabóla eins og ég

Mastodon +6 heimildir mastodon
education
AI‑uppgötvunartól sem lofa að merkja ritgerðir sem eru gerðar af vélum eru að hvarfast af háskólalóðum, þróun sem bendir til grundvallarendurskoðunar á stefnu um akademíska heiðarleika. Rúm af innri skýrslum og vitnisburðum nemenda, fyrst varpað ljósi á í greiningu frá mars 2026 um „The AI‑detection trap“, sýnir að nokkur evrópsk háskólar hafa í leyninu slökkt á viðskiptatólum eftir að hafa staðið frammi fyrir hárum fjölda rangra jákvæðra niðurstaðna, kostnaðarsömum áfrýjunum og vaxandi færni nemenda til að „spila“ kerfin með því að viljandi niðurbryta stílnum í skrifum sínum. Breytingin skiptir máli vegna þess að hún afhjúpar takmörk tæknifyrstu nálgunar á ritstuld. Rannsóknir frá byrjun 2024 sýndu að vinsæl uppgötvunartól mistókust að greina allt að 30 % af raunverulegu nemendaverkum sem AI‑skrifað, sem leiddi til refsiaðgerða sem rofnuðu traust milli kennara og námsmanna. Á sama tíma hafa gerðarlíkön eins og ChatGPT og Gemini orðið alls staðar í rannsóknum, námsverkefnum og jafnvel í stjórnunarmálum, sem gerir algerðar bann óraunhæft. Kennarar eru núna neyddir til að fara frá refsandi uppgötvun til kennslulegrar samþættingar, og hanna verkefni sem nýta AI sem samstarfstól frekar en sem falinn flýtileið. Það sem kemur næst fer eftir því hvernig stofnanir skipta út almennri uppgötvun með fínlegum aðferðum. Tilraunaprogram í Svíþjóð og Finnlandi eru að prófa „AI‑aukað mat“ ramma sem krefjast þess að nemendur tilkynni um notkun módelanna og íhuga niðurstöðurnar, á meðan greiningarvettvangar eru endurnýttir til að fylgjast með námsmynstri frekar en að merkja efni. Stefnumótendur fylgjast einnig með væntanlegum leiðbeiningum um AI‑lögun (AI‑Act) frá Evrópusambandinu, sem gætu sett staðla fyrir gagnsæi og ábyrgð í notkun AI í menntun. Eins og við skýrðum í „More Practical Strategies for GenAI in Education: Part 2“ (17 mar 2026), er raunveruleg áskorunin nú að byggja upp námskrár sem líta á gerðarlíkan sem færni til að meistarast, ekki sem ógn sem þarf að fela. Næstu nokkrir mánuðir munu sýna hvort þessi hliðrun í hugsun geti endurheimt traust án þess að snúa aftur til úreltra uppgötvunartóla.
36

Smol2Operator: Post-Training GUI Agents for Computer Use

Mastodon +6 heimildir mastodon
agentshuggingfacetraining
Hugging Face has unveiled Smol2Operator, an open‑source library that converts a pre‑trained large language model into a lightweight vision‑language agent capable of navigating desktop, mobile and web graphical user interfaces. The toolkit adds a two‑phase “post‑training” pipeline: the first stage grounds the model in screen pixels, while the second teaches it to deliberate, plan and execute multi‑step GUI actions. In benchmark tests on the ScreenSpot‑v2 suite, the approach delivered a 41 % lift over the prior baseline, turning a reactive element recogniser into a proactive coder that can open applications, fill forms and orchestrate complex workflows without additional LLM calls. The development matters because most existing AI agents still stumble on reliable UI interaction, a gap that has limited their usefulness beyond text‑only tasks. By marrying vision grounding with agentic reasoning in a compact model, Smol2Operator promises faster inference, lower hardware requirements and easier integration into privacy‑sensitive environments—issues highlighted in our March 17 coverage of why many agents fail and of private post‑training for frontier models. The library also dovetails with recent efforts to verify human oversight of AI‑driven shopping bots, suggesting a broader move toward accountable, on‑device automation. What to watch next is how quickly the community adopts the workflow. Early adopters are expected to plug Smol2Operator into existing agent frameworks such as AutoGPT or the cognitive‑layer architecture we described earlier this month, testing real‑world use cases from enterprise IT support to personal productivity assistants. Hugging Face has promised additional datasets and a model‑card repository by Q2 2026, while competitors are likely to release rival post‑training kits. The race to practical, trustworthy GUI agents is now entering a reproducible, open‑source phase that could reshape how humans and AI share the screen.

Allar dagsetningar